“面對(duì)AI,我們只有兩個(gè)選擇:要么訓(xùn)練它永遠(yuǎn)不傷害人類(lèi),要么‘消滅’它!”7月26日,“AI教父”、諾獎(jiǎng)與圖靈獎(jiǎng)雙料得主杰弗里·辛頓(Geoffrey Hinton)首次到訪中國(guó),站上2025世界人工智能大會(huì)暨人工智能全球治理高級(jí)別會(huì)議(WAIC 2025)主論壇講臺(tái),向世界拋出那個(gè)關(guān)乎“人類(lèi)智能是否可被模擬”的終極問(wèn)題。
“當(dāng)前人類(lèi)與AI的關(guān)系,就像在飼養(yǎng)一只老虎幼崽——它長(zhǎng)大后可能輕易超越人類(lèi)。幾乎所有專(zhuān)家都認(rèn)為,我們將創(chuàng)造出比人類(lèi)更智能的AI?!边@讓杰弗里·辛頓感到擔(dān)憂,在談及AI安全時(shí),他發(fā)出警告,未來(lái)AI或會(huì)具備自我復(fù)制與目標(biāo)控制能力,“一旦它們的智能水平遠(yuǎn)超人類(lèi),它們將會(huì)像成年人操縱三歲小孩一樣輕松地操縱我們?!?/p>
杰弗里·辛頓同時(shí)指出,AI在醫(yī)療、教育、氣候變化、新材料等領(lǐng)域潛力巨大,幾乎能夠提升所有行業(yè)的效率,“即便有國(guó)家選擇放棄AI,其他國(guó)家也不會(huì)停止發(fā)展。因此,我們無(wú)法消除AI,只能找到訓(xùn)練它不傷害人類(lèi)的方法?!?/p>
對(duì)此,杰弗里·辛頓認(rèn)為,各國(guó)在網(wǎng)絡(luò)攻擊、致命武器、虛假信息操縱等領(lǐng)域的合作難度較大,因?yàn)槔婧涂捶ú煌?,但在“人?lèi)掌控世界”這一目標(biāo)上,可以尋找共識(shí),一起探索防止AI操控世界的方法,這將是人類(lèi)長(zhǎng)期面臨的重要課題。
他呼吁全球建立由各國(guó)人工智能安全研究所與國(guó)內(nèi)研究網(wǎng)絡(luò)組成的國(guó)際社群,研究如何訓(xùn)練高智能AI向善,各國(guó)可在本國(guó)主權(quán)范圍內(nèi)研究并分享成果,合作培養(yǎng)不會(huì)從人類(lèi)手中奪權(quán)的“好AI”。
“盡管目前還不知道具體怎么做,但這是人類(lèi)長(zhǎng)期面臨的最重要問(wèn)題,且所有國(guó)家都能在此領(lǐng)域合作?!彼f(shuō)。
主辦方供圖
友情鏈接: 政府 高新園區(qū)合作媒體
Copyright 1999-2025 中國(guó)高新網(wǎng)chinahightech.com All Rights Reserved.京ICP備14033264號(hào)-5
電信與信息服務(wù)業(yè)務(wù)經(jīng)營(yíng)許可證060344號(hào)主辦單位:《中國(guó)高新技術(shù)產(chǎn)業(yè)導(dǎo)報(bào)》社有限責(zé)任公司