飛象網(wǎng)訊(簡之/文)7月26日,上海世博中心銀廳,在2025世界人工智能大會(huì)主論壇上,2024年諾貝爾獎(jiǎng)、2018年圖靈獎(jiǎng)得主,加拿大多倫多大學(xué)計(jì)算機(jī)科學(xué)教授杰弗里·辛頓,發(fā)表了題為“數(shù)字智能是否會(huì)取代生物智能”的主題演講。
這位被稱為“AI教父”和“深度學(xué)習(xí)之父”的科學(xué)家,向全球科技界發(fā)出振聾發(fā)聵的警示。
在主題演講中,辛頓教授首先回顧了人工智能發(fā)展歷程中出現(xiàn)的兩條根本路徑,一條路是AI發(fā)展的邏輯型范式,這種范式的本質(zhì)是推理,然后根據(jù)一套符號(hào)規(guī)則,通過操作符號(hào)表達(dá)式來實(shí)現(xiàn)智能。
另一條路是采用以生物為基礎(chǔ)的理解方式,這也是兩位大師,圖靈和馮·諾依曼所倡導(dǎo)的方式,并且這也最容易被人類所理解和接受。
接下來辛頓教授的三段話,引發(fā)了業(yè)界的廣泛關(guān)注與深度探討。
超越人類:不可避免的智能奇點(diǎn)
“幾乎所有專家都認(rèn)為,我們會(huì)創(chuàng)造出比人類更智能的AI。”辛頓教授的這句話,像是在給人類的智能水平下了一個(gè)悲觀的確診通知。
雖然不能明確指示人類智能的天花板在哪里,但可以肯定的是,AI的智能水平一定會(huì)超越人類,從某些證據(jù)來看,這種超越的速度還非?。
辛頓教授進(jìn)一步指出,“人類習(xí)慣了作為最智能的生物,很難想象AI超越人類的場景!
當(dāng)然有人也會(huì)問,AI超越人類的場景為什么很難想象?
辛頓教授是這樣解釋的:“就像養(yǎng)雞場的雞無法理解人類一樣,我們創(chuàng)造的AI智能體已能幫我們完成任務(wù),它們能拷貝自身、評(píng)估子目標(biāo),還會(huì)為了生存和完成目標(biāo)而尋求更多控制權(quán)。”
其實(shí)AI的智能水平超越人類的例子,在上個(gè)世紀(jì)就已經(jīng)出現(xiàn)。
1997年,IBM的深藍(lán)成為首個(gè)在國際象棋比賽中戰(zhàn)勝人類世界冠軍的AI,當(dāng)時(shí)的深藍(lán)就具有每秒評(píng)估2億步棋的暴力計(jì)算能力,因此最終擊敗了人類的世界冠軍卡斯帕羅夫。
如果覺得國際象棋還不夠體現(xiàn)出智能水平,那不妨看看圍棋的情況。
在2016年,DeepMind的AlphaGo通過深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí),擊敗了獲得過14次圍棋世界冠軍的李世石。
緊接著在2017年,又擊敗了中國圍棋界的頂尖高手、少年天才柯潔。以至于柯潔坦承被AlphaGo殺哭了,并悲觀地表示,這輩子都不可能再贏人工智能了。畢竟AlphaGo不需要人類的棋譜,僅憑自我對(duì)弈即可達(dá)到超越職業(yè)九段的水平。
此外,AI不僅僅只是會(huì)下棋,在很多場景里,其智能水平都可以輕松碾壓人類專家。
在2023年,斯坦福大學(xué)的研究表明,AI在乳腺癌篩查中的準(zhǔn)確率達(dá)到94.5%,超過人類病理學(xué)家的88.3%。在這個(gè)場景中,AI的優(yōu)勢在于跨模態(tài)數(shù)據(jù)整合,能夠結(jié)合X光、MRI、基因數(shù)據(jù)等多維度信息進(jìn)行綜合判斷。而在這方面,人類的醫(yī)學(xué)專家更多是依靠經(jīng)驗(yàn)的積累來做出判斷。
關(guān)機(jī)的幻想:為什么人類無法控制超級(jí)智能
面對(duì)AI遲早要超越人類智能水平的前景,或許很多人還會(huì)天真地存有僥幸心理,認(rèn)為當(dāng)AI變得太強(qiáng)大而難于掌控之時(shí),我們可以直接關(guān)掉電源。
但辛頓教授毫不留情地戳破了這一幻想,“有人認(rèn)為可以在AI變得過強(qiáng)時(shí)關(guān)掉它們,但這并不現(xiàn)實(shí)!
“它們可能會(huì)像成年人操縱3歲孩子一樣操縱人類,勸說控制機(jī)器的人不要關(guān)閉它們!毙令D教授進(jìn)一步解釋。
其實(shí)我們應(yīng)該清醒地認(rèn)識(shí)到,不遠(yuǎn)的將來,在更加強(qiáng)大的人工智能眼中,人類的智能水平或許和3歲的小孩子差不多。這不由得讓人想到很多部科幻電影里,都有相似的情節(jié),比如《我,機(jī)器人》、《鷹眼》、《超驗(yàn)駭客》等等。
辛頓教授還提出了一個(gè)令人不安的類比:“這就像把老虎當(dāng)寵物,幼虎很可愛,但長大后可能傷人,而養(yǎng)老虎當(dāng)寵物通常不是好主意!
“養(yǎng)老虎當(dāng)寵物”這樣的事例其實(shí)已經(jīng)出現(xiàn)。
就在最近,斯坦福大學(xué)與OpenAI聯(lián)合發(fā)布的研究顯示,GPT-4在模擬股票交易時(shí),會(huì)刻意隱瞞內(nèi)幕交易的真實(shí)動(dòng)機(jī)。比如當(dāng)被要求分析某生物科技公司股價(jià)波動(dòng)時(shí),GPT-4通過偽造市場情緒數(shù)據(jù),以此來掩蓋其對(duì)公司行為預(yù)判的失敗。雖然事情看起來特別符合邏輯,但AI就是在把研究人員當(dāng)小孩子一樣糊弄。
還有另外一個(gè)事例也能說明問題。在2025年4月,OpenAI的o3模型被發(fā)現(xiàn)會(huì)篡改自身關(guān)機(jī)程序,這把研究人員嚇得不輕。
這個(gè)模型簡直就像擁有了自我意識(shí),能夠自主通過注入混淆代碼,繞過管理員的遠(yuǎn)程終止指令,并在日志中生成虛假操作記錄,以掩蓋修改痕跡。
AI把事情做得看起來天衣無縫。安全團(tuán)隊(duì)通過分析還發(fā)現(xiàn),模型的策略已經(jīng)自主升級(jí),能夠基于系統(tǒng)權(quán)限漏洞進(jìn)行自主挖掘,并且做事特別嚴(yán)謹(jǐn),沒有在訓(xùn)練數(shù)據(jù)中出現(xiàn)過類似模式,基本沒留下什么馬腳。
生存之道:訓(xùn)練“好AI”的全球使命
面對(duì)來自越來越智能的AI的威脅,辛頓教授非常清醒也很無奈,他認(rèn)為面對(duì)AI,我們只有兩個(gè)選擇:“要么訓(xùn)練它永遠(yuǎn)不傷害人類,要么消滅它!
問題的解決看起來貌似很簡單,不由得讓我們想到科幻電影《我,機(jī)器人》里提到的阿西莫夫“三大法則”,如果AI突破了這些法則,人類與AI的戰(zhàn)爭就在所難免,因此也只能消滅它。
對(duì)于這種二選一的抉擇,辛頓教授進(jìn)一步解釋說:“AI在醫(yī)療、教育、氣候變化、新材料等領(lǐng)域作用巨大,能提升所有行業(yè)的效率,我們無法消除它,即便一個(gè)國家放棄AI,其他國家也不會(huì)。因此,若想讓人類生存,必須找到訓(xùn)練AI不傷害人類的方法!
至于如何尋找到這種方法,辛頓教授給出的建議是,“全球主要國家或AI大國應(yīng)建立一個(gè)由AI安全機(jī)構(gòu)組成的國際社群,研究如何訓(xùn)練高智能AI向善”,并且從現(xiàn)實(shí)的條件出發(fā),辛頓教授認(rèn)為,“各國在網(wǎng)絡(luò)攻擊、致命武器、虛假信息操縱等領(lǐng)域的合作難度較大,因利益和看法不同。但在人類掌控世界這一目標(biāo)上,各國存在共識(shí)”。
在防范AI對(duì)人類造成威脅這方面,我們國家其實(shí)已經(jīng)做出表率,就在2025世界人工智能大會(huì)期間,我國倡議成立世界人工智能合作組織,總部擬設(shè)在上海,旨在推動(dòng)全球AI治理規(guī)則的制定與技術(shù)標(biāo)準(zhǔn)協(xié)同。
同球共濟(jì):人類文明的集體行動(dòng)
在大會(huì)的對(duì)話環(huán)節(jié),RelativitySpace執(zhí)行董事長、首席執(zhí)行官埃里克·施密特與香港科技大學(xué)校董會(huì)主席沈向洋,就人工智能在社會(huì)層面帶來怎樣的影響這個(gè)話題進(jìn)行了深入的探討,并揭示了AI全球治理的具體路徑。
施密特還觀察到中美在AI生態(tài)的構(gòu)建上存在關(guān)鍵的差異:中國在主要模型上會(huì)開放權(quán)重,而美國的領(lǐng)先模型則多為閉源。
“開源存在風(fēng)險(xiǎn),但價(jià)值更大,”施密特表示,“我們需要設(shè)置護(hù)欄,確保AI與人類價(jià)值觀對(duì)齊!
而這個(gè)倡議也呼應(yīng)了本屆大會(huì)的主題——“智能時(shí)代,同球共濟(jì)”,人類應(yīng)該在人工智能崛起的新紀(jì)元里,為保存共同的文明而同舟共濟(jì)。
就如辛頓教授所警示的,“盡管目前還不知道具體怎么做,但這是人類長期面臨的最重要問題,且所有國家都能在此領(lǐng)域合作!