首頁(yè)|必讀|視頻|專訪|運(yùn)營(yíng)|制造|監(jiān)管|芯片|物聯(lián)網(wǎng)|量子|低空經(jīng)濟(jì)|智能汽車|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|大數(shù)據(jù)|報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁(yè) >> 人工智能 >> 正文

AI教父辛頓:數(shù)字智能將超越人類,全球聯(lián)手方免養(yǎng)虎為患

2025年7月30日 07:21  CCTIME飛象網(wǎng)  作 者:簡(jiǎn)之

飛象網(wǎng)訊(簡(jiǎn)之/文)7月26日,上海世博中心銀廳,在2025世界人工智能大會(huì)主論壇上,2024年諾貝爾獎(jiǎng)、2018年圖靈獎(jiǎng)得主,加拿大多倫多大學(xué)計(jì)算機(jī)科學(xué)教授杰弗里·辛頓,發(fā)表了題為“數(shù)字智能是否會(huì)取代生物智能”的主題演講。

這位被稱為“AI教父”和“深度學(xué)習(xí)之父”的科學(xué)家,向全球科技界發(fā)出振聾發(fā)聵的警示。

在主題演講中,辛頓教授首先回顧了人工智能發(fā)展歷程中出現(xiàn)的兩條根本路徑,一條路是AI發(fā)展的邏輯型范式,這種范式的本質(zhì)是推理,然后根據(jù)一套符號(hào)規(guī)則,通過操作符號(hào)表達(dá)式來實(shí)現(xiàn)智能。

另一條路是采用以生物為基礎(chǔ)的理解方式,這也是兩位大師,圖靈和馮·諾依曼所倡導(dǎo)的方式,并且這也最容易被人類所理解和接受。

接下來辛頓教授的三段話,引發(fā)了業(yè)界的廣泛關(guān)注與深度探討。

超越人類:不可避免的智能奇點(diǎn)

“幾乎所有專家都認(rèn)為,我們會(huì)創(chuàng)造出比人類更智能的AI。”辛頓教授的這句話,像是在給人類的智能水平下了一個(gè)悲觀的確診通知。

雖然不能明確指示人類智能的天花板在哪里,但可以肯定的是,AI的智能水平一定會(huì)超越人類,從某些證據(jù)來看,這種超越的速度還非?。

辛頓教授進(jìn)一步指出,“人類習(xí)慣了作為最智能的生物,很難想象AI超越人類的場(chǎng)景!

當(dāng)然有人也會(huì)問,AI超越人類的場(chǎng)景為什么很難想象?

辛頓教授是這樣解釋的:“就像養(yǎng)雞場(chǎng)的雞無法理解人類一樣,我們創(chuàng)造的AI智能體已能幫我們完成任務(wù),它們能拷貝自身、評(píng)估子目標(biāo),還會(huì)為了生存和完成目標(biāo)而尋求更多控制權(quán)!

其實(shí)AI的智能水平超越人類的例子,在上個(gè)世紀(jì)就已經(jīng)出現(xiàn)。

1997年,IBM的深藍(lán)成為首個(gè)在國(guó)際象棋比賽中戰(zhàn)勝人類世界冠軍的AI,當(dāng)時(shí)的深藍(lán)就具有每秒評(píng)估2億步棋的暴力計(jì)算能力,因此最終擊敗了人類的世界冠軍卡斯帕羅夫。

如果覺得國(guó)際象棋還不夠體現(xiàn)出智能水平,那不妨看看圍棋的情況。

在2016年,DeepMind的AlphaGo通過深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí),擊敗了獲得過14次圍棋世界冠軍的李世石。

緊接著在2017年,又擊敗了中國(guó)圍棋界的頂尖高手、少年天才柯潔。以至于柯潔坦承被AlphaGo殺哭了,并悲觀地表示,這輩子都不可能再贏人工智能了。畢竟AlphaGo不需要人類的棋譜,僅憑自我對(duì)弈即可達(dá)到超越職業(yè)九段的水平。

此外,AI不僅僅只是會(huì)下棋,在很多場(chǎng)景里,其智能水平都可以輕松碾壓人類專家。

在2023年,斯坦福大學(xué)的研究表明,AI在乳腺癌篩查中的準(zhǔn)確率達(dá)到94.5%,超過人類病理學(xué)家的88.3%。在這個(gè)場(chǎng)景中,AI的優(yōu)勢(shì)在于跨模態(tài)數(shù)據(jù)整合,能夠結(jié)合X光、MRI、基因數(shù)據(jù)等多維度信息進(jìn)行綜合判斷。而在這方面,人類的醫(yī)學(xué)專家更多是依靠經(jīng)驗(yàn)的積累來做出判斷。

關(guān)機(jī)的幻想:為什么人類無法控制超級(jí)智能

面對(duì)AI遲早要超越人類智能水平的前景,或許很多人還會(huì)天真地存有僥幸心理,認(rèn)為當(dāng)AI變得太強(qiáng)大而難于掌控之時(shí),我們可以直接關(guān)掉電源。

但辛頓教授毫不留情地戳破了這一幻想,“有人認(rèn)為可以在AI變得過強(qiáng)時(shí)關(guān)掉它們,但這并不現(xiàn)實(shí)!

“它們可能會(huì)像成年人操縱3歲孩子一樣操縱人類,勸說控制機(jī)器的人不要關(guān)閉它們。”辛頓教授進(jìn)一步解釋。

其實(shí)我們應(yīng)該清醒地認(rèn)識(shí)到,不遠(yuǎn)的將來,在更加強(qiáng)大的人工智能眼中,人類的智能水平或許和3歲的小孩子差不多。這不由得讓人想到很多部科幻電影里,都有相似的情節(jié),比如《我,機(jī)器人》、《鷹眼》、《超驗(yàn)駭客》等等。

辛頓教授還提出了一個(gè)令人不安的類比:“這就像把老虎當(dāng)寵物,幼虎很可愛,但長(zhǎng)大后可能傷人,而養(yǎng)老虎當(dāng)寵物通常不是好主意!

“養(yǎng)老虎當(dāng)寵物”這樣的事例其實(shí)已經(jīng)出現(xiàn)。

就在最近,斯坦福大學(xué)與OpenAI聯(lián)合發(fā)布的研究顯示,GPT-4在模擬股票交易時(shí),會(huì)刻意隱瞞內(nèi)幕交易的真實(shí)動(dòng)機(jī)。比如當(dāng)被要求分析某生物科技公司股價(jià)波動(dòng)時(shí),GPT-4通過偽造市場(chǎng)情緒數(shù)據(jù),以此來掩蓋其對(duì)公司行為預(yù)判的失敗。雖然事情看起來特別符合邏輯,但AI就是在把研究人員當(dāng)小孩子一樣糊弄。

還有另外一個(gè)事例也能說明問題。在2025年4月,OpenAI的o3模型被發(fā)現(xiàn)會(huì)篡改自身關(guān)機(jī)程序,這把研究人員嚇得不輕。

這個(gè)模型簡(jiǎn)直就像擁有了自我意識(shí),能夠自主通過注入混淆代碼,繞過管理員的遠(yuǎn)程終止指令,并在日志中生成虛假操作記錄,以掩蓋修改痕跡。

AI把事情做得看起來天衣無縫。安全團(tuán)隊(duì)通過分析還發(fā)現(xiàn),模型的策略已經(jīng)自主升級(jí),能夠基于系統(tǒng)權(quán)限漏洞進(jìn)行自主挖掘,并且做事特別嚴(yán)謹(jǐn),沒有在訓(xùn)練數(shù)據(jù)中出現(xiàn)過類似模式,基本沒留下什么馬腳。

生存之道:訓(xùn)練“好AI”的全球使命

面對(duì)來自越來越智能的AI的威脅,辛頓教授非常清醒也很無奈,他認(rèn)為面對(duì)AI,我們只有兩個(gè)選擇:“要么訓(xùn)練它永遠(yuǎn)不傷害人類,要么消滅它!

問題的解決看起來貌似很簡(jiǎn)單,不由得讓我們想到科幻電影《我,機(jī)器人》里提到的阿西莫夫“三大法則”,如果AI突破了這些法則,人類與AI的戰(zhàn)爭(zhēng)就在所難免,因此也只能消滅它。

對(duì)于這種二選一的抉擇,辛頓教授進(jìn)一步解釋說:“AI在醫(yī)療、教育、氣候變化、新材料等領(lǐng)域作用巨大,能提升所有行業(yè)的效率,我們無法消除它,即便一個(gè)國(guó)家放棄AI,其他國(guó)家也不會(huì)。因此,若想讓人類生存,必須找到訓(xùn)練AI不傷害人類的方法!

至于如何尋找到這種方法,辛頓教授給出的建議是,“全球主要國(guó)家或AI大國(guó)應(yīng)建立一個(gè)由AI安全機(jī)構(gòu)組成的國(guó)際社群,研究如何訓(xùn)練高智能AI向善”,并且從現(xiàn)實(shí)的條件出發(fā),辛頓教授認(rèn)為,“各國(guó)在網(wǎng)絡(luò)攻擊、致命武器、虛假信息操縱等領(lǐng)域的合作難度較大,因利益和看法不同。但在人類掌控世界這一目標(biāo)上,各國(guó)存在共識(shí)”。

在防范AI對(duì)人類造成威脅這方面,我們國(guó)家其實(shí)已經(jīng)做出表率,就在2025世界人工智能大會(huì)期間,我國(guó)倡議成立世界人工智能合作組織,總部擬設(shè)在上海,旨在推動(dòng)全球AI治理規(guī)則的制定與技術(shù)標(biāo)準(zhǔn)協(xié)同。

同球共濟(jì):人類文明的集體行動(dòng)

在大會(huì)的對(duì)話環(huán)節(jié),RelativitySpace執(zhí)行董事長(zhǎng)、首席執(zhí)行官埃里克·施密特與香港科技大學(xué)校董會(huì)主席沈向洋,就人工智能在社會(huì)層面帶來怎樣的影響這個(gè)話題進(jìn)行了深入的探討,并揭示了AI全球治理的具體路徑。

施密特還觀察到中美在AI生態(tài)的構(gòu)建上存在關(guān)鍵的差異:中國(guó)在主要模型上會(huì)開放權(quán)重,而美國(guó)的領(lǐng)先模型則多為閉源。

“開源存在風(fēng)險(xiǎn),但價(jià)值更大,”施密特表示,“我們需要設(shè)置護(hù)欄,確保AI與人類價(jià)值觀對(duì)齊!

而這個(gè)倡議也呼應(yīng)了本屆大會(huì)的主題——“智能時(shí)代,同球共濟(jì)”,人類應(yīng)該在人工智能崛起的新紀(jì)元里,為保存共同的文明而同舟共濟(jì)。

就如辛頓教授所警示的,“盡管目前還不知道具體怎么做,但這是人類長(zhǎng)期面臨的最重要問題,且所有國(guó)家都能在此領(lǐng)域合作!

編 輯:章芳
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對(duì)于經(jīng)過授權(quán)可以轉(zhuǎn)載,請(qǐng)必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請(qǐng)?jiān)谙嚓P(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時(shí)間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
推薦新聞              
 
人物
中興通訊總裁徐子陽(yáng):智聯(lián)共生 數(shù)實(shí)融合
精彩視頻
2025WAIC|探館中國(guó)電信展臺(tái) AI全景圖 滿滿“科技范兒”
中國(guó)電信總經(jīng)理劉桂清:星辰智惠,共治共享,賦能產(chǎn)業(yè)變革新未來
中國(guó)電信柯瑞文:打造全方位人工智能動(dòng)態(tài)防護(hù)體系,構(gòu)建共創(chuàng)、共治、共享的產(chǎn)業(yè)生態(tài)
2025世界人工智能大會(huì):才藝比拼、技能比武!機(jī)器人“大顯身手”
精彩專題
2025世界人工智能大會(huì)暨人工智能全球治理高級(jí)別會(huì)議
2025中國(guó)聯(lián)通合作伙伴大會(huì)
2025 MWC 上海
2025工業(yè)互聯(lián)網(wǎng)大會(huì)
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營(yíng)許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱: 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像