自從1892年威廉·格拉德斯通首次登臺以來,牛津大學的羅曼講座吸引了包括溫斯頓·丘吉爾和艾麗斯·默多克女爵在內的一系列知名演講者。
然而,像杰弗里·辛頓這樣的演講者發(fā)表的言論極其少見且引人深思。辛頓教授在神經網絡方面的工作塑造了今天的人工智能系統(tǒng)。他是引入反向傳播算法的研究者之一,并且是第一個使用反向傳播來學習詞嵌入的人。他對神經網絡研究的其他貢獻包括玻爾茲曼機、分布式表示、時延神經網絡、專家混合體、變分學習和深度學習。他在多倫多的研究小組在深度學習方面取得了重大突破,這些突破革命性地改變了語音識別和對象分類。
這位人工智能領域的先鋒在本周的演講中直言不諱地提出了一個挑戰(zhàn)性問題:《數字智能將取代生物智能嗎?》他的回答幾乎是肯定的。不過,辛頓反對西海岸科技界一些人士的看法,他們認為堅持人類智能相對于電子智能形式的優(yōu)越性某種程度上是種族主義。他幽默地表示:“我們人類應當盡可能地保持存在?!?br />
這位加拿大和英國雙國籍的計算機科學家憑借他在“深度學習”技術上的開創(chuàng)性工作而聲名鵲起,這些技術徹底改變了人工智能領域,促成了像 ChatGPT 這樣的生成式聊天機器人的誕生。在他的整個學術生涯及在 Google 的工作中,辛頓一直認為人工智能不構成對人類的威脅。然而,這位76歲的研究者去年經歷了一次重大的覺醒,他決定離開 Google,開始公開討論人工智能潛在的風險。辛頓發(fā)現,日益強大的人工智能模型能夠像“集體意識”一樣運作,它們能夠共享學習到的內容,這使得它們比人類擁有了壓倒性的優(yōu)勢。“這讓我認識到,它們或許代表了一種更高級的智能形式,”他在講座前接受采訪時向我透露。
想象一下,僅僅是軟件代碼就能對人類構成威脅,聽起來幾乎像是科幻小說的情節(jié)。然而,辛頓指出了兩大風險。首先,惡意的人可能會為機器設定邪惡的目標,并將其用于諸如傳播虛假信息、生物恐怖主義、網絡戰(zhàn)爭以及制造殺人機器人等危害社會的活動。尤其值得注意的是,開源的人工智能模型,比如 Meta 的 Llama,實際上已經將強大的工具交到了不懷好意的人手里?!拔矣X得把這些大模型開源簡直是瘋了,”他評論道。更進一步,他還預測,這些模型可能會以危險的方式“演化”,培養(yǎng)出想要控制一切的意圖?!叭绻乙獙φ岢鼋ㄗh,我會說這些技術在未來20年內有10%的幾率導致人類滅絕。我認為這個估計是合理的,”他補充說。
辛頓的看法遭到了雙重質疑。首先,有研究人員批評,當前的生成式人工智能模型不過是成本高昂的統(tǒng)計花招,認為技術可能導致的終極風險純屬“科幻小說”。
知名學者諾姆·喬姆斯基持有的觀點是,人類天生具備一種“操作系統(tǒng)”,這讓我們有能力理解語言,而這正是機器所缺失的。然而,辛頓對此提出了反駁,他指出 OpenAI 最新開發(fā)的 GPT-4 模型能夠學習語言,并表現出了同理心、邏輯推理以及諷刺能力,這證明了機器同樣能夠“理解”語言?!拔以谖业闹v座中做出了一個堅定的聲明,認為這些模型確實具備理解能力,”他明確表示。
另一個質疑的聲音來自 Meta 的首席人工智能科學家 Yann LeCun。LeCun,一個開源模型的堅定擁護者,認為我們目前的人工智能系統(tǒng)連貓都不如,他認為它們構成人類威脅的想法簡直是“可笑”的?!拔矣X得 Yann 太過天真了。人類的未來就懸于此一線,”辛頓如是回應。
辛頓那平和而又嚴謹的說話方式與他傳遞的信息的悲觀基調形成了強烈的對比。有沒有可能采取措施來增加人類的存續(xù)機會呢?“我真希望我有答案,”他說?!拔椰F在并不是要推薦某個具體的解決辦法,我只是想要強調這個問題的存在?!?br />
他對去年英國在布萊切利公園舉行的人工智能安全峰會能夠引發(fā)國際范圍內的政策討論感到欣慰。但是,從那以后,他指出英國政府似乎將利潤放在了安全之前。“就像對待氣候變化問題一樣,”他認為,只有當科學界達成一致意見時,才可能實施重大政策調整。不過,他也承認,目前這樣的共識還遠未形成。借用物理學家馬克斯·普朗克的話,辛頓沉重地說:“科學的進步,似乎是一次葬禮后才邁進一步?!?br />
他表示,看到新一代計算機科學家認真對待存在性威脅,他感到鼓舞。他提議,應該有30%的人工智能研究人員專注于研究安全問題,而當前這一比例大約僅為1%。
我們通常對那些認為需要更多研究的研究人員持保留態(tài)度。最后,這種情況下以及考慮到所面臨AI的風險和不確定性,我們確實需要加快行動來建立新的共識。