編譯|巴比特資訊 Will Douglas Heaven
是誰在害怕機(jī)器人?似乎很多人都是這樣。目前,公開發(fā)表聲明或簽署公開信警告人工智能災(zāi)難性危險的知名人士的數(shù)量多到驚人。
數(shù)以百計的科學(xué)家、商業(yè)領(lǐng)袖和政策制定者已經(jīng)發(fā)聲,包括從深度學(xué)習(xí)先驅(qū) Geoffrey Hinton 和 Yoshua Bengio,到頂級人工智能公司的首席執(zhí)行官,如 Sam Altman 和 Demis Hassabis,再到加州眾議員 Ted Lieu 和愛沙尼亞前總統(tǒng) Kersti Kaljulaid。
由所有這些人士和其他更多人簽署的最嚴(yán)酷的斷言是兩周前由舊金山的研究組織人工智能安全中心(CAIS)發(fā)布的 22 個字的聲明,它宣稱“減輕人工智能帶來的滅絕風(fēng)險應(yīng)該是一個全球性的優(yōu)先事項,與其他社會規(guī)模的風(fēng)險如疫情和核戰(zhàn)爭一樣。”
這種措辭是經(jīng)過深思熟慮的。CAIS 主任 Dan Hendrycks 說:“如果我們要用羅夏測試式的陳述,我們會說‘生存風(fēng)險’(existential risk),因為這對很多不同的人來說可能意味著很多東西。”但他們希望澄清:這并不是要搞垮經(jīng)濟(jì)。Hendrycks 說:“這就是為什么我們提到了‘滅絕風(fēng)險’(risk of extinction),盡管我們很多人也擔(dān)心其他各種風(fēng)險。”
我們以前也經(jīng)歷過這樣的情況:人工智能的厄運(yùn)伴隨著人工智能的炒作。但這一次感覺不同。奧弗頓窗口已經(jīng)轉(zhuǎn)移了。曾經(jīng)的極端觀點(diǎn)現(xiàn)在成了主流話題,不僅搶占了頭條,還引起了世界領(lǐng)導(dǎo)人的注意。研究技術(shù)社會影響的組織“數(shù)據(jù)與社會”(Data and Society)的研究主任 Jenna Burrell 說:“對人工智能表示擔(dān)憂的聲音已經(jīng)大到無法忽視?!?/p>
這是發(fā)生了什么?人工智能真的變得(更)危險了嗎?為什么當(dāng)初引進(jìn)這項技術(shù)的人現(xiàn)在卻開始拉響警報?
誠然,這些觀點(diǎn)在該領(lǐng)域存在分歧。上周,Meta 公司的首席科學(xué)家、與 Hinton 和 Bengio 共同獲得 2018 年圖靈獎的 Yann LeCun 稱末日論“荒謬可笑”。人工智能公司 Cohere 的首席執(zhí)行官 Aidan Gomez 表示,這是“對我們時間的荒謬?yán)谩薄?/p>
同樣,其他人也對此嗤之以鼻。Signal 總裁 Meredith Whittaker 表示:“現(xiàn)在沒有比 1950 年有更多的證據(jù)表明,人工智能將構(gòu)成這些生存風(fēng)險?!盬hittaker 是人工智能研究所(AI now Institute)的聯(lián)合創(chuàng)始人和前主任,該研究所是一家研究人工智能政策影響的研究實驗室?!肮砉适率菚魅镜摹ε抡娴暮芰钊伺d奮和刺激?!?/p>
“這也是一種略過當(dāng)今所發(fā)生的一切的方式,”Burrell 說?!八砻魑覀冞€沒有看到真正或嚴(yán)重的危害?!?/p>
一種古老的恐懼
自阿蘭 - 圖靈以來,對失控的、自我改進(jìn)的機(jī)器的擔(dān)憂一直存在。Vernor Vinge 和 Ray Kurzweil 等未來學(xué)家通過談?wù)撍^的“奇點(diǎn)”(Singularity)來普及這些想法,“奇點(diǎn)”是一個假想的日期,即人工智能超過人類智能并由機(jī)器接管。
但這種擔(dān)憂的核心是控制的問題:如果(或當(dāng))機(jī)器變得更聰明時,人類如何保持優(yōu)勢地位?在 2017 年發(fā)表的一篇名為“人工智能如何構(gòu)成生存風(fēng)險?”的論文中,多倫多大學(xué)人工智能哲學(xué)家 Karina Vold(她也簽署了 CAIS 的聲明)闡述了這種擔(dān)憂背后的基本論點(diǎn)。
論點(diǎn)有三個關(guān)鍵前提。第一,人類有可能造出一臺超級智能機(jī)器,它可以超越所有其他智能。第二,我們有可能無法控制能夠超越我們的超級智能體。第三,超級智能體有可能會做一些我們不希望它做的事情。
把所有這些結(jié)合起來,就有可能制造出一種機(jī)器,它會做我們不想讓它做的事情,包括消滅我們,而我們將無法阻止它。
這種場景也有不同的情況。當(dāng) Hinton 在五月份提出他對人工智能的擔(dān)憂時,他舉了機(jī)器人重新調(diào)整電網(wǎng)路線以給自己提供更多電力的例子。但超級智能(或 AGI)并不是必需的。愚蠢的機(jī)器如果有太多的空間,也可能是災(zāi)難性的。許多場景涉及到輕率或惡意的部署,而不是自利的機(jī)器人。
加州大學(xué)伯克利分校的人工智能研究人員 Stuart Russell 和 Andrew Critch(他們也都簽署了 CAIS 的聲明)在上周在線發(fā)表的一篇論文中,給出了生存風(fēng)險的分類法。這些風(fēng)險的范圍包括:病毒式的提供建議的聊天機(jī)器人,告訴數(shù)百萬人從大學(xué)退學(xué),到追求有害經(jīng)濟(jì)目的的自主產(chǎn)業(yè),再到民族國家建造人工智能驅(qū)動的超級武器。
在許多想象中的案例中,一個理論模型實現(xiàn)了其人類賦予的目標(biāo),但卻以一種對我們不利的方式來實現(xiàn)。Hendrycks 研究了深度學(xué)習(xí)模型在給定訓(xùn)練數(shù)據(jù)中未見的輸入時有時會以意想不到的方式表現(xiàn),對于他來說,人工智能系統(tǒng)可能是災(zāi)難性的,因為它是破壞性的而不是萬能的。他說:“如果你給它一個目標(biāo),而它卻找到了外來的解決方案,那么它將帶我們踏上一段奇怪的旅程?!?/p>
這些可能的未來的問題是,它們依賴于一連串的“如果”,這使它們聽起來像科幻小說。Vold 自己也承認(rèn)了這一點(diǎn)?!坝捎跇?gòu)成或引發(fā) [生存風(fēng)險] 的事件是前所未有的,因此關(guān)于它們構(gòu)成這種威脅的論點(diǎn)本質(zhì)上必須是理論性的,”她寫道?!八鼈兊南∮行砸彩沟萌魏侮P(guān)于此類事件如何或何時發(fā)生的猜測都是主觀的,無法通過經(jīng)驗驗證?!?/p>
那么,為什么越來越多的人比以往任何時候都更相信這些想法?谷歌的人工智能研究員 Fran?ois Chollet 說:“不同的人出于不同的原因談?wù)擄L(fēng)險,他們的意思也可能不同?!钡@是一種難以抗拒的敘述:“生存風(fēng)險一直是一個好故事”。
“這其中有一種不容忽視的神話、近乎宗教的元素,”Whittaker?!拔艺J(rèn)為我們需要認(rèn)識到,鑒于所描述的內(nèi)容沒有證據(jù)基礎(chǔ),它更接近于一種信仰,一種宗教狂熱,而不是科學(xué)話語?!?/p>
末日論的傳染擴(kuò)散
當(dāng)深度學(xué)習(xí)研究人員第一次開始取得一系列成功時 -- 想想 Hinton 和他的同事們在 2012 年 ImageNet 競賽中打破記錄的圖像識別分?jǐn)?shù),以及 DeepMind 在 2015 年首次以 AlphaGo 戰(zhàn)勝人類冠軍時,炒作很快也變成了末日論?;艚鸷陀钪鎸W(xué)家 Martin Rees 等知名科學(xué)家,以及埃隆 - 馬斯克等知名科技領(lǐng)袖,都發(fā)出了生存風(fēng)險的警報。但這些人物并不是人工智能專家。
八年前,深度學(xué)習(xí)先驅(qū)、時任百度首席科學(xué)家吳恩達(dá)(Andrew Ng)站在圣何塞的講臺上,對這個想法一笑置之。
“在遙遠(yuǎn)的未來,可能會出現(xiàn)一場殺手機(jī)器人競賽,”吳恩達(dá)在 2015 年 Nvidia GPU 技術(shù)大會上告訴觀眾?!暗医裉觳⒉恢铝τ诜乐谷斯ぶ悄茏兊眯皭海拖裎也粨?dān)心火星上人口過剩的問題?!保萍夹侣劸W(wǎng)站 The Register 當(dāng)時報道了吳恩達(dá)的這番話。)
吳恩達(dá)于 2011 年共同創(chuàng)立了谷歌人工智能實驗室,現(xiàn)任 Landing AI 首席執(zhí)行官,他在此后在采訪中不斷重復(fù)著這句話。但現(xiàn)在的他不那么樂觀了。“我保持開放的態(tài)度,正在與一些人交談以了解更多信息,”他告訴我。“快速的發(fā)展讓科學(xué)家們重新思考風(fēng)險?!?/p>
和許多人一樣,吳恩達(dá)對生成式人工智能的快速發(fā)展及其被濫用的可能性表示擔(dān)憂。他指出,上個月,一個被廣泛傳播的由 AI 生成的五角大樓的爆炸圖像嚇壞了人們,連著股票市場也跟著下跌。
“不幸的是,人工智能如此強(qiáng)大,它似乎也可能會導(dǎo)致巨大的問題,”吳恩達(dá)說。但他沒有談到殺手機(jī)器人:“現(xiàn)在,我仍然很難看到人工智能會如何導(dǎo)致我們的滅絕”。
與之前不同的是人們對人工智能能做什么的廣泛認(rèn)識。去年年底,ChatGPT 將這項技術(shù)推向了公眾。“人工智能突然成為主流的熱門話題,”Chollet 說道?!叭藗冋谡J(rèn)真對待人工智能,因為他們將能力的突然飛躍視為未來更多飛躍的預(yù)兆?!?/p>
此外,與聊天機(jī)器人對話的經(jīng)歷也會讓人感到不安。對話是一種通常被理解為人們與其他人一起做的事情。Whittaker 說:“它為人工智能像人類或有感知能力的對話者這一想法增添了一種合理性?!薄拔艺J(rèn)為這讓人們相信,如果人工智能可以模擬人類交流,它也可以做 XYZ?!?/p>
“這就是我開始覺得關(guān)于生存風(fēng)險的對話有些適合的原因 -- 在沒有證據(jù)的情況下進(jìn)行推斷,”她說。
展望未來
我們有理由感到憤慨。隨著監(jiān)管機(jī)構(gòu)對科技行業(yè)的追趕,擺在桌面上的問題是什么樣的活動應(yīng)該或不應(yīng)該受到限制。突出長期風(fēng)險而不是短期危害(如歧視性雇用或錯誤信息),使監(jiān)管者的注意力重新集中在未來的假想問題上。
Burrell 說:“我懷疑真正的監(jiān)管限制的威脅已經(jīng)推動人們采取了一種立場。談?wù)撋骘L(fēng)險可能會驗證監(jiān)管者的擔(dān)憂,而不會破壞商業(yè)機(jī)會。”她說:“背叛人類的超級智能 AI 聽起來很可怕,但這顯然也是尚未發(fā)生的事情?!?/p>
夸大對生存風(fēng)險的擔(dān)憂在其他方面也有利于商業(yè)。Chollet 指出,頂級人工智能公司需要我們認(rèn)為 AGI 即將到來,而他們就是建造 AGI 的人。他說:“如果你想讓人們認(rèn)為你正在研究的東西是強(qiáng)大的,那么讓他們害怕它是一個好主意?!?/p>
Whittaker 也持類似觀點(diǎn)。她說:“把自己塑造成一個可能比人類更強(qiáng)大的實體的創(chuàng)造者是一件重要的事情?!?/p>
如果僅僅是營銷或炒作,這些都不重要。但決定什么是風(fēng)險,什么不是風(fēng)險,會有相應(yīng)的后果。在一個預(yù)算和注意力有限的世界里,沒有核戰(zhàn)爭那么極端的傷害可能會被忽視,因為我們認(rèn)為它們不是優(yōu)先事項。
“這是一個重要的問題,尤其是在人們越來越關(guān)注安全和保障作為政策干預(yù)的狹窄框架的情況下,”AI Now 研究所的常務(wù)董事 Sarah Myers West 說。
當(dāng)首相 Rishi Sunak 在 5 月與包括 Sam Altman 和 Demis Hassabis 在內(nèi)的人工智能公司負(fù)責(zé)人會面時,英國政府發(fā)表聲明說:“首相和首席執(zhí)行官們討論了該技術(shù)的風(fēng)險,從虛假信息和國家安全,到生存威脅”。
此前一周,Altman 告訴美國參議院,他最擔(dān)心的是人工智能產(chǎn)業(yè)會對世界造成重大傷害。Altman 的證詞引發(fā)了人們對建立新型機(jī)構(gòu)來解決這種前所未有的危害的呼聲。
隨著奧弗頓窗口的轉(zhuǎn)移,危害是否已經(jīng)造成?“如果我們談?wù)摰氖沁b遠(yuǎn)的未來,如果我們談?wù)摰氖巧裨挵愕娘L(fēng)險,那么我們就完全把問題重塑為一個存在于幻想世界的問題,其解決方案也可以存在于幻想世界,”Whittaker 說。
但 Whittaker 也指出,圍繞人工智能的政策討論已經(jīng)持續(xù)了多年,比最近這種恐懼要長。“我不相信必然性,”她說?!拔覀儗吹竭@種炒作遭到反擊。它會消退的?!?/p>
來源:麻省理工科技評論