文|烏鴉智能說
在 GPT-4o 的發(fā)布會后,OpenAI迎來了多輪人員變動。
上周,OpenAI 聯(lián)合創(chuàng)始人、首席科學(xué)家 Ilya Sutskever 發(fā)推宣告離職。在離職推特里,Ilya表達(dá)了對公司與Sam Altman等人的感謝,后者也發(fā)了推回應(yīng)和感謝了 Ilya 的付出。
盡管所有人都知道,雙方存在無法彌合的裂痕。但至少從明面上看,雙方還表現(xiàn)得和和氣氣。但隨著超級對齊團(tuán)隊負(fù)責(zé)人Jan Leike的離職,OpenAI團(tuán)隊的分歧又一次被擺上了臺面。
在離職的同時,Jan Leike在推特上公布了離職的原因:過去幾個月里,我的團(tuán)隊一直在逆風(fēng)航行。有時我們在計算上很吃力,完成這項重要的研究變得越來越困難。
據(jù)《連線》證實,OpenAI超級對齊團(tuán)隊已經(jīng)解散,余下成員要么辭職,要么將被納入OpenAI的其他研究工作中。
/ 01 / 超級對齊團(tuán)隊出局!
OpenAI去年7月組建了超級對齊團(tuán)隊,由楊·萊克和伊爾亞·蘇茨克維領(lǐng)導(dǎo),目標(biāo)是在未來4年內(nèi)解決控制超級智能AI的核心技術(shù)挑戰(zhàn)。該團(tuán)隊承諾將獲得該公司20%的計算資源。超級對齊的任務(wù)是確保未來的通用人工智能與人類的目標(biāo)保持一致,而不是變得流氓。
根據(jù)Jan Leike的說法,OpenAI 領(lǐng)導(dǎo)層在公司核心優(yōu)先事項上存在分歧。在Jan Leike看來,應(yīng)該將更多的帶寬用于為下一代模型做好準(zhǔn)備,包括安全性、監(jiān)控、準(zhǔn)備、安全性、對抗性魯棒性、(超級)對齊、機(jī)密性、社會影響和相關(guān)主題。而在過去幾年OpenA的發(fā)展里,安全文化和流程已經(jīng)讓位于閃亮的產(chǎn)品。這讓Jan Leike 的團(tuán)隊在過去幾個月里遇到了很多困難,包括計算資源不足等問題,使得關(guān)鍵研究工作變得越來越困難。
值得注意的是,這也是OpenAI離職員工里第一位明確表達(dá)不滿的人。在Jan Leike公開表達(dá)不滿后,大西洋月刊編輯Sigal Samuel發(fā)文詳細(xì)解釋了這次離職風(fēng)波。
此次Ilya Sutskever以及Jan Leike的離職,是去年11月OpenAI 董事會試圖解雇 Sam Altman風(fēng)波的延續(xù)。自此以來,該公司至少有 5 名最具安全意識的員工要么辭職,要么被趕走。
其他注重安全的前員工引用了Jan Leike辭職的推文,并附上了心形表情符號。其中之一是Leopold Aschenbrenner,他是Ilya的盟友和超級聯(lián)盟團(tuán)隊成員,上個月被 OpenAI 解雇。媒體報道指出,他和同一團(tuán)隊的另一位研究員帕維爾·伊茲梅洛夫據(jù)稱因泄露信息而被解雇。但 OpenAI 沒有提供任何泄露的證據(jù)。
盡管存在明顯分歧,但少有人像Jan Leike那樣公開表達(dá)不滿。原因在于,OpenAI 通常會要求離職員工簽署包含不貶損條款的離職協(xié)議。如果拒絕簽署,他們將失去公司股權(quán),這可能意味著損失數(shù)百萬美元。
在該文章發(fā)表一天后,Sam Altman發(fā)推承認(rèn),該公司的離職文件中有一項關(guān)于離職員工“潛在股權(quán)取消”的條款,但是他們從來沒有真的啟用過這個條款收回過任何人的股權(quán),同時他不知道協(xié)議中有這條內(nèi)容,公司也正在修改這項條款。
同時,針對Jan Leike提到地對模型安全性的擔(dān)憂,Sam和Grog還各自發(fā)推,意思大同小異:OpenAI在模型安全性上下了很多功夫,也做了很多基礎(chǔ)工作,之后公司還將繼續(xù)與政府和許多利益相關(guān)者在安全方面進(jìn)行合作。
/ 02 / 要發(fā)展,還是要安全?
從本質(zhì)上講,Sam和Ilya的矛盾,最終有效加速主義和超級“愛”對齊的理念沖突。
前者更多把AI看作是生產(chǎn)力進(jìn)步的工具,無條件地加速技術(shù)創(chuàng)新,而后者將AI看作未來的數(shù)字生命,因此在通過超級對齊為他注入「對人類的愛」之前,必須要拋棄有效加速主義的發(fā)展策略。
在去年11月那場風(fēng)波里,一個普遍的看法是,Ilya看到了內(nèi)部名為Q (發(fā)音為Q-Star)*的下一代AI模型,過于強(qiáng)大和先進(jìn),可能會威脅人類,才有了后來Ilya與Sam的路線矛盾。
隨著OpenAI管理層的矛盾再次被公開,又一次引發(fā)了關(guān)于AI到底是要發(fā)展,還是要安全的路線之爭。
Microsoft AI新任CEO穆斯塔法·蘇萊曼曾表示:人類可能需要在未來5年內(nèi)暫停AI。谷歌 DeepMind 的首席 AGI 科學(xué)家 Shane Legg也曾過說:“如果我有一根魔杖,我會放慢腳步?!?/p>
而還有相當(dāng)一部分人認(rèn)為,現(xiàn)在擔(dān)心AI模型的安全性是杞人憂天,其中就包括了Meta首席科學(xué)家、圖靈獎得主楊立昆。根據(jù)楊立坤的說法,在“緊急弄清楚如何控制比我們聰明得多的人工智能系統(tǒng)”之前,我們需要開始設(shè)計一個比家貓更聰明的系統(tǒng)。
他還打了個比方,現(xiàn)在擔(dān)心 AI 安全的人很像1925年有人說“我們迫切需要弄清楚如何控制能夠以接近音速跨越大洋、運輸數(shù)百名乘客的飛機(jī)?!痹诎l(fā)明渦輪噴氣發(fā)動機(jī)之前,在任何飛機(jī)能不間斷飛越大西洋之前,長途客機(jī)的安全性是難以保證的。然而,現(xiàn)在我們可以安全地乘坐雙引擎噴氣式飛機(jī)飛越半個地球。
在他看來,這種對AI安全性脫離現(xiàn)實的偏見,是超級對齊團(tuán)隊在OpenAI中被邊緣化的重要原因?!氨M管每個人都意識到?jīng)]有什么可害怕的,但對齊團(tuán)隊一直堅持認(rèn)為有。所以,他們被趕了出去?!?/p>
類似的觀點也得到了不少認(rèn)同。Daniel Jeffries 認(rèn)為,超級對齊團(tuán)隊的離開不是因為他們看到了他們無法應(yīng)對的超級先進(jìn)AI,而是因為OpenAI團(tuán)隊意識到這種 AI 短時間不可能出現(xiàn),基于AI失控?fù)?dān)憂的投入被看作是一種資源浪費。所以,Open AI 的領(lǐng)導(dǎo)層就開始縮減給超級對齊研究團(tuán)隊的資源開始做一些更實用的事情,比如用來構(gòu)建產(chǎn)品改善體驗。
可以預(yù)見的是,隨著Ilya Sutskever以及Jan Leike等人的離開,OpenAI內(nèi)部關(guān)于這個事情的爭論可以短暫畫上句號。但放在AI發(fā)展邏輯上,在人類最終低點AGI之前,這樣的爭論永遠(yuǎn)不會停止。