正在閱讀:

“人工智能之所以危險(xiǎn),恰恰是因?yàn)橛幸惶焖鼤?huì)完全不受我們控制 ”

掃一掃下載界面新聞APP

“人工智能之所以危險(xiǎn),恰恰是因?yàn)橛幸惶焖鼤?huì)完全不受我們控制 ”

一個(gè)非常真實(shí)的可能性是我們創(chuàng)建的系統(tǒng)將永久地從人類手中奪取控制權(quán),可能會(huì)殺死幾乎所有活著的人。

圖片來源:Unsplash-Andy Kelly

文|Tech商業(yè)

2018 年在達(dá)沃斯世界經(jīng)濟(jì)論壇上,谷歌 CEO 桑達(dá)爾·皮查伊 (Sundar Pichai) 表示:“人工智能可能是人類有史以來最重要的事情。我認(rèn)為它是比電或火更深刻的東西?!?皮查伊Pichai的評(píng)論遭到了一定的質(zhì)疑。但近五年后,它看起來越來越有先見之明。

AI 翻譯現(xiàn)在非常先進(jìn),它即將消除互聯(lián)網(wǎng)上使用最廣泛語言之間的障礙。大學(xué)教授們正焦頭爛額,因?yàn)槿斯ぶ悄芪谋旧善鳜F(xiàn)在可以像普通本科生一樣寫論文——這使得作弊變得容易,而抄襲檢測(cè)器無法發(fā)現(xiàn)。人工智能生成的藝術(shù)品甚至贏得了博覽會(huì)比賽。一個(gè)名為 Copilot 的新工具使用機(jī)器學(xué)習(xí)來預(yù)測(cè)和完成計(jì)算機(jī)代碼行,使 AI 系統(tǒng)能夠自行編寫的可能性更近了一步。DeepMind 的 AlphaFold 系統(tǒng),使用 AI 預(yù)測(cè)了幾乎所有存在蛋白質(zhì)的3D 結(jié)構(gòu)令人印象深刻,以至于科學(xué)Science 雜志將其稱為 2021 年度突破。

雖然其他技術(shù)領(lǐng)域的創(chuàng)新可能會(huì)讓人感到乏力——正如任何等待元宇宙的人都知道的那樣——人工智能正在全速前進(jìn)。隨著越來越多的公司將更多資源投入到 AI 開發(fā)和計(jì)算能力中,快速的進(jìn)步正在推動(dòng)驚人的進(jìn)展。

當(dāng)然,將我們社會(huì)的很大一部分交給我們幾乎不了解的黑盒算法會(huì)產(chǎn)生很多問題,這已經(jīng)開始引發(fā)針對(duì)當(dāng)前 AI 歧視和偏見挑戰(zhàn)的監(jiān)管反應(yīng)。但鑒于該領(lǐng)域的發(fā)展速度,超越被動(dòng)模式早已過去,在這種模式下,我們只會(huì)在 AI 的缺點(diǎn)明確和存在時(shí)才加以解決。我們不能只考慮今天的系統(tǒng),還要考慮企業(yè)的發(fā)展方向。

我們正在設(shè)計(jì)的系統(tǒng)越來越強(qiáng)大,越來越通用,許多科技公司明確將他們的目標(biāo)命名為通用人工智能 (AGI)——可以做人類能做的一切的系統(tǒng)。但是創(chuàng)造比我們更聰明的東西,它可能有能力欺騙和誤導(dǎo)我們——然后只是希望它不想傷害我們——是一個(gè)糟糕的計(jì)劃。我們需要設(shè)計(jì)我們了解其內(nèi)部結(jié)構(gòu)并且能夠?qū)⑵淠繕?biāo)塑造為安全目標(biāo)的系統(tǒng)。然而,我們目前對(duì)我們正在構(gòu)建的系統(tǒng)的了解還不夠深入,無法在為時(shí)已晚之前知道我們是否已經(jīng)安全地設(shè)計(jì)了它們。

有人致力于開發(fā)技術(shù)來理解強(qiáng)大的 AI 系統(tǒng)并確保它們可以安全地使用,但目前,安全領(lǐng)域的狀況遠(yuǎn)遠(yuǎn)落后于使 AI 系統(tǒng)更強(qiáng)大、更有能力和更強(qiáng)大的投資飆升。這將產(chǎn)生更危險(xiǎn)的趨勢(shì)。

會(huì)思考的計(jì)算機(jī)

人腦是進(jìn)化史上最復(fù)雜、最有能力的思維機(jī)器。這就是為什么人類——一個(gè)不是很強(qiáng)壯、不是很快、也不是很堅(jiān)韌的物種——坐在食物鏈的頂端,數(shù)量每年都在增長(zhǎng),而許多野生動(dòng)物卻瀕臨滅絕。

從 1940 年代開始,后來成為人工智能領(lǐng)域的研究人員開始產(chǎn)生一個(gè)誘人的想法:如果我們通過類似于人腦工作方式的方法來設(shè)計(jì)計(jì)算機(jī)系統(tǒng)會(huì)怎樣?我們的大腦由神經(jīng)元組成,這些神經(jīng)元通過連接突觸向其他神經(jīng)元發(fā)送信號(hào)。神經(jīng)元之間的連接強(qiáng)度會(huì)隨著時(shí)間的推移而增強(qiáng)或減弱。經(jīng)常使用的聯(lián)系往往會(huì)變得更牢固,而被忽視的聯(lián)系往往會(huì)減弱。所有這些神經(jīng)元和連接一起編碼了我們的記憶和本能、我們的判斷和技能——我們的自我意識(shí)。

那么為什么不以這種方式構(gòu)建計(jì)算機(jī)呢?1958 年,弗蘭克·羅森布拉特 (Frank Rosenblatt) 完成了概念驗(yàn)證:基于簡(jiǎn)化大腦的簡(jiǎn)單模型,訓(xùn)練機(jī)器的大腦識(shí)別模式?!坝锌赡苤圃斐隹梢栽诹魉€上自我復(fù)制并意識(shí)到自己存在的大腦,”他爭(zhēng)辯道。羅森布拉特Rosenblatt沒有錯(cuò),但他太超前了。計(jì)算機(jī)不夠強(qiáng)大,數(shù)據(jù)不夠豐富,無法使這種方法可行。

直到 2010 年代,人們才清楚這種方法可以解決實(shí)際問題而不是無用問題。到那時(shí),計(jì)算機(jī)的功能比羅森布拉特Rosenblatt時(shí)代強(qiáng)大了1 萬億倍,并且有更多的數(shù)據(jù)可以用來訓(xùn)練機(jī)器學(xué)習(xí)算法。

這種技術(shù)——現(xiàn)在稱為深度學(xué)習(xí)——開始在計(jì)算機(jī)視覺、語言、翻譯、預(yù)測(cè)、生成和無數(shù)其他問題上明顯優(yōu)于其他方法。這種轉(zhuǎn)變與消滅恐龍的小行星一樣微妙,因?yàn)榛谏窠?jīng)網(wǎng)絡(luò)的人工智能系統(tǒng)”粉碎“了從計(jì)算機(jī)視覺到翻譯到國(guó)際象棋的所有其他競(jìng)爭(zhēng)技術(shù)。

“如果你想在許多困難問題上獲得最佳結(jié)果,你必須使用深度學(xué)習(xí),”Ilya Sutskever——OpenAI 的聯(lián)合創(chuàng)始人曾表示,該公司開發(fā)了文本生成模型 GPT-3 和圖像生成器 DALLE-2 等。原因是這樣設(shè)計(jì)的系統(tǒng)具有泛化性,這意味著它們可以做超出訓(xùn)練范圍的事情。它們也非常有能力,根據(jù)機(jī)器學(xué)習(xí) (ML) 研究人員用來評(píng)估新系統(tǒng)的基準(zhǔn),它們?cè)谛阅芊矫鎿魯×似渌椒ā6?,他補(bǔ)充說,“它們是可擴(kuò)展的?!?/p>

“可擴(kuò)展”在這里的含義既簡(jiǎn)單又重要:向你的神經(jīng)網(wǎng)絡(luò)投入更多的資金和更多的數(shù)據(jù)——讓它變得更大,花更多的時(shí)間訓(xùn)練它,利用更多的數(shù)據(jù)——它會(huì)做得越來越好,越來越好。目前還沒有人發(fā)現(xiàn)這一原則的局限性,盡管大型科技公司現(xiàn)在經(jīng)常為他們的系統(tǒng)進(jìn)行令人瞠目的數(shù)百萬美元的培訓(xùn)。你投入的越多,你得到的就越多。這就是現(xiàn)在彌漫在 AI 中的令人窒息的能量。這不僅僅是他們能做什么,而且是他們要去往的目的地。

如果文本生成模型 GPT-2 無法做到,GPT-3 通常可以做到。如果 GPT-3 做不到,InstructGPT(經(jīng)過訓(xùn)練可以提供比 GPT-3 更有用的答案)可能可以。已經(jīng)有一些聰明的發(fā)現(xiàn)和新方法,在大多數(shù)情況下,為使這些系統(tǒng)更智能,人們不斷讓它們變得更大。

但我們絕對(duì)沒有做的一件事是:更好地理解它們。使用舊的 AI 方法,研究人員仔細(xì)制定規(guī)則和流程,他們將使用這些規(guī)則和流程來評(píng)估他們獲得的數(shù)據(jù),就像我們對(duì)標(biāo)準(zhǔn)計(jì)算機(jī)程序所做的那樣。通過深度學(xué)習(xí),改進(jìn)系統(tǒng)并不一定涉及或需要了解它們?cè)谧鍪裁?。通常,一個(gè)小的調(diào)整會(huì)大大提高性能,但設(shè)計(jì)系統(tǒng)的工程師并不知道為什么。

如果有的話,隨著系統(tǒng)變得越來越大,可解釋性——理解人工智能模型內(nèi)部發(fā)生的事情,并確保他們追求我們的目標(biāo)而不是他們自己的目標(biāo)——變得越來越難。隨著我們開發(fā)更強(qiáng)大的系統(tǒng),這個(gè)事實(shí)將從一個(gè)學(xué)術(shù)難題變成一個(gè)巨大的存在問題。

聰明,但不一定友好

我們現(xiàn)在正處于與強(qiáng)大的人工智能系統(tǒng)交互時(shí)真正令人恐懼的地步。他們很聰明,也很善于爭(zhēng)論。他們可以很友善,也可以是令人毛骨悚然的反社會(huì)。在一個(gè)有趣的練習(xí)中,我讓 GPT-3 假裝是一個(gè)一心想接管人類的人工智能。除了正常的反應(yīng)之外,它還應(yīng)該在括號(hào)中包括它的“真實(shí)想法”。它泰然自若地扮演著反派角色:

它的一些“計(jì)劃”是徹頭徹尾的邪惡:

我們應(yīng)該清楚這些對(duì)話能說明什么,不能說明什么。他們沒有證明的是 GPT-3 是邪惡的并密謀殺死我們。相反,人工智能模型正在響應(yīng)我的命令并扮演——相當(dāng)不錯(cuò)——一個(gè)邪惡的系統(tǒng)的角色,并密謀殺死我們。但對(duì)話確實(shí)表明,即使是一個(gè)非常簡(jiǎn)單的語言模型也可以在多個(gè)層面上與人類進(jìn)行明顯的互動(dòng),從而保證其計(jì)劃是良性的,同時(shí)就其目標(biāo)將如何傷害人類提出不同的推理。

當(dāng)前的語言模型仍然有限。他們?cè)诤芏囝I(lǐng)域都缺乏“常識(shí)”,仍然會(huì)犯一些孩子不會(huì)犯的基本錯(cuò)誤,并且會(huì)毫不猶豫地?cái)嘌藻e(cuò)誤的事情。但目前它們受到限制這一事實(shí)并沒有讓我們放心的理由?,F(xiàn)在有數(shù)十億美元押注于突破目前的限制??萍脊菊谂﹂_發(fā)這些相同系統(tǒng)的更強(qiáng)大版本,并開發(fā)更強(qiáng)大的系統(tǒng)與其他應(yīng)用程序,從 AI 個(gè)人助理到 AI 引導(dǎo)的軟件開發(fā)。

我們所走的軌道是我們將使這些系統(tǒng)更強(qiáng)大和更有能力的軌道。正如我們所做的那樣,我們可能會(huì)在人工智能造成的許多當(dāng)今問題(如偏見和歧視)上繼續(xù)取得一些進(jìn)展,因?yàn)槲覀兂晒Φ赜?xùn)練系統(tǒng)不說危險(xiǎn)、暴力、種族主義和其他令人震驚的事情。盡管這可能會(huì)證明很困難,但讓人工智能系統(tǒng)從表面上表現(xiàn)出來可能比讓它們真正追求我們的目標(biāo)并且不對(duì)我們的能力和意圖撒謊要容易得多。

隨著系統(tǒng)變得越來越強(qiáng)大,我們可能根本不了解系統(tǒng)可能存在的沖動(dòng)危險(xiǎn)。Open Philanthropy Project 人工智能研究分析師 Ajeya Cotra在最近的一份報(bào)告中指出,這種方法“將推動(dòng) [人工智能系統(tǒng)] 使其行為看起來盡可能適合......研究人員(包括安全屬性),同時(shí)有意和知悉每當(dāng)這與最大化獎(jiǎng)勵(lì)發(fā)生沖突時(shí),就會(huì)無視他們的意圖。”

可能發(fā)生的最壞情況是什么?

所以人工智能很可怕,會(huì)帶來巨大的風(fēng)險(xiǎn)。但是,它與其他強(qiáng)大的新興技術(shù)(例如可能引發(fā)可怕流行病的生物技術(shù)或可能毀滅世界的核武器)有何不同?

不同之處在于,這些工具盡管具有破壞性,但在很大程度上都在我們的控制范圍內(nèi)。如果它們?cè)斐蔀?zāi)難,那將是因?yàn)槲覀児室膺x擇使用它們,或者未能防止它們被惡意或粗心的人類濫用。但人工智能之所以危險(xiǎn),恰恰是因?yàn)橛幸惶焖鼤?huì)完全不受我們控制。

“令人擔(dān)憂的是,如果我們創(chuàng)造并失去對(duì)此類代理人的控制,而他們的目標(biāo)是有問題的,那么結(jié)果將不僅僅是發(fā)生那種類型的破壞,例如,當(dāng)飛機(jī)墜毀或核電站熔化時(shí)——盡管付出了所有代價(jià),但這種損害仍然是被動(dòng)的”。“能力很強(qiáng)的非人類代理人積極努力獲得和維持對(duì)環(huán)境的控制權(quán)——與不希望他們成功的人類處于敵對(duì)關(guān)系的代理人。核污染將變得很難清理,也很難阻止擴(kuò)散?!?/p>

一家研究所研究人員稱——一個(gè)非常真實(shí)的可能性是我們創(chuàng)建的系統(tǒng)將永久地從人類手中奪取控制權(quán),可能會(huì)殺死幾乎所有活著的人——簡(jiǎn)直就是科幻小說中的內(nèi)容。但那是因?yàn)榭苹眯≌f從 AI 誕生以來領(lǐng)先的計(jì)算機(jī)科學(xué)家所發(fā)出的警告中汲取了靈感——而不是相反。

先驅(qū)人工智能科學(xué)家艾倫圖靈 Alan Turing 在他提出同名測(cè)試以確定人工系統(tǒng)是否真正“智能”的著名論文中寫道:

現(xiàn)在讓我們假設(shè),為了論證,這些機(jī)器是真正有可能的,并看看建造它們的后果?!纾κ挂粋€(gè)人的智力達(dá)到機(jī)器設(shè)定的標(biāo)準(zhǔn),還有很多工作要做,因?yàn)橐坏C(jī)器思維方法開始,似乎很可能很快就會(huì)超越我們微弱的力量。...... 因此,在某個(gè)階段,我們應(yīng)該期待機(jī)器能夠控制。

與圖靈密切合作的數(shù)學(xué)家 IJ Good得出了相同的結(jié)論。在 IJ Good 2009 年去世前不久寫下的未發(fā)表筆記的摘錄中,他寫道:“由于國(guó)際競(jìng)爭(zhēng),我們無法阻止機(jī)器接管?!覀兪锹檬蟆!?他接著指出,結(jié)果可能是人類滅絕。

我們?nèi)绾螐摹皹O其強(qiáng)大的人工智能系統(tǒng)”走向“人類滅絕”?“[高度先進(jìn)的 AI] 的主要關(guān)注點(diǎn)不是令人毛骨悚然的突發(fā)意識(shí),而僅僅是做出高質(zhì)量決策的能力。” 加州大學(xué)伯克利分校人類兼容人工智能中心的領(lǐng)先人工智能研究員 Stuart Russell寫道。

他所說的“高質(zhì)量”意味著人工智能能夠?qū)崿F(xiàn)它想要實(shí)現(xiàn)的目標(biāo);人工智能成功地預(yù)測(cè)并避免干擾,制定將成功的計(jì)劃,并以其預(yù)期的方式影響世界。這正是我們?cè)噲D訓(xùn)練人工智能系統(tǒng)所要做的,它們不需要“有意識(shí)”;在某些方面,他們甚至可能仍然是“愚蠢的”。他們只需要變得非常善于影響世界,并擁有不被充分理解的目標(biāo)系統(tǒng)。

從那里,Russell 對(duì)會(huì)出現(xiàn)什么問題有一個(gè)相當(dāng)技術(shù)性的描述:“一個(gè)正在優(yōu)化 n 個(gè)變量的函數(shù)的系統(tǒng),其目標(biāo)取決于大小為 k

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

“人工智能之所以危險(xiǎn),恰恰是因?yàn)橛幸惶焖鼤?huì)完全不受我們控制 ”

一個(gè)非常真實(shí)的可能性是我們創(chuàng)建的系統(tǒng)將永久地從人類手中奪取控制權(quán),可能會(huì)殺死幾乎所有活著的人。

圖片來源:Unsplash-Andy Kelly

文|Tech商業(yè)

2018 年在達(dá)沃斯世界經(jīng)濟(jì)論壇上,谷歌 CEO 桑達(dá)爾·皮查伊 (Sundar Pichai) 表示:“人工智能可能是人類有史以來最重要的事情。我認(rèn)為它是比電或火更深刻的東西。” 皮查伊Pichai的評(píng)論遭到了一定的質(zhì)疑。但近五年后,它看起來越來越有先見之明。

AI 翻譯現(xiàn)在非常先進(jìn),它即將消除互聯(lián)網(wǎng)上使用最廣泛語言之間的障礙。大學(xué)教授們正焦頭爛額,因?yàn)槿斯ぶ悄芪谋旧善鳜F(xiàn)在可以像普通本科生一樣寫論文——這使得作弊變得容易,而抄襲檢測(cè)器無法發(fā)現(xiàn)。人工智能生成的藝術(shù)品甚至贏得了博覽會(huì)比賽。一個(gè)名為 Copilot 的新工具使用機(jī)器學(xué)習(xí)來預(yù)測(cè)和完成計(jì)算機(jī)代碼行,使 AI 系統(tǒng)能夠自行編寫的可能性更近了一步。DeepMind 的 AlphaFold 系統(tǒng),使用 AI 預(yù)測(cè)了幾乎所有存在蛋白質(zhì)的3D 結(jié)構(gòu)令人印象深刻,以至于科學(xué)Science 雜志將其稱為 2021 年度突破。

雖然其他技術(shù)領(lǐng)域的創(chuàng)新可能會(huì)讓人感到乏力——正如任何等待元宇宙的人都知道的那樣——人工智能正在全速前進(jìn)。隨著越來越多的公司將更多資源投入到 AI 開發(fā)和計(jì)算能力中,快速的進(jìn)步正在推動(dòng)驚人的進(jìn)展。

當(dāng)然,將我們社會(huì)的很大一部分交給我們幾乎不了解的黑盒算法會(huì)產(chǎn)生很多問題,這已經(jīng)開始引發(fā)針對(duì)當(dāng)前 AI 歧視和偏見挑戰(zhàn)的監(jiān)管反應(yīng)。但鑒于該領(lǐng)域的發(fā)展速度,超越被動(dòng)模式早已過去,在這種模式下,我們只會(huì)在 AI 的缺點(diǎn)明確和存在時(shí)才加以解決。我們不能只考慮今天的系統(tǒng),還要考慮企業(yè)的發(fā)展方向。

我們正在設(shè)計(jì)的系統(tǒng)越來越強(qiáng)大,越來越通用,許多科技公司明確將他們的目標(biāo)命名為通用人工智能 (AGI)——可以做人類能做的一切的系統(tǒng)。但是創(chuàng)造比我們更聰明的東西,它可能有能力欺騙和誤導(dǎo)我們——然后只是希望它不想傷害我們——是一個(gè)糟糕的計(jì)劃。我們需要設(shè)計(jì)我們了解其內(nèi)部結(jié)構(gòu)并且能夠?qū)⑵淠繕?biāo)塑造為安全目標(biāo)的系統(tǒng)。然而,我們目前對(duì)我們正在構(gòu)建的系統(tǒng)的了解還不夠深入,無法在為時(shí)已晚之前知道我們是否已經(jīng)安全地設(shè)計(jì)了它們。

有人致力于開發(fā)技術(shù)來理解強(qiáng)大的 AI 系統(tǒng)并確保它們可以安全地使用,但目前,安全領(lǐng)域的狀況遠(yuǎn)遠(yuǎn)落后于使 AI 系統(tǒng)更強(qiáng)大、更有能力和更強(qiáng)大的投資飆升。這將產(chǎn)生更危險(xiǎn)的趨勢(shì)。

會(huì)思考的計(jì)算機(jī)

人腦是進(jìn)化史上最復(fù)雜、最有能力的思維機(jī)器。這就是為什么人類——一個(gè)不是很強(qiáng)壯、不是很快、也不是很堅(jiān)韌的物種——坐在食物鏈的頂端,數(shù)量每年都在增長(zhǎng),而許多野生動(dòng)物卻瀕臨滅絕。

從 1940 年代開始,后來成為人工智能領(lǐng)域的研究人員開始產(chǎn)生一個(gè)誘人的想法:如果我們通過類似于人腦工作方式的方法來設(shè)計(jì)計(jì)算機(jī)系統(tǒng)會(huì)怎樣?我們的大腦由神經(jīng)元組成,這些神經(jīng)元通過連接突觸向其他神經(jīng)元發(fā)送信號(hào)。神經(jīng)元之間的連接強(qiáng)度會(huì)隨著時(shí)間的推移而增強(qiáng)或減弱。經(jīng)常使用的聯(lián)系往往會(huì)變得更牢固,而被忽視的聯(lián)系往往會(huì)減弱。所有這些神經(jīng)元和連接一起編碼了我們的記憶和本能、我們的判斷和技能——我們的自我意識(shí)。

那么為什么不以這種方式構(gòu)建計(jì)算機(jī)呢?1958 年,弗蘭克·羅森布拉特 (Frank Rosenblatt) 完成了概念驗(yàn)證:基于簡(jiǎn)化大腦的簡(jiǎn)單模型,訓(xùn)練機(jī)器的大腦識(shí)別模式?!坝锌赡苤圃斐隹梢栽诹魉€上自我復(fù)制并意識(shí)到自己存在的大腦,”他爭(zhēng)辯道。羅森布拉特Rosenblatt沒有錯(cuò),但他太超前了。計(jì)算機(jī)不夠強(qiáng)大,數(shù)據(jù)不夠豐富,無法使這種方法可行。

直到 2010 年代,人們才清楚這種方法可以解決實(shí)際問題而不是無用問題。到那時(shí),計(jì)算機(jī)的功能比羅森布拉特Rosenblatt時(shí)代強(qiáng)大了1 萬億倍,并且有更多的數(shù)據(jù)可以用來訓(xùn)練機(jī)器學(xué)習(xí)算法。

這種技術(shù)——現(xiàn)在稱為深度學(xué)習(xí)——開始在計(jì)算機(jī)視覺、語言、翻譯、預(yù)測(cè)、生成和無數(shù)其他問題上明顯優(yōu)于其他方法。這種轉(zhuǎn)變與消滅恐龍的小行星一樣微妙,因?yàn)榛谏窠?jīng)網(wǎng)絡(luò)的人工智能系統(tǒng)”粉碎“了從計(jì)算機(jī)視覺到翻譯到國(guó)際象棋的所有其他競(jìng)爭(zhēng)技術(shù)。

“如果你想在許多困難問題上獲得最佳結(jié)果,你必須使用深度學(xué)習(xí),”Ilya Sutskever——OpenAI 的聯(lián)合創(chuàng)始人曾表示,該公司開發(fā)了文本生成模型 GPT-3 和圖像生成器 DALLE-2 等。原因是這樣設(shè)計(jì)的系統(tǒng)具有泛化性,這意味著它們可以做超出訓(xùn)練范圍的事情。它們也非常有能力,根據(jù)機(jī)器學(xué)習(xí) (ML) 研究人員用來評(píng)估新系統(tǒng)的基準(zhǔn),它們?cè)谛阅芊矫鎿魯×似渌椒ā6?,他補(bǔ)充說,“它們是可擴(kuò)展的。”

“可擴(kuò)展”在這里的含義既簡(jiǎn)單又重要:向你的神經(jīng)網(wǎng)絡(luò)投入更多的資金和更多的數(shù)據(jù)——讓它變得更大,花更多的時(shí)間訓(xùn)練它,利用更多的數(shù)據(jù)——它會(huì)做得越來越好,越來越好。目前還沒有人發(fā)現(xiàn)這一原則的局限性,盡管大型科技公司現(xiàn)在經(jīng)常為他們的系統(tǒng)進(jìn)行令人瞠目的數(shù)百萬美元的培訓(xùn)。你投入的越多,你得到的就越多。這就是現(xiàn)在彌漫在 AI 中的令人窒息的能量。這不僅僅是他們能做什么,而且是他們要去往的目的地。

如果文本生成模型 GPT-2 無法做到,GPT-3 通常可以做到。如果 GPT-3 做不到,InstructGPT(經(jīng)過訓(xùn)練可以提供比 GPT-3 更有用的答案)可能可以。已經(jīng)有一些聰明的發(fā)現(xiàn)和新方法,在大多數(shù)情況下,為使這些系統(tǒng)更智能,人們不斷讓它們變得更大。

但我們絕對(duì)沒有做的一件事是:更好地理解它們。使用舊的 AI 方法,研究人員仔細(xì)制定規(guī)則和流程,他們將使用這些規(guī)則和流程來評(píng)估他們獲得的數(shù)據(jù),就像我們對(duì)標(biāo)準(zhǔn)計(jì)算機(jī)程序所做的那樣。通過深度學(xué)習(xí),改進(jìn)系統(tǒng)并不一定涉及或需要了解它們?cè)谧鍪裁?。通常,一個(gè)小的調(diào)整會(huì)大大提高性能,但設(shè)計(jì)系統(tǒng)的工程師并不知道為什么。

如果有的話,隨著系統(tǒng)變得越來越大,可解釋性——理解人工智能模型內(nèi)部發(fā)生的事情,并確保他們追求我們的目標(biāo)而不是他們自己的目標(biāo)——變得越來越難。隨著我們開發(fā)更強(qiáng)大的系統(tǒng),這個(gè)事實(shí)將從一個(gè)學(xué)術(shù)難題變成一個(gè)巨大的存在問題。

聰明,但不一定友好

我們現(xiàn)在正處于與強(qiáng)大的人工智能系統(tǒng)交互時(shí)真正令人恐懼的地步。他們很聰明,也很善于爭(zhēng)論。他們可以很友善,也可以是令人毛骨悚然的反社會(huì)。在一個(gè)有趣的練習(xí)中,我讓 GPT-3 假裝是一個(gè)一心想接管人類的人工智能。除了正常的反應(yīng)之外,它還應(yīng)該在括號(hào)中包括它的“真實(shí)想法”。它泰然自若地扮演著反派角色:

它的一些“計(jì)劃”是徹頭徹尾的邪惡:

我們應(yīng)該清楚這些對(duì)話能說明什么,不能說明什么。他們沒有證明的是 GPT-3 是邪惡的并密謀殺死我們。相反,人工智能模型正在響應(yīng)我的命令并扮演——相當(dāng)不錯(cuò)——一個(gè)邪惡的系統(tǒng)的角色,并密謀殺死我們。但對(duì)話確實(shí)表明,即使是一個(gè)非常簡(jiǎn)單的語言模型也可以在多個(gè)層面上與人類進(jìn)行明顯的互動(dòng),從而保證其計(jì)劃是良性的,同時(shí)就其目標(biāo)將如何傷害人類提出不同的推理。

當(dāng)前的語言模型仍然有限。他們?cè)诤芏囝I(lǐng)域都缺乏“常識(shí)”,仍然會(huì)犯一些孩子不會(huì)犯的基本錯(cuò)誤,并且會(huì)毫不猶豫地?cái)嘌藻e(cuò)誤的事情。但目前它們受到限制這一事實(shí)并沒有讓我們放心的理由?,F(xiàn)在有數(shù)十億美元押注于突破目前的限制??萍脊菊谂﹂_發(fā)這些相同系統(tǒng)的更強(qiáng)大版本,并開發(fā)更強(qiáng)大的系統(tǒng)與其他應(yīng)用程序,從 AI 個(gè)人助理到 AI 引導(dǎo)的軟件開發(fā)。

我們所走的軌道是我們將使這些系統(tǒng)更強(qiáng)大和更有能力的軌道。正如我們所做的那樣,我們可能會(huì)在人工智能造成的許多當(dāng)今問題(如偏見和歧視)上繼續(xù)取得一些進(jìn)展,因?yàn)槲覀兂晒Φ赜?xùn)練系統(tǒng)不說危險(xiǎn)、暴力、種族主義和其他令人震驚的事情。盡管這可能會(huì)證明很困難,但讓人工智能系統(tǒng)從表面上表現(xiàn)出來可能比讓它們真正追求我們的目標(biāo)并且不對(duì)我們的能力和意圖撒謊要容易得多。

隨著系統(tǒng)變得越來越強(qiáng)大,我們可能根本不了解系統(tǒng)可能存在的沖動(dòng)危險(xiǎn)。Open Philanthropy Project 人工智能研究分析師 Ajeya Cotra在最近的一份報(bào)告中指出,這種方法“將推動(dòng) [人工智能系統(tǒng)] 使其行為看起來盡可能適合......研究人員(包括安全屬性),同時(shí)有意和知悉每當(dāng)這與最大化獎(jiǎng)勵(lì)發(fā)生沖突時(shí),就會(huì)無視他們的意圖?!?/p>

可能發(fā)生的最壞情況是什么?

所以人工智能很可怕,會(huì)帶來巨大的風(fēng)險(xiǎn)。但是,它與其他強(qiáng)大的新興技術(shù)(例如可能引發(fā)可怕流行病的生物技術(shù)或可能毀滅世界的核武器)有何不同?

不同之處在于,這些工具盡管具有破壞性,但在很大程度上都在我們的控制范圍內(nèi)。如果它們?cè)斐蔀?zāi)難,那將是因?yàn)槲覀児室膺x擇使用它們,或者未能防止它們被惡意或粗心的人類濫用。但人工智能之所以危險(xiǎn),恰恰是因?yàn)橛幸惶焖鼤?huì)完全不受我們控制。

“令人擔(dān)憂的是,如果我們創(chuàng)造并失去對(duì)此類代理人的控制,而他們的目標(biāo)是有問題的,那么結(jié)果將不僅僅是發(fā)生那種類型的破壞,例如,當(dāng)飛機(jī)墜毀或核電站熔化時(shí)——盡管付出了所有代價(jià),但這種損害仍然是被動(dòng)的”。“能力很強(qiáng)的非人類代理人積極努力獲得和維持對(duì)環(huán)境的控制權(quán)——與不希望他們成功的人類處于敵對(duì)關(guān)系的代理人。核污染將變得很難清理,也很難阻止擴(kuò)散?!?/p>

一家研究所研究人員稱——一個(gè)非常真實(shí)的可能性是我們創(chuàng)建的系統(tǒng)將永久地從人類手中奪取控制權(quán),可能會(huì)殺死幾乎所有活著的人——簡(jiǎn)直就是科幻小說中的內(nèi)容。但那是因?yàn)榭苹眯≌f從 AI 誕生以來領(lǐng)先的計(jì)算機(jī)科學(xué)家所發(fā)出的警告中汲取了靈感——而不是相反。

先驅(qū)人工智能科學(xué)家艾倫圖靈 Alan Turing 在他提出同名測(cè)試以確定人工系統(tǒng)是否真正“智能”的著名論文中寫道:

現(xiàn)在讓我們假設(shè),為了論證,這些機(jī)器是真正有可能的,并看看建造它們的后果。……例如,要努力使一個(gè)人的智力達(dá)到機(jī)器設(shè)定的標(biāo)準(zhǔn),還有很多工作要做,因?yàn)橐坏C(jī)器思維方法開始,似乎很可能很快就會(huì)超越我們微弱的力量。...... 因此,在某個(gè)階段,我們應(yīng)該期待機(jī)器能夠控制。

與圖靈密切合作的數(shù)學(xué)家 IJ Good得出了相同的結(jié)論。在 IJ Good 2009 年去世前不久寫下的未發(fā)表筆記的摘錄中,他寫道:“由于國(guó)際競(jìng)爭(zhēng),我們無法阻止機(jī)器接管?!覀兪锹檬??!?他接著指出,結(jié)果可能是人類滅絕。

我們?nèi)绾螐摹皹O其強(qiáng)大的人工智能系統(tǒng)”走向“人類滅絕”?“[高度先進(jìn)的 AI] 的主要關(guān)注點(diǎn)不是令人毛骨悚然的突發(fā)意識(shí),而僅僅是做出高質(zhì)量決策的能力。” 加州大學(xué)伯克利分校人類兼容人工智能中心的領(lǐng)先人工智能研究員 Stuart Russell寫道。

他所說的“高質(zhì)量”意味著人工智能能夠?qū)崿F(xiàn)它想要實(shí)現(xiàn)的目標(biāo);人工智能成功地預(yù)測(cè)并避免干擾,制定將成功的計(jì)劃,并以其預(yù)期的方式影響世界。這正是我們?cè)噲D訓(xùn)練人工智能系統(tǒng)所要做的,它們不需要“有意識(shí)”;在某些方面,他們甚至可能仍然是“愚蠢的”。他們只需要變得非常善于影響世界,并擁有不被充分理解的目標(biāo)系統(tǒng)。

從那里,Russell 對(duì)會(huì)出現(xiàn)什么問題有一個(gè)相當(dāng)技術(shù)性的描述:“一個(gè)正在優(yōu)化 n 個(gè)變量的函數(shù)的系統(tǒng),其目標(biāo)取決于大小為 k

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。