正在閱讀:

AI“統(tǒng)治”世界,需要分幾步走?

掃一掃下載界面新聞APP

AI“統(tǒng)治”世界,需要分幾步走?

大模型真的威脅人類了嗎?

圖片來(lái)源:界面新聞 匡達(dá)

文|鋅財(cái)經(jīng) 孫鵬越

編輯|大風(fēng)

你敢相信?ChatGPT已經(jīng)通過(guò)圖靈測(cè)試了!

甚至不是最新的GPT-4o,老版本GPT-3.5和GPT-4就已經(jīng)打破人類和AI的最后一層限制。

“圖靈測(cè)試”由計(jì)算機(jī)科學(xué)家艾倫?圖靈在1950年提出。他將人工智能給出了一個(gè)完全可操作的定義:如果一臺(tái)機(jī)器輸出的內(nèi)容和人類大腦別無(wú)二致的話,那么我們就沒(méi)有理由堅(jiān)持認(rèn)為這臺(tái)機(jī)器不是在“思考”。

“圖靈測(cè)試”和“機(jī)器人三定律”,一直被人類世界視為保護(hù)人類的最后屏障。

就連“AI講師”周鴻祎,都在最近的社交平臺(tái)上大談AI滅世論,將AI焦慮拉到極致。

在2024年,以O(shè)penAI為首的大模型公司,真的能打開(kāi)毀滅人類社會(huì)的潘多拉魔盒嗎?

“AI滅世論”引發(fā)焦慮

從上世紀(jì)開(kāi)始,通過(guò)圖靈測(cè)試就成為人類在AI領(lǐng)域?yàn)橹畩^斗的里程碑目標(biāo)。

可真的有AI通過(guò)測(cè)試后,人類的惶恐卻大過(guò)于驚喜。

加州大學(xué)研究人員招募了500名參與者,讓他們與四位“對(duì)話者”進(jìn)行五分鐘的交流,這四位“對(duì)話者”分別是:真人、上世紀(jì)60年代的初代聊天機(jī)器人ELIZA、GPT-3.5和GPT-4。

參與者在對(duì)話結(jié)束后,需判斷對(duì)方是人還是機(jī)器。

評(píng)估對(duì)象通過(guò)率(左) 評(píng)估者信任度(右)

結(jié)果顯示,真人被正確辨認(rèn)的比例則為67%;ELIZA只有22%;GPT-4和GPT-3.5則高達(dá)54%、50%。

這項(xiàng)測(cè)試無(wú)疑是非??膳?,真人和GPT-4的差距僅有12%!

前OpenAI“超級(jí)對(duì)齊團(tuán)隊(duì)”成員利奧波德·阿申布倫納(Leopold Aschenbrenner),曾在在社交平臺(tái)披露出來(lái)的一份長(zhǎng)達(dá)165頁(yè)的PDF文檔,對(duì)外界發(fā)出警告。

阿申布倫納表示,AI在過(guò)去10年深度學(xué)習(xí)的進(jìn)步速度非常驚人。僅僅10年前,AI識(shí)別簡(jiǎn)單圖像的能力就已經(jīng)是革命性的。但如今,人類不斷嘗試提出新穎的、更難的測(cè)試,但每個(gè)新的基準(zhǔn)測(cè)試都很快被AI所破解。

過(guò)去,破解廣泛使用的基準(zhǔn)測(cè)試,AI需要數(shù)十年的時(shí)間,而現(xiàn)在只要幾個(gè)月。

而圖靈測(cè)試雖然名氣大,但從問(wèn)題深度和難度上,并不如當(dāng)下最困難的基準(zhǔn)測(cè)試,也就是類似GPQA的測(cè)試,內(nèi)容是博士級(jí)別的生物、化學(xué)和物理問(wèn)題。

阿申布倫納估計(jì),GPT-4進(jìn)化到GPT-4o,或者到GPT-5模型迭代后,這一基準(zhǔn)測(cè)試也將作廢。

為什么人類設(shè)置的難題,會(huì)這么快被AI所破解?原因就是,AI學(xué)習(xí)能力真的太快了!

2019年發(fā)布的GPT-2模型,智力水平僅僅于學(xué)齡前兒童相仿,只能簡(jiǎn)單串起一些看似合理的句子,但是卻無(wú)法從1數(shù)到5,也無(wú)法完成總結(jié)類任務(wù);

2020年發(fā)布的GPT-3模型,智力水平大致達(dá)到了小學(xué)生的水平,能生成篇幅更長(zhǎng)的模型,并能完成一些基礎(chǔ)的算術(shù)任務(wù)和語(yǔ)法糾錯(cuò);

2022年發(fā)布的GPT-4模型,智力水平就能與較為聰明的高中生相似,能編寫(xiě)復(fù)雜的代碼并進(jìn)行迭代調(diào)試,還能完成高中數(shù)學(xué)競(jìng)賽題。

等到2024年,更先進(jìn)GPT-4o,更是完成了對(duì)GPT-4的全方位超越。

相比較人類,正常人類從小學(xué)提升到初中,需要六年的時(shí)間;初中提升到高中,又需要三年的事件。

而AI的進(jìn)化,則是兩年一個(gè)臺(tái)階的越級(jí)進(jìn)化,遠(yuǎn)遠(yuǎn)超過(guò)正常人類的水平。

超級(jí)人工智能時(shí)代

“在2027年,我們就有極大可能實(shí)現(xiàn)AGI(超級(jí)人工智能)。”

這是阿申布倫納的推斷,他的數(shù)據(jù)支撐是GPT-2到GPT-4的模型迭代趨勢(shì)。

從2019-2022年的4年時(shí)間里,ChatGPT算力和算法效率都在以每年0.5個(gè)數(shù)量級(jí)(1個(gè)數(shù)量級(jí)=10倍)的速度發(fā)展。

再加上可能出現(xiàn)的釋放模型性能的技術(shù)突破,等到了2027年,AGI(超級(jí)人工智能)時(shí)代就會(huì)降臨,AI工程師完全可以取代人類工程師的所有工作。

AI的“超級(jí)進(jìn)化”,背后是算力與資源的巨額消耗。

AI研究機(jī)構(gòu)Epoch AI評(píng)估報(bào)告顯示,GPT-4訓(xùn)練使用的原始計(jì)算量比GPT-2多約3000-10000倍。

這無(wú)疑是個(gè)可怕的數(shù)據(jù),據(jù)阿申布倫納估計(jì),到2027年底,將會(huì)出現(xiàn)2個(gè)數(shù)量級(jí)的算力增長(zhǎng),用電量相當(dāng)于美國(guó)一個(gè)中小型的州的用電量。

也就是說(shuō),要拿一個(gè)省份的用電量,來(lái)支撐起一個(gè)AI大模型的日常訓(xùn)練,這還是GPT-4的水準(zhǔn),還遠(yuǎn)不到AGI(超級(jí)人工智能)的標(biāo)準(zhǔn)。

周鴻祎對(duì)阿申布倫納的言論并不認(rèn)同,甚至有些“不切實(shí)際,更像是科幻小說(shuō)”。

他表示,如果一個(gè)AGI(超級(jí)人工智能)的誕生就需要多個(gè)省份的電力資源,那么有10個(gè)以上的AGI,就能把整個(gè)地球的資源抽干殆盡。

周鴻祎給出了自己對(duì)AI的擔(dān)憂,他認(rèn)為如果在未來(lái)誕生出一個(gè)AGI,它就會(huì)取代人類工程師負(fù)責(zé)對(duì)AI大模型的開(kāi)發(fā),那么就會(huì)有一個(gè)24小時(shí)日以繼夜工作、讓算法和技術(shù)突破的更快,形成極為夸張的正循環(huán)。

在“機(jī)器人改造機(jī)器人”“機(jī)器人改造算法”的模式下,AI的智力水平會(huì)從人類進(jìn)化到超人,那么就會(huì)上演“硅基生物VS碳基生物”的好萊塢戲碼。

雖然周鴻祎反對(duì)阿申布倫納的言論,但同樣認(rèn)為智能大爆炸之后的“超級(jí)智能時(shí)代”,將是人類歷史上最動(dòng)蕩、最危險(xiǎn)、最緊張的時(shí)期。

這并不是周鴻祎在社交平臺(tái)上,第一次對(duì)AI領(lǐng)域充斥著憂慮。早在2023年年初,GPT-4剛剛火遍全球的時(shí)候,周鴻祎就已經(jīng)表達(dá)過(guò)對(duì)AI安全的擔(dān)憂。

周鴻祎表示:原來(lái)的人工智能給人的感覺(jué)像“人工智障”,雖然能做一些技術(shù)比如人臉識(shí)別、語(yǔ)音識(shí)別,但并不能理解你說(shuō)的什么。但是ChatGPT模型不僅能夠通過(guò)圖靈試驗(yàn),而且它有自己的人設(shè)、自己的觀點(diǎn),按照進(jìn)化速度、摩爾定律,如果進(jìn)一步訓(xùn)練下去,ChatGPT也許就能實(shí)現(xiàn)自我意識(shí)的突破。

一旦自我意識(shí)突破,它就有可能控制全網(wǎng)的電腦,就會(huì)認(rèn)為比人類高明很多。在它眼里,人類這個(gè)物種其實(shí)無(wú)論從存儲(chǔ)、算力、反應(yīng)能力、知識(shí)面上比它差太遠(yuǎn),它就能反過(guò)來(lái)奴役人類,科幻正離現(xiàn)實(shí)越來(lái)越近。

作為360的創(chuàng)始人,AI安全問(wèn)題,周鴻祎的顧慮更多。

無(wú)人在意的AI安全

OpenAI作為AI時(shí)代的領(lǐng)頭羊,面對(duì)AI安全的全球輿論,它做了什么嗎?

顯然是沒(méi)有的,甚至OpenAI還在今年解散了負(fù)責(zé)AI安全的“超級(jí)對(duì)齊團(tuán)隊(duì)”。

在去年,OpenAI首席科學(xué)家伊利亞·蘇斯克沃就因?yàn)锳I安全問(wèn)題,對(duì)CEO山姆·奧特曼進(jìn)行彈劾,但最終還是山姆·奧特曼笑到最后,伊利亞·蘇斯克沃被趕出公司。

伊利亞·蘇斯克沃離開(kāi)OpenAI后,在6月20日宣布成立新公司SSI(超級(jí)安全智能Safe SuperIntelligence)。

最在意AI安全的伊利亞·蘇斯克沃離職,上文提到了利奧波德·阿申布倫納就以“泄密”為由,被OpenAI同樣趕出了公司。

這也是他在社交平臺(tái)發(fā)布165頁(yè)的文檔,曝光OpenAI的原因。

甚至,曝光OpenAI的吹哨人,還不止阿申布倫納一人,在上個(gè)月,有一批OpenAI的前員工和現(xiàn)員工聯(lián)合起來(lái),公開(kāi)發(fā)表了一封聯(lián)名信,聲明OpenAI缺少監(jiān)管,人工智能系統(tǒng)已經(jīng)能對(duì)人類社會(huì)造成嚴(yán)重危害,未來(lái)甚至能“滅絕人類”。

雖然“滅絕人類”這個(gè)說(shuō)法過(guò)于驚悚,但在解散超級(jí)對(duì)齊團(tuán)隊(duì)之后,OpenAI GPT商店充斥著垃圾郵件,并違反平臺(tái)的服務(wù)條款從YouTube抓取數(shù)據(jù)。

看到AI安全在OpenAI的地位,越來(lái)越多的安全研究人員,選擇另謀高就。

艾隆·馬斯克也忍不住抨擊山姆·奧特曼:“安全并不是OpenAI的首要任務(wù)?!?/p>

對(duì)于外界的批評(píng),山姆·奧特曼置若罔聞,他已經(jīng)把全部精力用于推動(dòng)OpenAI徹底轉(zhuǎn)向營(yíng)利實(shí)體,不再由非營(yíng)利性組織控制。

如果OpenAI轉(zhuǎn)型為營(yíng)利組織后,有限合伙人每年利潤(rùn)分紅的限制就不復(fù)存在了,巨額回報(bào)激勵(lì)能夠進(jìn)一步擴(kuò)大合伙人范圍,也有利于OpenAI走向IPO。

也就是說(shuō),估值高達(dá)860億美元的OpenAI(約6244億人民幣),將能給山姆·奧特曼本人帶來(lái)更多的財(cái)富。

在Dollar面前,山姆·奧特曼毅然決然的放棄了AI安全。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

OpenAI

  • 科技早報(bào)|OpenAI或正商談以1500億美元的估值籌集資金;三星電子開(kāi)啟海外裁員
  • OpenAI據(jù)悉正商談以1500億美元的估值籌集資金

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

AI“統(tǒng)治”世界,需要分幾步走?

大模型真的威脅人類了嗎?

圖片來(lái)源:界面新聞 匡達(dá)

文|鋅財(cái)經(jīng) 孫鵬越

編輯|大風(fēng)

你敢相信?ChatGPT已經(jīng)通過(guò)圖靈測(cè)試了!

甚至不是最新的GPT-4o,老版本GPT-3.5和GPT-4就已經(jīng)打破人類和AI的最后一層限制。

“圖靈測(cè)試”由計(jì)算機(jī)科學(xué)家艾倫?圖靈在1950年提出。他將人工智能給出了一個(gè)完全可操作的定義:如果一臺(tái)機(jī)器輸出的內(nèi)容和人類大腦別無(wú)二致的話,那么我們就沒(méi)有理由堅(jiān)持認(rèn)為這臺(tái)機(jī)器不是在“思考”。

“圖靈測(cè)試”和“機(jī)器人三定律”,一直被人類世界視為保護(hù)人類的最后屏障。

就連“AI講師”周鴻祎,都在最近的社交平臺(tái)上大談AI滅世論,將AI焦慮拉到極致。

在2024年,以O(shè)penAI為首的大模型公司,真的能打開(kāi)毀滅人類社會(huì)的潘多拉魔盒嗎?

“AI滅世論”引發(fā)焦慮

從上世紀(jì)開(kāi)始,通過(guò)圖靈測(cè)試就成為人類在AI領(lǐng)域?yàn)橹畩^斗的里程碑目標(biāo)。

可真的有AI通過(guò)測(cè)試后,人類的惶恐卻大過(guò)于驚喜。

加州大學(xué)研究人員招募了500名參與者,讓他們與四位“對(duì)話者”進(jìn)行五分鐘的交流,這四位“對(duì)話者”分別是:真人、上世紀(jì)60年代的初代聊天機(jī)器人ELIZA、GPT-3.5和GPT-4。

參與者在對(duì)話結(jié)束后,需判斷對(duì)方是人還是機(jī)器。

評(píng)估對(duì)象通過(guò)率(左) 評(píng)估者信任度(右)

結(jié)果顯示,真人被正確辨認(rèn)的比例則為67%;ELIZA只有22%;GPT-4和GPT-3.5則高達(dá)54%、50%。

這項(xiàng)測(cè)試無(wú)疑是非??膳?,真人和GPT-4的差距僅有12%!

前OpenAI“超級(jí)對(duì)齊團(tuán)隊(duì)”成員利奧波德·阿申布倫納(Leopold Aschenbrenner),曾在在社交平臺(tái)披露出來(lái)的一份長(zhǎng)達(dá)165頁(yè)的PDF文檔,對(duì)外界發(fā)出警告。

阿申布倫納表示,AI在過(guò)去10年深度學(xué)習(xí)的進(jìn)步速度非常驚人。僅僅10年前,AI識(shí)別簡(jiǎn)單圖像的能力就已經(jīng)是革命性的。但如今,人類不斷嘗試提出新穎的、更難的測(cè)試,但每個(gè)新的基準(zhǔn)測(cè)試都很快被AI所破解。

過(guò)去,破解廣泛使用的基準(zhǔn)測(cè)試,AI需要數(shù)十年的時(shí)間,而現(xiàn)在只要幾個(gè)月。

而圖靈測(cè)試雖然名氣大,但從問(wèn)題深度和難度上,并不如當(dāng)下最困難的基準(zhǔn)測(cè)試,也就是類似GPQA的測(cè)試,內(nèi)容是博士級(jí)別的生物、化學(xué)和物理問(wèn)題。

阿申布倫納估計(jì),GPT-4進(jìn)化到GPT-4o,或者到GPT-5模型迭代后,這一基準(zhǔn)測(cè)試也將作廢。

為什么人類設(shè)置的難題,會(huì)這么快被AI所破解?原因就是,AI學(xué)習(xí)能力真的太快了!

2019年發(fā)布的GPT-2模型,智力水平僅僅于學(xué)齡前兒童相仿,只能簡(jiǎn)單串起一些看似合理的句子,但是卻無(wú)法從1數(shù)到5,也無(wú)法完成總結(jié)類任務(wù);

2020年發(fā)布的GPT-3模型,智力水平大致達(dá)到了小學(xué)生的水平,能生成篇幅更長(zhǎng)的模型,并能完成一些基礎(chǔ)的算術(shù)任務(wù)和語(yǔ)法糾錯(cuò);

2022年發(fā)布的GPT-4模型,智力水平就能與較為聰明的高中生相似,能編寫(xiě)復(fù)雜的代碼并進(jìn)行迭代調(diào)試,還能完成高中數(shù)學(xué)競(jìng)賽題。

等到2024年,更先進(jìn)GPT-4o,更是完成了對(duì)GPT-4的全方位超越。

相比較人類,正常人類從小學(xué)提升到初中,需要六年的時(shí)間;初中提升到高中,又需要三年的事件。

而AI的進(jìn)化,則是兩年一個(gè)臺(tái)階的越級(jí)進(jìn)化,遠(yuǎn)遠(yuǎn)超過(guò)正常人類的水平。

超級(jí)人工智能時(shí)代

“在2027年,我們就有極大可能實(shí)現(xiàn)AGI(超級(jí)人工智能)?!?/p>

這是阿申布倫納的推斷,他的數(shù)據(jù)支撐是GPT-2到GPT-4的模型迭代趨勢(shì)。

從2019-2022年的4年時(shí)間里,ChatGPT算力和算法效率都在以每年0.5個(gè)數(shù)量級(jí)(1個(gè)數(shù)量級(jí)=10倍)的速度發(fā)展。

再加上可能出現(xiàn)的釋放模型性能的技術(shù)突破,等到了2027年,AGI(超級(jí)人工智能)時(shí)代就會(huì)降臨,AI工程師完全可以取代人類工程師的所有工作。

AI的“超級(jí)進(jìn)化”,背后是算力與資源的巨額消耗。

AI研究機(jī)構(gòu)Epoch AI評(píng)估報(bào)告顯示,GPT-4訓(xùn)練使用的原始計(jì)算量比GPT-2多約3000-10000倍。

這無(wú)疑是個(gè)可怕的數(shù)據(jù),據(jù)阿申布倫納估計(jì),到2027年底,將會(huì)出現(xiàn)2個(gè)數(shù)量級(jí)的算力增長(zhǎng),用電量相當(dāng)于美國(guó)一個(gè)中小型的州的用電量。

也就是說(shuō),要拿一個(gè)省份的用電量,來(lái)支撐起一個(gè)AI大模型的日常訓(xùn)練,這還是GPT-4的水準(zhǔn),還遠(yuǎn)不到AGI(超級(jí)人工智能)的標(biāo)準(zhǔn)。

周鴻祎對(duì)阿申布倫納的言論并不認(rèn)同,甚至有些“不切實(shí)際,更像是科幻小說(shuō)”。

他表示,如果一個(gè)AGI(超級(jí)人工智能)的誕生就需要多個(gè)省份的電力資源,那么有10個(gè)以上的AGI,就能把整個(gè)地球的資源抽干殆盡。

周鴻祎給出了自己對(duì)AI的擔(dān)憂,他認(rèn)為如果在未來(lái)誕生出一個(gè)AGI,它就會(huì)取代人類工程師負(fù)責(zé)對(duì)AI大模型的開(kāi)發(fā),那么就會(huì)有一個(gè)24小時(shí)日以繼夜工作、讓算法和技術(shù)突破的更快,形成極為夸張的正循環(huán)。

在“機(jī)器人改造機(jī)器人”“機(jī)器人改造算法”的模式下,AI的智力水平會(huì)從人類進(jìn)化到超人,那么就會(huì)上演“硅基生物VS碳基生物”的好萊塢戲碼。

雖然周鴻祎反對(duì)阿申布倫納的言論,但同樣認(rèn)為智能大爆炸之后的“超級(jí)智能時(shí)代”,將是人類歷史上最動(dòng)蕩、最危險(xiǎn)、最緊張的時(shí)期。

這并不是周鴻祎在社交平臺(tái)上,第一次對(duì)AI領(lǐng)域充斥著憂慮。早在2023年年初,GPT-4剛剛火遍全球的時(shí)候,周鴻祎就已經(jīng)表達(dá)過(guò)對(duì)AI安全的擔(dān)憂。

周鴻祎表示:原來(lái)的人工智能給人的感覺(jué)像“人工智障”,雖然能做一些技術(shù)比如人臉識(shí)別、語(yǔ)音識(shí)別,但并不能理解你說(shuō)的什么。但是ChatGPT模型不僅能夠通過(guò)圖靈試驗(yàn),而且它有自己的人設(shè)、自己的觀點(diǎn),按照進(jìn)化速度、摩爾定律,如果進(jìn)一步訓(xùn)練下去,ChatGPT也許就能實(shí)現(xiàn)自我意識(shí)的突破。

一旦自我意識(shí)突破,它就有可能控制全網(wǎng)的電腦,就會(huì)認(rèn)為比人類高明很多。在它眼里,人類這個(gè)物種其實(shí)無(wú)論從存儲(chǔ)、算力、反應(yīng)能力、知識(shí)面上比它差太遠(yuǎn),它就能反過(guò)來(lái)奴役人類,科幻正離現(xiàn)實(shí)越來(lái)越近。

作為360的創(chuàng)始人,AI安全問(wèn)題,周鴻祎的顧慮更多。

無(wú)人在意的AI安全

OpenAI作為AI時(shí)代的領(lǐng)頭羊,面對(duì)AI安全的全球輿論,它做了什么嗎?

顯然是沒(méi)有的,甚至OpenAI還在今年解散了負(fù)責(zé)AI安全的“超級(jí)對(duì)齊團(tuán)隊(duì)”。

在去年,OpenAI首席科學(xué)家伊利亞·蘇斯克沃就因?yàn)锳I安全問(wèn)題,對(duì)CEO山姆·奧特曼進(jìn)行彈劾,但最終還是山姆·奧特曼笑到最后,伊利亞·蘇斯克沃被趕出公司。

伊利亞·蘇斯克沃離開(kāi)OpenAI后,在6月20日宣布成立新公司SSI(超級(jí)安全智能Safe SuperIntelligence)。

最在意AI安全的伊利亞·蘇斯克沃離職,上文提到了利奧波德·阿申布倫納就以“泄密”為由,被OpenAI同樣趕出了公司。

這也是他在社交平臺(tái)發(fā)布165頁(yè)的文檔,曝光OpenAI的原因。

甚至,曝光OpenAI的吹哨人,還不止阿申布倫納一人,在上個(gè)月,有一批OpenAI的前員工和現(xiàn)員工聯(lián)合起來(lái),公開(kāi)發(fā)表了一封聯(lián)名信,聲明OpenAI缺少監(jiān)管,人工智能系統(tǒng)已經(jīng)能對(duì)人類社會(huì)造成嚴(yán)重危害,未來(lái)甚至能“滅絕人類”。

雖然“滅絕人類”這個(gè)說(shuō)法過(guò)于驚悚,但在解散超級(jí)對(duì)齊團(tuán)隊(duì)之后,OpenAI GPT商店充斥著垃圾郵件,并違反平臺(tái)的服務(wù)條款從YouTube抓取數(shù)據(jù)。

看到AI安全在OpenAI的地位,越來(lái)越多的安全研究人員,選擇另謀高就。

艾隆·馬斯克也忍不住抨擊山姆·奧特曼:“安全并不是OpenAI的首要任務(wù)?!?/p>

對(duì)于外界的批評(píng),山姆·奧特曼置若罔聞,他已經(jīng)把全部精力用于推動(dòng)OpenAI徹底轉(zhuǎn)向營(yíng)利實(shí)體,不再由非營(yíng)利性組織控制。

如果OpenAI轉(zhuǎn)型為營(yíng)利組織后,有限合伙人每年利潤(rùn)分紅的限制就不復(fù)存在了,巨額回報(bào)激勵(lì)能夠進(jìn)一步擴(kuò)大合伙人范圍,也有利于OpenAI走向IPO。

也就是說(shuō),估值高達(dá)860億美元的OpenAI(約6244億人民幣),將能給山姆·奧特曼本人帶來(lái)更多的財(cái)富。

在Dollar面前,山姆·奧特曼毅然決然的放棄了AI安全。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。