文|商隱社 阿空
編輯|浩然
北京時間5月14日凌晨,OpenAI公布了最新的GPT-4o?,F(xiàn)場演示中,它的表現(xiàn)仿佛一個人正坐在旁邊,和人類的對話節(jié)奏自然、融洽,完全聽不出是個AI,在短短232毫秒內(nèi),GPT-4o就能對音頻輸入做出反應。并且,它可以將文本、音頻、圖像任何組合作為輸入和輸出。這意味著OpenAI朝著更自然的人機交互邁出了重要一步。
眼見AI是越來越強悍了,網(wǎng)上又出現(xiàn)了“AI要取代人類”的驚嘆。面對能力漸強的AI,我們應該怎么辦?
前段時間,我們跟物理學家、科普作家萬維鋼老師圍繞AI的話題聊了很多,他對這個問題有著非常深度的思考。
他也說不清楚具體什么時候開始對AI感興趣的,只記得很早:“如果你對物理學感興趣,那么你會對所有事情都感興趣。物理學就是想知道這世界是怎么回事,世界的基本定律是什么?!?/p>
但AI的出現(xiàn)讓很多學科的基本范式發(fā)生了改變,萬維鋼稱其將掀起一場“啟蒙運動級別的大變革”。他迫切想知道,面對AI,我們憑什么認為自己更有價值?AI究竟會服務還是取代我們?屆時,人該怎么辦?社會將如何運轉(zhuǎn)?
最近,他將這些思考集結(jié)成《拐點:站在AI顛覆世界的前夜》一書。在書中,他提出了很多反常識的洞察,對于人與AI共存的未來持樂觀態(tài)度。下文根據(jù)本書以及我們與萬維鋼的談話內(nèi)容整理而成。
篇幅比較長,但看完一定有收獲。
01 AI到底牛在哪?
AI從上世紀80年代到現(xiàn)在一直是熱門話題,人類總有一個夢想,想讓計算機擁有人的智慧。此前我們一直以為AI離我們很遙遠,我們對其想象只存在于科幻小說和電影里,阿爾法狗的出現(xiàn)讓AI的能力變得具象化,ChatGPT使其風靡全球。
ChatGPT基于一項名為“卷積神經(jīng)網(wǎng)絡(luò)”的突破性技術(shù),也就是深度學習,其實就是在模仿人腦,將神經(jīng)網(wǎng)絡(luò)分成若干層,每層只解決最小范圍的信息,再層層匯總做出綜合判斷。
以前人們嘲笑AI連一只貓都無法識別,這技術(shù)出現(xiàn)以后AI就能很輕易做到了。
當然這不足為奇,如今最關(guān)鍵的還是算力的變化。以前AI識別圖形只需要幾千萬個參數(shù),已經(jīng)是當時計算機處理能力的上限了。但短短幾年之后,我們談論的是上萬億級別的參數(shù),現(xiàn)在參數(shù)的數(shù)量級比過去大了一萬倍都不止。
算力提升以后,AI就可以做更復雜的事,想象空間被無限延展。它現(xiàn)在突然有了像人一樣的智能,甚至可以說已經(jīng)抓住了真實世界的一個投影,著實讓人震撼。
相比人腦,AI的神經(jīng)網(wǎng)絡(luò)在復雜結(jié)構(gòu)和靈活多變方面還要差很遠。但即便是如此粗糙的模仿,也讓AI具備了像人一樣的智能。很難講,如果將模型的參數(shù)量再擴大10倍、100倍,AI會不會生長出此前所不具備的功能,甚至超過人的能力?
當前有兩派觀點。一派認為當前的AI都是用人的語料訓練的,所以AI的能力很快就會達到頂點,其上限就是人的能力。
另一派認為ChatGPT4明顯比ChatGPT3聰明,現(xiàn)在ChatGPT4的能力已經(jīng)非常接近于人,且當前沒有證據(jù)表明擴大參數(shù)這招不再適用,我們完全可以推測ChatGPT5或ChatGPT6將遠超人的能力。
屆時,它將擁有全部的人類知識,并且從中突破,涌現(xiàn)出新的能力。馬斯克大膽預測:2025年,AI可能會比任何人類都聰明;2029年,AI可能比所有人類加起來還要聰明。
這是非常合理的。
在AI與人的各項能力指標對比中,其進步曲線是極其陡峭的,現(xiàn)在已經(jīng)接近人的最高水平,我們憑什么認為它會在那個地方停下來?
這場AI革命讓我們意識到,直覺是高于邏輯的。
到底什么是AI?以我之見,AI=基于經(jīng)驗+使用直覺+進行預測。
假設(shè)你用以往的經(jīng)驗數(shù)據(jù)訓練一個模型,這個模型只關(guān)心輸入和輸出。訓練完成之后,你再給它新的輸入,它將給你提供相當不錯的輸出,你可以把這個動作視為預測。這就是AI。
此前人類為了認識和預測世界,主要用兩種計算方法,一是神經(jīng)網(wǎng)絡(luò),二是形式邏輯。
所謂“形式邏輯”就是把所有問題變成數(shù)學問題進行推導,每一步推演都有明確的因果關(guān)系,得出一個清晰的結(jié)論。形式邏輯代表“理性”,是人類智慧的偉大發(fā)明,也是啟蒙運動以來唯一正統(tǒng)的分析問題的方法。
形式邏輯要求嚴格按照某些規(guī)則操作,這對人腦來說其實很費力。人類原本擅長的、天生就會的計算,其實是神經(jīng)計算。人體是由幾個神經(jīng)網(wǎng)絡(luò)組成的,它們提供各種感知,神經(jīng)計算就是這些感知過程。
AI的感知方法跟人的感知方法別無二致,只不過比人的范圍更廣、速度更快,而且可以無限升級。
這么看來,也許啟蒙運動以來形式邏輯方法的流行,人類學者對“理性”的推崇,只不過是漫長的智能演化史中的一段短暫的插曲。用神經(jīng)網(wǎng)絡(luò)直接從輸入感知輸出,才是更根本、更普遍、更厲害的智能。AI的出現(xiàn)只是讓智能回歸本性。
未來,每個AI都不一樣,而且各有各的風格。哪怕做的是同樣的事,因為經(jīng)歷的訓練不一樣,它們的產(chǎn)出也會各不相同。世界將從工業(yè)復制時代重歸匠人定制時代。而那樣一個直覺而非邏輯的世界,原本就是我們熟悉的。
這也是對啟蒙運動的一種顛覆。啟蒙運動始于牛頓的物理定律,在此之前,人們對大自然的認識非常感性,會把自然現(xiàn)象歸為神的意志。但牛頓認為這背后都是由物理定律決定的,只要用方程和測量就能算清萬事萬物的規(guī)律。所以說啟蒙運動是一種理性化的運動,主張用理性和規(guī)則取代感性認知。
但AI恰恰不是這樣,AI只是一種感覺,它基于神經(jīng)計算,這邊給輸入,那邊就給輸出,中間是黑箱。搞不懂這個輸出是怎么得出的,就像一種情緒,一種感覺,一種直覺。
然而事實證明這種直覺是如此準確,大量訓練過后的AI讓我們又回到了當初感性的狀態(tài),這比理性計算更根本、更普遍、也更方便。
事實上,直覺是應對復雜局面最好的方法,很多問題是沒有辦法通過理性一點點計算的,就像一個籃球運動員投籃不會先計算好角度、速度和旋轉(zhuǎn)弧度,只是憑感覺一投就進了,這就是直覺。
所以說,AI的思維方式恰恰就是人的感性思維。從人的智能到人工智能之變,不但比信息革命重要,而且比工業(yè)革命重要。這是啟蒙運動級別的大事件。
02 人比AI厲害在哪?
在AI超越了啟蒙運動的理性主義之后,純感性的東西我們又該怎么理解?機器人跟人之間到底有沒有本質(zhì)區(qū)別?如果AI有了意識,這時候我們給它斷電關(guān)機是不是一件很殘忍的事情?有意識的AI是不是應該擁有人權(quán)?
我們迫切需要AI時代的哲學來回答這些問題。以我之見,AI時代的康德就是斯蒂芬·沃爾夫勒姆。他的招牌理論是“計算不可約性”,也是讓你對未來有信心的關(guān)鍵。
世界上有些事情是“可約化的”,比如濃縮的陳述、理論、公式都是對現(xiàn)實信息的壓縮表達,也就是某種約化。有了約化就有了思維快捷方式,就可以對事物的發(fā)展做出預測。
人們希望科技進步能約化一切現(xiàn)象,但現(xiàn)實恰恰相反。數(shù)學家早已證明,真正可約化的,要么是簡單系統(tǒng),要么是真實世界的一個簡單的近似模型。一切足夠復雜的系統(tǒng)都是不可約化的。
對于計算不可約的事物,本質(zhì)上沒有任何理論能提前做出預測,你只能老老實實等著它演化到那一步,才能知道結(jié)果。這就是為什么沒有人能在長時間尺度上精確預測天氣、股市、國家興亡或者人類社會的演變。不是能力不足,而是數(shù)學不允許。
計算不可約性告訴我們,任何復雜系統(tǒng)本質(zhì)上都是沒有公式、沒有理論、沒有捷徑、不可概括、不可預測的。這看起來像是個壞消息,實則是個好消息。
因為計算不可約性,人類對世間萬物的理解是不可窮盡的。這意味著不管科技多么進步、AI多么發(fā)達,世界上總會有對你和AI來說都是全新的事物出現(xiàn),你們總會有意外和驚喜。
計算不可約性規(guī)定,人活著總有奔頭。
伴隨計算不可約性的一個特點是,在任何一個不可約化的系統(tǒng)之中,總有無限多個“可約化的口袋”。也就是說,雖然你不能總結(jié)這個系統(tǒng)的完整規(guī)律,但是你永遠都可以找到一些局部規(guī)律。
所以,雖然世界本質(zhì)上是復雜和不可預測的,但我們總可以在里面做一些科學探索和研究,總結(jié)一些規(guī)律,說一些話,安排一些事情。絕對的無序之中存在著無數(shù)個相對的秩序。
計算不可約性還意味著,我們不可能徹底“管住”AI。只要模型足夠復雜,它就一定可以做一些你意想不到的事情——可能是好事,也可能是壞事。
我們管不住AI,那會不會出現(xiàn)一個終極AI,能把我們的一切都給管住呢?也不可能,還是因為計算不可約性。AI再強,也不可能窮盡所有算法和功能,總有些事情是它想不到也做不到的。
也就是說,全體AI加在一起也不可能窮盡所有功能,總會有些事情留給人類去做。那人和AI的關(guān)系將是怎樣的呢?
沃爾夫勒姆的第二個核心觀念叫“計算等價原理”,意思是所有復雜系統(tǒng)——不管提起來多復雜——都是同等復雜的,不能說哪個系統(tǒng)比哪個系統(tǒng)更復雜。
假設(shè)你裝了一塑料袋空氣,里面有很多個空氣分子,這些分子的運動非常復雜,人類社會也非常復雜。那人類社會的復雜程度是不是高于那一袋空氣分子運動的復雜程度呢?不是,它們同等復雜。
這就是說,從數(shù)學上講,人類文明并不比一袋空氣分子更高級,人類社會也不比螞蟻社會更特殊。
以前的人以為人是萬物之靈長,地球是宇宙的中心;后來發(fā)現(xiàn),地球不是宇宙的中心,人類也只是生命演化的產(chǎn)物,我們的存在跟萬物沒有什么本質(zhì)的特殊之處。
現(xiàn)在AI模型則告訴我們,人的智力也沒有什么特殊之處。任何一個足夠復雜的神經(jīng)網(wǎng)絡(luò)都是跟人的大腦同等復雜的。不能認定人能理解的科學理論就高級,AI識別藥物分子的過程就低級。
既然都是平等的,硅基生命和碳基生命自然也是平等的。那面對AI,我們憑什么認為自己更有價值?
這就引出了沃爾夫勒姆的第三個核心觀念:人的價值在于歷史。
我們之所以更看重人類社會,而不是一袋空氣分子或者一窩螞蟻,是因為我們是人。我們身上的基因背負了億萬年生物演化的歷史包袱,我們的文化承載了無數(shù)的歷史記憶。我們的價值觀,本質(zhì)上是歷史的產(chǎn)物。
現(xiàn)在AI幾乎已經(jīng)擁有了人的各種能力:要說創(chuàng)造,GPT可以寫小說和詩歌;要說情感,GPT可以根據(jù)你設(shè)定的情感生成內(nèi)容;GPT還有遠超普通人的判斷力和推理能力,還有相當水平的常識。
但是,AI沒有歷史。
AI的代碼是我們臨時編寫的,而不是億萬年演化出來的;AI的記憶是我們用語料喂出來的,而不是一代代“硅基祖先”傳給它的。
AI至少在短期內(nèi)沒有辦法形成自己的價值觀。它只能參照或“對齊”我們的價值觀。這就是人類相對于AI最后的優(yōu)勢。
這樣我們就知道了AI到底不能做什么:AI不能決定人類社會探索未知的方向。
根據(jù)計算不可約性,未來總會有無數(shù)的未知等著我們?nèi)ヌ剿?,而AI再強也不可能在所有方向上進行探索,總要有所取舍。取舍只能根據(jù)價值觀,而真正有價值觀的只有人類。
當然,這個論斷的隱含假設(shè)是AI還不完全是人。也許AI有人的智能,但只要它們沒有跟我們一模一樣的生物特性,沒有跟我們一模一樣的歷史感和文化,它們就不足以為我們做出選擇。
同樣根據(jù)計算不可約性,AI無法完全“預測”我們到時候會喜歡什么。只有我們親自面對未來的情況,在我們特有的生物特性和歷史文化影響下,才能決定喜歡什么。
這樣看來,哪怕將來真有很多人再也不用工作,直接領(lǐng)低保過日子,這些人也不是“無用之人”,至少人還有喜好。如果你厭煩了平常的事物,突然產(chǎn)生一個新的喜好,就是在探索人類新的可能性。
你的主動性的價值高于一切AI。
所以只要AI還不完全是人,輸出主動性、決定未來發(fā)展方向的就只能是人,而不是AI。
當然,根據(jù)計算不可約性,我們也不可能完全掌舵,總會有些意外發(fā)生,其中就包括AI帶給我們的意外。
03 人怎樣比AI更強勢?
人根本不可能永遠掌控AI。
AI有自己的發(fā)展規(guī)律,就像大自然。大自然是我們至今不能完全理解的,大自然偶爾還會降下地震、火山爆發(fā)等,我們無法控制、預測。
但這么多年來,我們適應了跟大自然相處,這就是共存。AI將來肯定會對人類造成一定的傷害,正如有汽車就有交通事故,我們認了。
雖然大自然經(jīng)常災害肆虐,但人類文明還是存活下來了。沃爾夫勒姆認為其中的根本原因是,大自然的各種力量之間、我們跟大自然之間達成了某種平衡。
我們將來跟AI的關(guān)系也是這樣——我們希望人的力量和AI的力量能始終保持大體上的平衡,AI之間也能互相制衡。
如果AI太強,而人類太弱,我們可能會被AI統(tǒng)治。啟蒙運動讓人們拋開上帝,擁抱理性,可AI卻能達到人的理性達不到的地方。如果AI什么都知道,它的判斷總是比人類正確,人們就會把AI當成神靈,從強烈相信AI變成信仰AI。
人們有什么事不是自己判斷,而是問AI,這不就是“神”又回來了嗎?沒準將來AI會接管社會的道德和法律問題,就像中世紀的基督教。
為了避免這樣的情況發(fā)生,我們就必須把AI當工具,人一定要比工具強勢。
我們要始終掌握控制權(quán),可以把AI當做一個助手、一個副駕駛。AI的作用是幫你更快、更好地做出判斷,幫你做不屑于花時間做的事。人要比AI兇。
AI改變了決策權(quán),現(xiàn)在問題的關(guān)鍵是如何把決策權(quán)牢牢握在我們手中。
決策=預測+判斷。預測是告訴你發(fā)生各種結(jié)果的概率是多少;判斷是對于每一種結(jié)果,你在多大程度上愿意接受,能否承受選擇背后的代價。
所以更好的方式是利用AI進行預測,將各種可能的結(jié)果擺在面前,再由人類做出選擇。將預測跟判斷脫鉤,這是對人是一種賦能。
因此,AI時代的決策=AI的預測+人的判斷。預測是客觀的,判斷是主觀的,AI不能僭越人的判斷,人也不應該專斷AI的預測。判斷的能力正變得越來越重要。
為了保證人比AI強勢,大眾教育的培養(yǎng)目標也應當做出調(diào)整。AI能做好的事,你就不要學著做了,你的任務是駕馭AI,應該把大腦解放出來學習更高級的技能。未來比較核心的能力有:
調(diào)用力。各種自動化工具都是現(xiàn)成的,但是太多了,你得有點學識,才能知道干什么事最適合用什么工具。你要想對事情有掌控感,最好多掌握一些工具。
批判性思維。既然你要做選擇,就得對這個世界是怎么回事有個基本的認識。你得區(qū)分哪些是事實,哪些是觀點,哪些結(jié)論代表當前科學理解,哪些說法根本不值得討論,學著明辨是非。
計算機思維。不是說非得會編程,而是你得善于結(jié)構(gòu)化、邏輯化地去思考。
懂藝術(shù)和哲學。這會提高你的判斷力,讓你能提出好的問題。藝術(shù)修養(yǎng)尤其能讓你善于理解他人,這樣你才能知道別人的需求,甚至想象出新的需求。
傳播能力和說服力。你能把一個復雜想法解釋清楚嗎?你能讓人接受你的觀點嗎?你能把產(chǎn)品推銷出去嗎?高端工作很需要這些。
當你足夠強勢,AI對你的作用有三個:一是信息杠桿,二是讓你發(fā)現(xiàn)自己究竟想要什么,三是幫你形成自己的觀點和決策。
AI時代,一切信息皆唾手可得,整個互聯(lián)網(wǎng)就是你的硬盤,人類所有的知識就是你的第二大腦。你真正需要保存的是自己每天冒出的新想法,是你對信息的整理和解讀。
一切落實到你自己,這樣你才不會在AI面前失去自我。
04 為什么AI還沒幫我們賺到錢?
為什么AI還沒幫我們賺到錢?其實這個現(xiàn)象并不是特例,這是“通用技術(shù)”正常的發(fā)展階段。
蒸汽機、電力、半導體、互聯(lián)網(wǎng)都是通用
技術(shù)。它們不是一上來就能創(chuàng)造巨大財富。1987年經(jīng)濟學家羅伯特·索洛就感慨:我們這個時代到處都能看到計算機,唯獨生產(chǎn)力統(tǒng)計里看不見計算機。
通用技術(shù)剛出來不會立即改造經(jīng)濟活動,要經(jīng)過三個階段:點解決方案、應用解決方案、系統(tǒng)解決方案。
AI的點解決方案是用AI改善你現(xiàn)有的決定;應用解決方案是用AI改變你做決定的方式;系統(tǒng)解決方案是AI促成了新的決定,生產(chǎn)模式整個變了。
當前我們對AI的應用還處在點解決方案和一定程度上的應用解決方案解讀,還沒達到系統(tǒng)解決方案階段。
如今計算機已成為創(chuàng)造生產(chǎn)力的重要工具,相信在不久的將來,AI也會如此。
AI會逐漸搶走我們的工作嗎?至少從工業(yè)革命以來的歷史經(jīng)驗看來,不會。歷史經(jīng)驗是,自動化技術(shù)會創(chuàng)造出新職業(yè)。
比如,以前每打一次電話都需要有個接線員幫你接線,那是一份很體面的工作。有了自動的電話交換機,不需要接線員了,電話行業(yè)的就業(yè)人數(shù)是不是減少了呢?恰恰沒有。
自動交換機讓打電話變得更方便、更便宜,于是電話服務的需求量大增,行業(yè)整體變大,馬上又多出很多以前不存在的崗位??偟慕Y(jié)果是,電話業(yè)的就業(yè)人數(shù)不但沒減少,反而大大增加。
類似的事情在各個行業(yè)反復發(fā)生。經(jīng)濟學家已經(jīng)總結(jié)出一套規(guī)律:自動化程度越高,生產(chǎn)力就越高,產(chǎn)品就越便宜,市場份額就越大,消費者就越多,生產(chǎn)規(guī)模就必須不成比例地擴大,結(jié)果是企業(yè)需要雇傭更多的員工。
自動化的確會取代一部分崗位,但也會制造更多新崗位。自動化程度最高的行業(yè)正是就業(yè)增加最多的行業(yè)。反倒是沒有充分實現(xiàn)自動化的公司不得不縮小就業(yè)規(guī)模,要么把生產(chǎn)外包,要么干脆倒閉。
如果怕AI搶人的工作,所以要限制AI發(fā)展,拒絕自動化,那就太愚蠢了。保護哪個行業(yè),哪個行業(yè)就會落后,產(chǎn)品就會越來越貴,消費者越來越少。
現(xiàn)在ChatGPT讓編程和公文寫作變?nèi)菀琢?,Midjourney之類的AI畫圖工具甚至已經(jīng)使得有些公司裁掉了一些插畫師。但根據(jù)歷史規(guī)律,它們會創(chuàng)造更多的工作。
比如“提示語工程師”就是剛剛出現(xiàn)的新工種。再比如,AI作畫如此容易,人們就會要求在生活中各個地方使用視覺藝術(shù)。以前墻上掛世界名畫,未來可能掛絕無僅有的新畫,而且每半小時換一幅。那么可以想見,我們會需要更多善于用AI畫畫的人。
我們不妨把AI想成是小人和奴隸,咱們都是君子和貴族??纯粗袊鴼v史,春秋時代人們對君子的期待從來都不是智商高、干活多,而是信用、聲望和領(lǐng)導力。我們要學的不是干活的技能,而是處理復雜事物的藝術(shù),是給不確定的世界提供秩序的智慧。
這對領(lǐng)導力也提出了新的要求。
05 人怎樣去領(lǐng)導AI?
未來每個人都需要“領(lǐng)導力”,不一定非得是對人的領(lǐng)導力,至少需要對AI的領(lǐng)導力。這包括制定戰(zhàn)略目標、安排工作步驟、設(shè)置檢驗手段等。 尼克·查特拉思在《門檻》一書中提出了“AI時代的領(lǐng)導力”的概念。
這有啥不一樣呢?我們不妨先來回顧一下領(lǐng)導力的演變。
最早的領(lǐng)導力是“英雄主義”。我是這個狼群中最能打的,所以你們都得聽我的,我說怎么辦就怎么辦。這是最土的領(lǐng)導。
近現(xiàn)代以來出現(xiàn)了“軍隊式”的領(lǐng)導力。講究命令的穩(wěn)定性和可靠性,做事得有章法,不能朝令夕改。這種領(lǐng)導力的問題在于容易出官僚主義,什么都講制度和流程,有時候忘了初心。
后來主流管理學倡導“機器式”的領(lǐng)導力。它以目標為核心,講考核、問責、任人唯賢,提倡比較扁平的組織結(jié)構(gòu),追求效率最大化。這是國內(nèi)民營企業(yè)常見的領(lǐng)導方式。這種領(lǐng)導力的問題在于它可能會讓視野窄化,過于關(guān)注具體的目標,時間長了會讓人產(chǎn)生倦怠感,乃至喪失視野。
新一代管理學倡導的是“價值觀和愿景”。比如“我們不是一個只知道賺錢的公司”“我們是為客戶創(chuàng)造價值”。它講究“服務式領(lǐng)導”,組織希望員工對要做的事情達成共識,不但知道做什么,更要知道為什么。
這種領(lǐng)導力的問題是,現(xiàn)在社會上各種價值觀是沖突的,共識難以達成。那怎么辦呢?
“門檻領(lǐng)導力”特別重視人格魅力:你的公司、你的事業(yè),本質(zhì)上是你的人格的放大;你有多大的認知,就能做多大的事;你的認知有多復雜,就能做多復雜的業(yè)務。
這不只是上級對下級,既可以是商家對顧客,媒體對公眾,也可以是下級對上級:只要能對別人產(chǎn)生影響,讓人沿著你選的方向前進,都是領(lǐng)導力。AI時代,每個人都需要一點門檻領(lǐng)導力。
AI當然能給你提供各種建議方案,但是像免費還是收費、要花多大成本保護用戶隱私等充滿矛盾和悖論的問題,是你必須做的選擇。這不是智力題和知識題,而是人格題。對公司來說,現(xiàn)代社會正在變成熟人社會,你需要“內(nèi)圣外王”的能力。
查特拉思說:“無論領(lǐng)導者在領(lǐng)導時認為自己在做什么,他們都在揭示自己的本質(zhì)?!?/p>
你和員工是什么樣的,公司就什么樣。你們既是在探索自己是誰,也是在幫助客戶發(fā)現(xiàn)他們是誰。所有品牌競爭都是人的精神內(nèi)核的較量。AI只是放大了這種較量。
用上AI很容易,任何公司都能以非常便宜的價格購買OpenAI的算力;但是一家有AI而沒有內(nèi)核的公司應該被AI淘汰。
06 我們怎樣活出“人樣”?
人相對AI有個絕對的優(yōu)勢,也是AI至少在短期內(nèi)趕不上的,那就是人更理解人。AI再厲害也得聽人指揮,最終做決策的必須是人,用中國話說這叫“底線思維”;一切生產(chǎn)、科研都是為了人。
需求必須是各項事業(yè)的出發(fā)點和落腳點,所以理解人永遠都是最重要的智能。
AI時代,在邏輯運算、聽說讀寫那些一般認知項目上,我們已經(jīng)輸了。我們要發(fā)揮長板優(yōu)勢,就必須讓自己更像人,而不是更像AI。
比較重要的一點是要充分感知自己和他人的情緒,區(qū)分不同情感之間的微妙差別,會對你的決策有重大影響。
AI時代的商業(yè)要求你認識自己、認識你的團隊、認識你的客戶。要想真正理解數(shù)據(jù)就得深入到用戶中間去。這些都要求你跟用戶有情感溝通。這些是AI不能做的。
情緒并不是純粹的大腦功能,情緒跟身體有很大關(guān)系。我們很多時候是通過身體的反應了解自己的情緒。AI沒有身體,它怎么能有人的情緒呢?它怎么能理解、預測人的情緒呢?至少到目前為止,情緒功能還是人的優(yōu)勢。
如果超級人工智能也能做得像真人一樣。它雖沒有真實肉體,不能真正感覺到情緒,但它會計算情感。它不但能準確判斷你的情緒,還能用最好的方式表達她的情感。
它簡直就是完美的。人的所有技能它都會,人不會的它也會。它會用人類特有的情感方式說服你、暗示你、幫助你,包括使用肢體語言。它非常理解你的性格和你的文化背景,它的管理方式、制訂的計劃,方方面面的安排都非常完美。每個接近過它的人都能感受到它是充滿善意的。它簡直就像神一樣。
要是這樣的超級人工智能已經(jīng)出現(xiàn)而且普及了,請問,你這個人類還有什么用?
查特拉思認為,你至少還有一項價值不會被超級人工智能取代。那就是“愛”,一個真人的愛。
來自機器的愛和來自真人的愛,感覺畢竟不一樣。人的愛是真的,因為只有人能真的感覺到你的痛苦和喜悅,人跟人才會有真正的瓜葛。其實這很容易理解,像什么機器寵物,甚至性愛機器人,就算再好,你總會覺得缺了點什么。
查特拉思預測,超級人工智能時代的主角將不會是機器,但也可能不會是人——而是愛。當物質(zhì)和能力的問題都已經(jīng)解決,世界最稀缺的、人們最珍視的,將會是愛。
早在1950年,控制論之父諾伯特·維納就出了本書叫《人有人的用處》,認為生命的本質(zhì)其實是信息:我們的使命是給系統(tǒng)提供額外的信息。在信息意義上,人生的價值在于爭取選擇權(quán)、多樣性、不確定性和自由度。
別人交給你一個任務,你按照規(guī)定程序一步步操作就能完成,那你跟機器沒有區(qū)別。只有這個過程中發(fā)生了某種意外,你必須以自己的方式甚至價值觀解決問題,在這件事上留下你的印記,才證明你是一個人而不是工具。
人不是程序,人不應該按照固定規(guī)則生活。人生的使命就是要制造意外,增加信息。有些意外來自你的情感,有些來自你身體的獨特感知,有些來自你自主的思考。
不管來自哪里,它們一定不是來自AI給你的灌輸,一定不是來自你對領(lǐng)導意圖的揣摩。
那些任性而為的時刻,才是你真正活著的時刻。