文|適道
2024年余額告急,目測一大波#展望2025#正在路上。
誰還記得大佬們對2024年的展望?
OpenAI聯(lián)創(chuàng)Greg Brockman曾預(yù)測:在2024年,AI能力、安全性、潛在影響的積極性上,都將是突破性的一年。長遠來講,2024年不過是指數(shù)級發(fā)展的又一年,每個人的生活都會比今天更好。
一年以來,不僅GPT-5爽約,Brockman本人險些離席,甚至連被奉為圭臬的Scaling Law最近也遇到了“小插曲”。
英偉達高級科學(xué)家Jim Fan曾預(yù)測,2024年將是“視頻年”。盡管機器人和具身智能體才剛剛起步,但視頻AI將在未來12個月內(nèi)迎來突破性進展的時刻。
一年以來,各類優(yōu)秀的視頻生成產(chǎn)品陸續(xù)發(fā)布,全員處于加速狀態(tài)。但視頻生成領(lǐng)域并未迎來“GPT時刻”,商業(yè)化探索同樣是個難題。
年初驚艷世人的Sora,自橫空出世以來,就鴿了……其背后原因,眾說紛紜。一方面,要和政府深入探討安全風(fēng)險;另一方面,亟需好萊塢和藝術(shù)家們?nèi)腭v合作。
另一種可能性是,太燒錢了。Factorial Funds估算,Sora在訓(xùn)練環(huán)節(jié)對算力需求比LLM高出好幾倍,至少需要在 4200-10500 塊H100 上訓(xùn)練1個月。如果Sora得到大范圍應(yīng)用,比如TikTok的 50%視頻由 AI 生成、YouTube的15%視頻由AI 生成,推理環(huán)節(jié)則需要約72萬臺H100,大概燒216億美元。前OpenAI CTO Mira提到,公司希望成本做到和Dall·E接近后再考慮開放。
阿波羅首席經(jīng)濟學(xué)家Torsten Sl k曾撰文稱,AI泡沫的“糟糕程度”不僅超過了1990年代,還超過了互聯(lián)網(wǎng)泡沫巔峰時期的水平。
一年以來,生成式AI應(yīng)用依然處于早期,但擋不住巨頭們的下注熱情。紅杉算了一筆賬,AI的預(yù)期收入和基建投入之間,或存在6000億美元缺口。目前局勢尚且穩(wěn)定,不過歷史給我們的教訓(xùn)是,泡沫需要很長時間才能破裂......
所謂“預(yù)言”,往往會出現(xiàn)“方向”正確;“時間點”錯誤的情況。雖然你很難咬定上面哪條預(yù)言判斷有誤,但目前的“體感”并不明朗。
“黑天鵝”之父塔勒布曾在《反脆弱》一書中提出了“脆弱推手”(Fragilista)的概念,特指那些在系統(tǒng)中增加脆弱性的“西裝革履”的人物或機構(gòu)。他們會用“預(yù)測”,規(guī)劃未來的路線圖,對于自己不理解的事物,則傾向于當(dāng)其不存在。
然而,如果這些“預(yù)言家”完全置身事內(nèi),其“預(yù)測”將影響自身利害,情況就大不相同了。比如,包括上述Greg Brockman等等投身AI事業(yè)的諸位大佬,他們或許會夸張炒作,或許會誤測時間,但不會紙上談兵。
只不過,有些預(yù)言實在是“太夸張”了。
最近,在一段YouTube視頻采訪中,當(dāng)被問及對2025年的期待時,OpenAI CEO Sam Altman答道:AGI?我對此很興奮。我們要有“孩子”了,這是我一輩子最興奮的事情。
眼看GPT-5正在“卡殼”,你是信2025實現(xiàn)AGI,還是信我是秦始皇。關(guān)于AGI的預(yù)言都有哪些?想要實現(xiàn)還差幾步?《商業(yè)內(nèi)幕》的一篇文章《Those bold AGI predictions are suddenly looking stretched》進行了解釋。
看山跑死馬,“明年實現(xiàn)AGI”堪比“明年移民火星”
盤點大佬們對AGI的預(yù)測,大致存在“2026年”“2029年”,以及“2034年”三個時間節(jié)點。
第一梯隊:3年內(nèi)
OpenAI CEO Sam Altman:對2025年實現(xiàn) AGI充滿期待。
“全美Cutter”馬斯克:最遲2026年會出現(xiàn) AGI。
Anthropic創(chuàng)始人Dario Amodei :預(yù)測2026年實現(xiàn)AGI 。
OpenAI聯(lián)創(chuàng)John Schulman:AGI將在2027年實現(xiàn),ASI將在2029年到來。
第二梯隊:5年內(nèi)
諾獎得主、AI教父Geoffery Hinton:5年內(nèi)看到AGI。
英偉達創(chuàng)始人兼CEO黃仁勛:未來5年,AI能通過人類任何測試。
谷歌首席研究員Ray Kurzweil:預(yù)測AGI將在2029年到來。
《奇點臨近》作者Ray Kurzweil:預(yù)測2029年實現(xiàn)AGI。
第三梯隊:10年
諾獎得主、DeepMind創(chuàng)始人 Demis Hassabis:實現(xiàn)AGI 需要10年時間,且還需要 2 到 3項重大創(chuàng)新。
軟銀CEO孫正義:AI將在10年內(nèi)比人類聰明一萬倍。(直接預(yù)言上了ASI)
當(dāng)然,還有一些“白日夢”組合。
Yann LeCun認為,AGI短期內(nèi)不會出現(xiàn)。至少不會像好萊塢科幻電影那樣突然出現(xiàn)。它更可能是一個漸進的過程,而不是某個時刻突然“開機”就得到AGI。實現(xiàn)真正的“人類級別”的AI之前,我們得到的更可能是一種“貓級別”或者“狗級別”的低智能AI。
吳恩達對宣稱AGI即將到來持懷疑態(tài)度:我希望能在我們有生之年看到AGI,但我不確定。
人工智能專家Gary Marcus曾表示,如果我們繼續(xù)深度學(xué)習(xí)和語言模型的路線,將永遠無法實現(xiàn)AGI,更遑論ASI了。因為這些技術(shù)存在缺陷,相對薄弱,只有通過更多的數(shù)據(jù)和算力,才能取得進步。
華盛頓大學(xué)計算機科學(xué)教授、《終極算法》作者Pedro Domingos曾斷言:ASI只是一個白日夢。
對于AGI的預(yù)測,背后關(guān)系著數(shù)萬億美元的投資。其無疑是未來科技發(fā)展的重要方向,但更重要的是,看清楚什么是真實可行,什么是過度炒作。
文章作者Alistair Barr認為,警示信號已經(jīng)出現(xiàn)。
最為迫切的是Scaling Law“撞墻”:OpenAI聯(lián)創(chuàng)Ilya Sutskever明確表示,依賴于擴大模型規(guī)模的結(jié)果似乎已經(jīng)停滯;OpenAI研究員Noam Brown表示,在某個節(jié)點,擴展模式會失效;谷歌下一代Gemini性能未達預(yù)期,內(nèi)部正在重新評估訓(xùn)練數(shù)據(jù)的使用方式。
連“技術(shù)樂觀派”投資人都開始“謹言慎行”。
a16z創(chuàng)始人Marc Andreessen和Ben Horowitz懷疑LLM是否能保持現(xiàn)有的發(fā)展勁頭。
Andreessen表示:目前看起來,AI模型的能力似乎遇到了某種瓶頸。當(dāng)然,行業(yè)中有許多聰明人正在試圖突破這個天花板。但是,如果你僅僅從數(shù)據(jù)和性能趨勢圖來看,AI模型性能的提升速度正在放緩,并呈現(xiàn)出一種“觸及天花板”的趨勢。
Horowitz則指出了阻礙因素:即使芯片到位了,我們可能也沒有足夠的電力支持。而有了電力后,又可能缺乏有效的冷卻手段。雖然GPU的算力在不斷提升,但AI模型的性能卻未能同步增長,這表明僅僅依靠硬件的升級并不能解決所有問題。
如果目前無法突破這個技術(shù)瓶頸,那么短期內(nèi)實現(xiàn)AGI的可能性幾乎為零。如今,Google未給出明確回應(yīng);Sam Altman直接表示,沒有撞墻;Anthropic則表示,尚未發(fā)現(xiàn)任何偏離Scaling law的跡象。
有趣的是,Alistair Barr解釋了Sam Altman為何“嘴硬”。
一方面,如果OpenAI實現(xiàn)了AGI,則有望逃離微軟的巨額“控制”。OpenAI官網(wǎng)寫道,一旦實現(xiàn)AGI,其所產(chǎn)生的知識產(chǎn)權(quán)將不受現(xiàn)有與微軟的協(xié)議約束。
另一方面,Altman的AGI目標(biāo)完全是一種愿景,就像馬斯克對火星移民和自動駕駛汽車的執(zhí)著——即便一次次錯過預(yù)測時間,卻總能點燃團隊的熱情。
因此,“2025年實現(xiàn)AGI”的宏大目標(biāo),無疑比“實現(xiàn)公司賬單自動化”這類相對平凡的目標(biāo)更帶勁兒,盡管后者可能更具短期商業(yè)價值。
歷史表明,技術(shù)的發(fā)展充滿了不確定性,比如某些技術(shù)在經(jīng)歷長期穩(wěn)定的進步后,可能會突然失效。最經(jīng)典的例子是“摩爾定律”。該定律是半導(dǎo)體行業(yè)發(fā)展的一盞明燈,其“每兩年翻一番”的預(yù)言,點燃了整個科技界的創(chuàng)新熱情,并為英特爾等巨頭的崛起奠定了堅實基礎(chǔ)。
然而,麻省理工學(xué)院計算機科學(xué)與人工智能實驗室(CSAIL)的研究表明,摩爾定律的魔力正在逐漸消退。
比如,2014年—2019年,英特爾在14納米和10納米工藝的推進上遭遇了瓶頸,用5年才完成預(yù)期2年就能達成的目標(biāo)。2019年,投資者意識到摩爾定律不再適用以來,英特爾股價下跌了約50%,至今未能完全恢復(fù)。
這些現(xiàn)象預(yù)示著,技術(shù)進步可能并非永恒,AGI的到來并非迫在眉睫。
擋在AGI前方的四座大山
近期,Scale AI 創(chuàng)始人兼CEO Alexandr Wang的演講頗具啟發(fā)意義。
他將現(xiàn)代AI時代分為三個主要階段:
第一個階段是研究階段(2012-2018),由第一個深度神經(jīng)網(wǎng)絡(luò) AlexNet開啟,那是一個 AI 只能告訴你YouTube視頻里有沒有貓的時代。
第二個階段是規(guī)模化階段(2018-2024),由 OpenAI的Alec Radford訓(xùn)練的Transformer 和 GPT-1開啟。在這段時期,投入資源增長了一萬多倍,這帶來了性能的巨大提升。模型能力也從默默無聞的GPT-1,發(fā)展到了博士水平的o1 模型。
第三個階段將是創(chuàng)新階段,由o1 模型開啟,直到出現(xiàn)超級智能為止。我們拭目以待,看看這個階段是6年還是更短。這個階段的標(biāo)志是,大家已經(jīng)在模型上投入了 2000 億美元,而事實上大公司無法投入比這更多的資金了。我們不可能在模型上砸出 200萬億美元。所以,從數(shù)量級來說,能繼續(xù)規(guī)?;目臻g已經(jīng)很有限了。砸錢工作結(jié)束,才真正需要相應(yīng)的創(chuàng)新來配合,增強推理能力和測試時間計算能力肯定是其中之一。
Wang認為,在此之前,邁向AGI路上存在五大挑戰(zhàn):數(shù)據(jù)墻、評估過擬合、Agent不可靠、芯片和能源、國際競爭等等。
挑戰(zhàn)一是數(shù)據(jù)墻。Epic AI預(yù)計的時間點在 2027年到 2030年之間。但如果你和業(yè)內(nèi)人士交流,他們會說比這更早。目前,有幾個主要的解決方案。
例如,前沿數(shù)據(jù),各種形式的合成數(shù)據(jù),以及更高級的數(shù)據(jù)類型,還有企業(yè)數(shù)據(jù)。這些數(shù)據(jù)類型能讓我們更有效地學(xué)習(xí)高級概念,比如推理能力、多模態(tài)、智能體數(shù)據(jù)。此外,具身智能以及其需要的現(xiàn)實數(shù)據(jù)將是一個重要領(lǐng)域??傊?,絕大部分的數(shù)據(jù)仍然是私有和專有的,是被鎖起來的。
比如,GPT-4 的訓(xùn)練數(shù)據(jù)集大約為0.5 PB。而摩根大通的專有數(shù)據(jù)集,超過了150 PB。他們只是眾多大企業(yè)中的一個。還有大量的數(shù)據(jù)躺在那里,從未被用于任何主要的訓(xùn)練。
挑戰(zhàn)二是評估。這在AI圈內(nèi)經(jīng)常引發(fā)討論,但是圈外人不太理解其重要性。評估是我們用來衡量這些模型進步的標(biāo)尺。目前,許多評估都飽和或容易過擬合,過擬合指它們有點被“游戲化”了;飽和是指模型在所有評估中都已經(jīng)表現(xiàn)得非常好。這意味著研究可能變得更加漫無目的。如果你看過去幾年的MMU、數(shù)學(xué)、GPQA 等測試,模型表現(xiàn)似乎達到了瓶頸。但這并不是因為模型沒有變得更好,而是因為這些評估已經(jīng)不夠難了。為解決這個問題,我們需要建立更具挑戰(zhàn)性的評估。
挑戰(zhàn)三是Agent。盡管每個人都在談?wù)揂gent,但它們還沒有真正到來,而且不可靠。我們看到AI Agent與自駕中的“L1—L5”非常相似。這個類比非常貼切:L1是一個聊天機器人;L2 是你可以尋求各種幫助的助手。L3是指用于工作流程特定部分的Agent,你可以開始依賴它們;L4 可能會顛覆這一點,當(dāng)Agent需要人類幫助時,會向你尋求幫助,更像是一種遠程操作模式。首先,讓模型在每個領(lǐng)域都具備推理能力,最終在幾乎每個領(lǐng)域都能發(fā)揮作用。其次,建設(shè)能夠?qū)崿F(xiàn)遠程操作Agent的基礎(chǔ)設(shè)施。在未來,我們大多數(shù)人可能只是 AI Agent的遠程操作員。
挑戰(zhàn)四是芯片和能源。在未來五年內(nèi),這些數(shù)據(jù)中心所需的電力保守估計為100吉瓦,也許遠遠不夠。這相當(dāng)于 20 個芝加哥的能源消耗,需要投入數(shù)萬億美元的資本支出。在這里我沒有解決方案,只是指出這個挑戰(zhàn)。
結(jié)語
AGI被視為人類追求的“圣杯”。一旦實現(xiàn),世界將被徹底改變。
如果AI出現(xiàn)了“神”的能力,它或許就成了“神”的化身。
無論是在2年后,3年后,抑或5年后,10年后,終有一天AGI會實現(xiàn),現(xiàn)在留給人類“轉(zhuǎn)型”的時間還有多少?
或許,預(yù)測未來不如預(yù)測“脆弱”。
正如Sam Altman所言:我從不祈禱求神站在我這邊,而是希望自己站在神的一邊。
如何讓AI有利于我,是每個人需要思考的問題。