文|AI新智界
無論以何種標準衡量,2023 年對于人工智能(AI)來說都是令人驚嘆的一年。大型語言模型(LLM)及其聊天機器人應(yīng)用程序搶盡風頭,同時在廣泛的應(yīng)用領(lǐng)域也取得了進展,這些功能包括圖像、語音和視頻生成。
這些數(shù)字技術(shù)的結(jié)合催生了新的用例和商業(yè)模式,甚至發(fā)展到了數(shù)字人變得司空見慣的地步,以至于替代人類成為了影響者和新聞主播。
更重要的是,2023 年是許多人開始有意使用和采用人工智能作為日常工作一部分的一年。與此同時,人工智能的快速創(chuàng)新也推動了對未來的預(yù)測,包括十年內(nèi)從家庭機器人發(fā)展到真正的通用人工智能(AGI)。然而,技術(shù)發(fā)展從來不會一帆風順,許多挑戰(zhàn)可能會使人工智能的一些預(yù)期進展偏離軌道。
隨著 AI 技術(shù)越來越多地融入我們的日常生活和工作中,它也帶來了一個問題:“接下來我們可以期待什么?”
物理機器人可能很快就會出現(xiàn)
數(shù)字技術(shù)的進步不斷讓人感到驚訝,但人工智能的物理領(lǐng)域(尤其是機器人技術(shù))在激發(fā)我們的想象力方面也不曾落后。對于機器人而言,大語音模型(LLMs)提供的部分本質(zhì)上是一個大腦,特別是當與相機視覺的圖像識別功能相結(jié)合時。借助這些技術(shù),機器人可以更容易地理解和響應(yīng)請求,并感知周圍的世界。
在《機器人報告》中,英偉達(Nvidia)機器人和邊緣計算事業(yè)部副總裁 Deepu Talla 表示,大語音模型將使機器人能夠更好地理解人類指令,相互學習并理解其周圍環(huán)境。
提高機器人性能的一種方法是使用多種模型。例如,麻省理工學院計算機科學與人工智能實驗室(CSAIL)下屬的一個團隊 Improbable AI Lab 開發(fā)了一個框架,該框架利用了三種不同的基礎(chǔ)模型,分別針對語言、視覺和動作等特定任務(wù)進行調(diào)整。
該實驗室研究人員報告稱,“每個基礎(chǔ)模型都能捕捉到(機器人)決策過程的不同部分,然后在需要做出決策時協(xié)同工作?!?/p>
不過,僅僅結(jié)合這些模型可能不足以讓機器人在現(xiàn)實世界中被廣泛使用。為了解決這些局限性,斯坦福大學還開發(fā)了一種名為 Mobile ALOHA 的新型人工智能系統(tǒng)。
據(jù)介紹,該系統(tǒng)允許機器人“自主完成復雜的移動操作任務(wù),例如炒菜和上菜,打開兩門壁柜以存放沉重的烹飪鍋、呼叫并進入電梯,以及使用廚房水龍頭沖洗用過的鍋”。
機器人技術(shù)的 ImageNet 時刻
AI 公司 Anthropic 聯(lián)合創(chuàng)始人 Jack Clark 在其 ImportAI 時事通訊中表示:“機器人可能正在接近‘ImageNet 時刻’,屆時學習機器人行為的成本和學習其行為的數(shù)據(jù)都會下降。”
ImageNet 是一個由李飛飛(Fei Fei Lee,美國華裔計算機科學家)于 2006 年創(chuàng)建的大型標記圖像數(shù)據(jù)集,被廣泛用于推進計算機視覺和深度學習研究。從 2010 年開始,ImageNet 成為年度競賽的數(shù)據(jù)集,旨在評估計算機視覺算法在圖像分類、目標檢測和定位任務(wù)中的性能。
而 Clark 提到的時刻是在 2012 年,當時包括 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 在內(nèi)的幾位人工智能研究人員開發(fā)了一種卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu),這是深度學習的一種形式,該架構(gòu)可以大幅降低圖像分類的錯誤率。這一時刻展示了深度學習的潛力,并有效地開啟了現(xiàn)代人工智能時代。
Clark 認為,物理機器人行業(yè)現(xiàn)在也正處于類似的時刻。如果這一觀點成真,那么雙足機器人可能會在十年內(nèi)在醫(yī)院、工廠、商店或家庭中提供幫助。
新一代人工智能正處于過高期望的頂峰
正如上文提到的,人工智能發(fā)展中的許多拐點可能即將到來。英偉達首席執(zhí)行官黃仁勛最近表示,“人工智能可能在五年內(nèi)實現(xiàn),它可以在各種任務(wù)中達到人類水平?!庇ミ_高級研究科學家兼人工智能代理負責人 Jim Fan 則補充道:“過去一年的人工智能發(fā)展就像是從石器時代跨越到了太空時代?!?/p>
咨詢巨頭麥肯錫估計,新一代人工智能每年將為全球經(jīng)濟增加超過 4 萬億美元的收入。瑞銀證券則稱人工智能為未來十年的科技主題,并預(yù)測人工智能市場將從 2022 年的 22 億美元增長到 2027 年的 2250 億美元,復合年增長率(CAGR)達到了 152%。
當前,人們對于人工智能提高生活質(zhì)量的潛力可謂是熱情高漲。比爾·蓋茨曾在 2023 年底的“蓋茨筆記”信中表示:“人工智能即將為創(chuàng)新賽道注入超級動力。”
《紐約時報》的一篇文章也引用了人工智能初創(chuàng)公司 Adept 首席執(zhí)行官 David Luan 的觀點:“人工智能的快速發(fā)展將持續(xù)下去。這是不可避免的?!?/p>
凡此種種,都說明了科技大佬們對 AI 技術(shù)發(fā)展的高度看好。而考慮到這些,根據(jù) Gartner 新興技術(shù)成熟曲線(衡量新技術(shù)熱情的指標,也被稱為炒作周期),新一代人工智能被認為正處于過高期望的頂峰也就不足為奇了。
人工智能的發(fā)展是必然的嗎?
當我們陶醉于 2023 年人工智能所取得的成就的同時,我們也必須思考在這一快速增長期過后,未來將面臨哪些挑戰(zhàn)。人工智能背后的動力是我們從未見過的,就好像互聯(lián)網(wǎng)熱潮推動了網(wǎng)絡(luò)時代的到來。
那么,隨著 2024 年人工智能的繁榮,類似的事情會發(fā)生嗎?《財富》雜志的一篇文章指出:“今年可能是緊縮的一年,因為投資者發(fā)現(xiàn),他們投資的許多公司沒有可行的商業(yè)模式,而且許多大公司發(fā)現(xiàn),計算的成本超過了收益。”
這一觀點與阿馬拉定律高度一致。該定律指出:“我們往往會高估一項技術(shù)的短期效應(yīng),而低估其長期效應(yīng)” 。從一個角度來看,系統(tǒng)在受到破壞后會試圖重新平衡,或者說,炒作往往會超越現(xiàn)實。
這種觀點并不一定預(yù)示著人工智能行業(yè)會衰落,但歷史上這種情況其實已經(jīng)發(fā)生過兩次。
自從 1956 年在達特茅斯學院的一次會議上“人工智能”這一術(shù)語被首次提出以來,人工智能至少經(jīng)歷過兩個被寄予厚望的時期,但都因在構(gòu)建和部署應(yīng)用程序時遇到問題,一些投機的承諾并沒有實現(xiàn),最終以失敗告終。這兩個時期被稱為“人工智能寒冬”,分別發(fā)生在 1974 年至 1980 年,以及 1987 年至 1993 年。
并非都是彩虹和獨角獸
如今,正值輝煌的“人工智能之夏”,是否存在另一個寒冬的風險?除了計算成本之外,人工智能模型訓練和推理中的能源使用問題,也面臨著氣候變化和可持續(xù)性問題的不利影響。
此外,還有被稱為“人工智能末日四騎士”的因素:數(shù)據(jù)偏差、數(shù)據(jù)安全、版權(quán)侵權(quán)和幻覺。其中版權(quán)問題是最直接的,最近《紐約時報》對 OpenAI 和微軟提起訴訟。一些評論家推測,如果《紐約時報》勝訴,它可能會結(jié)束許多新一代人工智能公司賴以生存的整個商業(yè)模式。
最大的擔憂則是來自人工智能的潛在生存威脅。雖然有些人歡迎通用人工智能(AGI)的出現(xiàn),認為這是通往無限富裕的途徑,但以“有效利他主義支持者”為首的許多人卻擔心這可能會導致人類的毀滅。
一項針對 2700 多名人工智能研究人員的最新調(diào)查結(jié)果揭示了目前這些生存恐懼的程度,調(diào)查指出:“三分之一到一半的受訪者認為人工智能會導致人類滅絕或類似的后果。”
平衡的視角
如果不出意外的話,已知和潛在的問題都會阻礙人工智能的熱情。然而,就目前而言,人工智能的發(fā)展勢頭仍在向前推進,因為有大量預(yù)測稱人工智能將在 2024 年繼續(xù)發(fā)展。
例如,《紐約時報》指出:“今年的人工智能行業(yè)有一個主要特點:隨著技術(shù)的不斷進步,人工智能將以驚人的速度迅速發(fā)展,使人工智能能夠生成新型媒體,以新的方式模仿人類推理,并通過新一代機器人滲入物理世界?!?/p>
沃頓商學院教授 Ethan Mollick 在其“一件有用的事”博客中也持類似觀點:“最有可能的是,人工智能的發(fā)展實際上還會加速一段時間,但最終會因為技術(shù)、經(jīng)濟或法律的限制而放緩。”
未來一年,人工智能無疑會帶來巨大的變化。我們希望這些變化能包括帶來我們生活質(zhì)量的進步,比如發(fā)現(xiàn)挽救生命的新藥。可以預(yù)想的是,最樂觀的承諾或許無法在 2024 年實現(xiàn),從而導致市場預(yù)期出現(xiàn)一定程度的回落。這符合炒作周期的本質(zhì)。但是希望任何此類失望都不會帶來另一個人工智能寒冬。
文章來源:https://venturebeat.com/ai/after-ais-summer-whats-next-for-artificial-intelligence/