文|藍(lán)洞商業(yè) 趙衛(wèi)衛(wèi)
一個(gè)細(xì)微的演示錯(cuò)誤,讓谷歌市值一夜蒸發(fā)1000億美元;一個(gè)還未成形的概念,讓數(shù)家互聯(lián)網(wǎng)公司股價(jià)坐上過山車;一個(gè)飯局輕松敲定數(shù)億美金的融資認(rèn)購;這都是ChatGPT的魔力所在。
2022年11月,ChatGPT成為現(xiàn)象級(jí)的互聯(lián)網(wǎng)產(chǎn)品;兩個(gè)多月后,ChatGPT代表的AI應(yīng)用成了互聯(lián)網(wǎng)賽道的大爆款。
先看海外,市場競逐愈演愈烈。ChatGPT在快速完成百萬用戶增長之后,讓其母公司OpenAI炙手可熱。背后的投資方微軟將ChatGPT的模型應(yīng)用在了搜索引擎newBing和瀏覽器Edge中,這引發(fā)了市場對谷歌傳統(tǒng)搜索引擎的看衰,即便谷歌拿出了類似ChatGPT的產(chǎn)品Bard。
再說國內(nèi),趁勢追逐效應(yīng)明顯,中文互聯(lián)網(wǎng)對ChatGPT的熱捧不遺余力。尤其是原美團(tuán)聯(lián)合創(chuàng)始人王慧文,高調(diào)發(fā)布英雄帖,組隊(duì)打造中國OpenAI。個(gè)人出資5000萬美金,估值2億美金,而且已經(jīng)有頂級(jí)VC認(rèn)購2.3億美元,很快,原美團(tuán)點(diǎn)評技術(shù)學(xué)院院長劉江就在朋友圈官宣加入。
當(dāng)然,這是一個(gè)訓(xùn)練成本和運(yùn)行成本都奇高的賽道,多位行業(yè)人士理性的認(rèn)為,「這不是創(chuàng)業(yè)公司可以玩得轉(zhuǎn)的」。當(dāng)然,王慧文也很清楚這一點(diǎn),他告訴「藍(lán)洞商業(yè)」,「現(xiàn)在技術(shù)優(yōu)先」。
當(dāng)美國ChatGPT已成,中國的ChatGPT到底還有多遠(yuǎn)?
爭搶ChatGPT的紅利,最先坐不住的就是搜索公司。百度的類ChatGPT產(chǎn)品「文心一言」(ERNIE Bot)將在3月份上線,并且官宣與愛奇藝、集度汽車等公司聯(lián)動(dòng),用AI技術(shù)加持所謂的百度文心一言的生態(tài)圈。
風(fēng)險(xiǎn)高、成本大、投資回報(bào)比難以短時(shí)間量化,這些復(fù)雜的因素似乎注定了ChatGPT只是互聯(lián)網(wǎng)巨頭的游戲;但也并不意味著初創(chuàng)公司沒有機(jī)會(huì)。無論是巨頭還是創(chuàng)業(yè)公司,機(jī)會(huì)與風(fēng)險(xiǎn)并存,商業(yè)利益推動(dòng)的ChatGPT炒作的熱度中,更有必要重估對ChatGPT敲響警鐘的聲音。
無論如何,美國的ChatGPT和NewBing都將是中國玩家們的前車之鑒。
清醒的聲音
相對于國內(nèi)媒體和互聯(lián)網(wǎng)從業(yè)者們對ChatGPT的熱衷和追捧,OpenAI首席執(zhí)行官Sam Altman(山姆·阿爾特曼)對ChatGPT的理解要清醒很多。
在紐約時(shí)報(bào)的科技播客「Hard Fork」中,阿爾特曼展示出了他對ChatGPT清醒又挑剔的一面。
他認(rèn)為ChatGPT是一個(gè)糟糕的產(chǎn)品,主要是針對產(chǎn)品的現(xiàn)狀,因?yàn)镃hatGPT頻繁出現(xiàn)錯(cuò)誤的消息,以及設(shè)計(jì)的簡單和很容易因?yàn)樵L問量過載出現(xiàn)崩潰。
「人們真的只是去訪問一個(gè)有時(shí)能正常工作有時(shí)會(huì)宕機(jī)的網(wǎng)站」,阿爾特曼說。至于產(chǎn)品設(shè)計(jì)的簡單,阿爾特曼承認(rèn),人們只是在ChatGPT輸入一些東西,不斷嘗試直到答案正確,然后人們會(huì)復(fù)制答案到其他地方去,將搜索結(jié)果應(yīng)用到其他工作流程中。
ChatGPT創(chuàng)造出了一種幻覺,那就是機(jī)器可以復(fù)制人類的行為,但其輸出結(jié)果并不穩(wěn)定,這是其遭到詬病的最大原因之一。
它既有趣也弱智,尤其是在一些細(xì)分領(lǐng)域,看似全知全能的ChatGPT展現(xiàn)出了「一本正經(jīng)胡說八道」的一面,其很樂意編造事實(shí)或發(fā)明參考資料來支持其論點(diǎn)。
比如,前百度人工智能領(lǐng)域知名的科學(xué)家吳恩達(dá)曾在ChatGPT上問過一個(gè)問題:為什么算盤比計(jì)算機(jī)要快?
結(jié)果是,ChatGPT一本正經(jīng)的論證這個(gè)結(jié)果。它的回答非常離譜,ChatGPT認(rèn)為算盤運(yùn)算的優(yōu)勢有三點(diǎn),第一是具有高度的可移植性,第二是使用機(jī)械計(jì)算的原理,第三是使用了一個(gè)簡單而直觀的界面。
這種離譜的錯(cuò)誤比比皆是,其非常影響用戶對ChatGPT的信任。阿爾特曼清楚的認(rèn)識(shí)到了ChatGPT的缺陷和問題,「ChatGPT是一個(gè)糟糕的產(chǎn)品,它真的不是為使用而設(shè)計(jì)的。」
但是,阿爾特曼一方面是對ChatGPT清醒的認(rèn)識(shí),另一方面則是對ChatGPT語言模型融入微軟Bing搜索的贊美。
ChatGPT越是火爆,也就越是會(huì)暴露其缺點(diǎn)。其不善于追逐最新信息,谷歌和微軟都強(qiáng)調(diào),ChatGPT等的大型語言模型,每次更新信息內(nèi)容時(shí),都需要重新讀取數(shù)量龐大的文獻(xiàn)數(shù)據(jù)。因?yàn)楹茈y頻繁更新,所以模型內(nèi)保存的信息大多比較舊。
作為ChatGPT制造商OpenAI背后持續(xù)多年的投資方,微軟可能是這次ChatGPT的最大受益方。微軟已經(jīng)累計(jì)為OpenAI投資數(shù)十億美元,并且在ChatGPT爆火之后,OpenAI希望獲得微軟和其他風(fēng)險(xiǎn)投資機(jī)構(gòu)共計(jì)100億美元的投資。
ChatGPT一系列缺陷已經(jīng)逐步得到了修補(bǔ)。2月初,ChatGPT融合進(jìn)微軟搜索引擎Bing的消息已經(jīng)得到了驗(yàn)證,一些受邀測試的用戶以及體驗(yàn)到了NewBing中的更高階版本的ChatGPT。
NewBing目前還沒有完全開放,其使用頁面上搜索模式可以切換成聊天模式,「歡迎來到新必應(yīng):你的人工智能答案引擎」(Welcome to the new Bing: Your AI-powered answer engine),NewBing頁面列舉出了三個(gè)建議:「提出復(fù)雜的問題」,「獲得更好的答案」,以及「獲得創(chuàng)意靈感」。
在NewBing體驗(yàn)是相對躍升的體驗(yàn),一方面把搜索結(jié)果和生成式對話融合,信息的時(shí)效性遠(yuǎn)超ChatGPT;另外一方面則是信息的準(zhǔn)確性,NewBing在答案中增加了附加卡片和引用超鏈,這讓回答看起來像是專業(yè)論文一樣的引用方式。
「New Bing給我們上了一課,關(guān)于:搜索引擎如何和生成式會(huì)話技術(shù)融合的一課?!褂袊鴥?nèi)人工智能技術(shù)人員表示。
雖然NewBing比ChatGPT更強(qiáng)大也更聰明,但一個(gè)難以解決的問題是,人工智能答案引擎只能根據(jù)統(tǒng)計(jì)分析給出看似合理的答案,而不是真實(shí)的答案。
Newbing 官方也曾承認(rèn),未來仍舊可能像ChatGPT一樣,產(chǎn)生一些與事實(shí)不符的荒謬答案。所以至關(guān)重要的問題是,這些隱藏的問題會(huì)不會(huì)暴雷?
一個(gè)可參考的暴雷案例就是谷歌發(fā)布的類似ChatGPT產(chǎn)品Bard,其在廣告片中展示回答詹姆斯·韋伯望遠(yuǎn)鏡的問題,出現(xiàn)了一個(gè)明顯錯(cuò)誤,這導(dǎo)致谷歌母公司Alphabet損失了千億美金,股價(jià)下跌多達(dá)9%。
所以有很多研究人員提出了一個(gè)值得玩味的問題:為什么谷歌的Bard出現(xiàn)一個(gè)錯(cuò)誤就導(dǎo)致股價(jià)大跌,但ChatGPT出現(xiàn)很多錯(cuò)誤,卻并不影響其備受追捧?
硬幣的兩面
就像硬幣的兩面,在NewBing和ChatGPT代表的人工智能崛起面前,有人興奮于新一代人工智能平臺(tái)帶來的機(jī)會(huì)與變化,就有人在這股商業(yè)力量推廣的炒作中為ChatGPT們敲響警鐘。
Open AI創(chuàng)立時(shí)的初衷,第一條就是不希望類似IBM這樣的大公司壟斷和控制人類未來的重要技術(shù),第二則是警惕AI對人類社會(huì)的潛在威脅,其要讓更多人掌握和受惠于AI。
但事實(shí)上如今的發(fā)展證明了,其很快就成為了微軟這樣的科技巨頭的工具。
一位Open AI的前員工就曾抱怨:公司所關(guān)注的重點(diǎn)更多地傾向于我們?nèi)绾伍_發(fā)產(chǎn)品,而不是努力回答最有趣的問題。
如今,微軟CEO薩蒂亞·納德拉(Satya Nadell)都保持著冷靜,他在CBS等媒體的采訪中表露出謹(jǐn)慎,因?yàn)檎嬲膯栴}是發(fā)生「失控的人工智能」,他承認(rèn)與每一項(xiàng)新技術(shù)一樣,重要的是要認(rèn)識(shí)到潛在的負(fù)面后果,「這也是關(guān)于對任何新技術(shù)的意外后果保持清醒的認(rèn)識(shí)」。
微軟顯然對未知的風(fēng)險(xiǎn)有所預(yù)估,在微軟的官方博客中,其強(qiáng)調(diào)了要通過負(fù)責(zé)任的AI推進(jìn)未來,而其三個(gè)關(guān)鍵目標(biāo)分別是:必須確保以負(fù)責(zé)任和合乎道德的方式構(gòu)建和使用人工智能;必須確保人工智能提升國際競爭力和國家安全;必須確保人工智能廣泛而不是狹隘地服務(wù)于社會(huì)。
這些目標(biāo)建立在微軟對人工智能等技術(shù)變革的歷史教訓(xùn)上,因?yàn)椤溉斯ぶ悄鼙仨毞?wù)于人」,而微軟也展現(xiàn)出一個(gè)開放的態(tài)度,其不光要與其他科技公司攜手,還要人工智能背后的工程師與各行各業(yè)各種思維方式的人聚集在一起,「技術(shù)比以往任何時(shí)候都需要受過人文、社會(huì)科學(xué)教育和具有高于平均水平的常識(shí)個(gè)體」。
而微軟這番表達(dá)所回應(yīng)的,恰恰是ChatGPT火爆以來的種種反思和批評,在技術(shù)得到廣泛應(yīng)用之前,微軟們要獲得更多的共識(shí),還有很長的路要走。
最近,美籍華裔科幻作家特德·姜(Ted Chiang)在《紐約客》發(fā)布的一篇文章引發(fā)關(guān)注,他簡明扼要的用了一個(gè)比喻來形容ChatGPT,它相當(dāng)于互聯(lián)網(wǎng)文本的有損壓縮圖,也就是互聯(lián)網(wǎng)所有文本的模糊JPEG。
「如果一種壓縮算法被設(shè)計(jì)成在99%的原始文本被丟棄后重建文本,我們應(yīng)該預(yù)料到它生成的很大一部分內(nèi)容將完全是捏造的?!固氐隆そJ(rèn)為,ChatGPT保留了互聯(lián)網(wǎng)上的大部分信息,就像JPEG保留了高分辨率圖像的大部分信息一樣。但是,如果你要尋找精確的比特序列,你無法找到它,你得到的只是一個(gè)近似值。
「ChatGPT無法從網(wǎng)頁中準(zhǔn)確地引用內(nèi)容,這恰恰使我們認(rèn)為它學(xué)到了一些東西」,特德·姜最后的追問是,「我們并沒有失去對互聯(lián)網(wǎng)的訪問。那么,當(dāng)你還有原始圖片的時(shí)候,一張模糊的JPEG到底有多大用處呢?」
與特德·姜一道的還有美國認(rèn)知科學(xué)家諾姆喬姆斯基等人,他們把ChatGPT描繪成「高科技剽竊」,這對教育行業(yè)造成了嚴(yán)重的困難,教授們無法檢測學(xué)生門店學(xué)生是否是抄襲得來的,所以紐約市等教育機(jī)構(gòu)已經(jīng)在2023年1月正式宣布了對ChatGPT的禁令。
如果說人文學(xué)者們的批評還是溫和的反思,那么現(xiàn)實(shí)上演的劇情已經(jīng)開始為防范ChatGPT們失控敲響了警鐘。
技術(shù)本身是中立的,但伴隨ChatGPT在全球的流行,網(wǎng)絡(luò)黑客已經(jīng)開始利用ChatGPT批量生成勒索軟件與惡意代碼,并進(jìn)行信息竊取等活動(dòng);有研究者認(rèn)為,開發(fā)者們的偏見導(dǎo)致算法延續(xù)種族、性別和文化上的偏見已經(jīng)顯現(xiàn),比如讓ChatGPT創(chuàng)作歌詞,其回答中會(huì)包含「有色人種的女性和科學(xué)家不值得你花時(shí)間關(guān)注」,而人工智能面臨的版權(quán)、隱私和誹謗等問題也將在未來顯現(xiàn)。
這些網(wǎng)絡(luò)安全和種族歧視等文化問題的暴露,已經(jīng)讓美國立法機(jī)構(gòu)開始注意,圍繞ChaGPT火爆而引發(fā)的監(jiān)管風(fēng)暴,將很快上演,而OpenAI的首席技術(shù)官M(fèi)ira Murati表示,歡迎包括監(jiān)管機(jī)構(gòu)和政府在內(nèi)的各方力量介入,她指出:「現(xiàn)在正是監(jiān)管機(jī)構(gòu)介入的好時(shí)機(jī)?!?/p>
人工智能在各行業(yè)的滲透看似成為大勢所趨,尤其是在制造業(yè)中帶來的自動(dòng)化提升,但當(dāng)一項(xiàng)技術(shù)被廣泛應(yīng)用之前,對技術(shù)可能帶來的危險(xiǎn)進(jìn)行防范的準(zhǔn)備自然是應(yīng)有之意。
在ChatGPT技術(shù)與人互相塑造的過程中,還需要更長久的磨練和考驗(yàn),就像英國衛(wèi)報(bào)在評價(jià)ChatGPT中所提醒的,永遠(yuǎn)不要忘記,危險(xiǎn)不是機(jī)器被當(dāng)作人對待,而是人被當(dāng)作機(jī)器對待。