正在閱讀:

十年,谷歌是如何在聊天機(jī)器人競賽中落后微軟的?

掃一掃下載界面新聞APP

十年,谷歌是如何在聊天機(jī)器人競賽中落后微軟的?

谷歌對AI太過謹(jǐn)慎,給了微軟可乘之機(jī)。

編譯|智東西 吳菲凝

編輯|李水青

智東西3月9日報(bào)道,近日,外媒華爾街日報(bào)記者邁爾斯·庫盧帕(Miles Kruppa)和薩姆·謝克納(Sam Schechner)深度挖掘了谷歌聊天機(jī)器人的發(fā)展歷程,研發(fā)時(shí)間竟然已經(jīng)長達(dá)十年之久。在此期間,該項(xiàng)目更是經(jīng)歷了反復(fù)審查失敗、多次更名和多位核心人員離職等波折。

谷歌的聊天機(jī)器人投入可以追溯到2013年,而后研發(fā)出一款名為Meena的聊天機(jī)器人,但直至2020年才以LaMDA新名稱在一篇論文中得以披露進(jìn)展,至今產(chǎn)品仍未公開發(fā)布。2022年底,在OpenAI旗下的ChatGPT亮相并迅速走紅之后,谷歌匆忙公開了自己名為Bard的聊天機(jī)器人,但其卻在公開展示視頻中意外“翻車”。

華爾街日報(bào)兩名記者認(rèn)為,谷歌此前對待AI的態(tài)度太過于謹(jǐn)慎,以至于現(xiàn)在陷到一個(gè)“起大早,趕晚集”的尷尬境地,為競爭對手微軟提供了可乘之機(jī)。

在谷歌內(nèi)部,高管們認(rèn)為,谷歌必須保證AI技術(shù)足夠安全才能夠推向公眾。

01 兩年前聊天機(jī)器人已面世,因安全問題隱而未發(fā)

谷歌的兩位研究人員丹尼爾·德·弗雷塔斯(Daniel De Freitas)和諾姆·沙澤爾(Noam Shazeer)從2013年就已開始投入聊天機(jī)器人Meena的研發(fā),據(jù)稱所使用的技術(shù)遠(yuǎn)勝于當(dāng)時(shí)其他任何技術(shù)。他們開發(fā)出的對話式計(jì)算機(jī)程序可以像人一樣自信地談?wù)撜軐W(xué),還能即興創(chuàng)作出一些雙關(guān)語。

據(jù)知情人士透露,這兩位研究人員向同事們稱,聊天機(jī)器人在AI的不斷進(jìn)步的推動(dòng)下,未來將徹底顛覆人們使用搜索引擎和與計(jì)算機(jī)交互的方式。

他們敦促谷歌向外部研究人員提供Meena的訪問權(quán)限,試圖將其集成到Google Assistant智能助手中,還要求谷歌公開演示這款機(jī)器人。

但谷歌高管多次明確拒絕了他們,高管認(rèn)為該計(jì)劃不符合公司對AI系統(tǒng)安全性和公平性的標(biāo)準(zhǔn)。

谷歌這種拒絕公開發(fā)布的謹(jǐn)慎態(tài)度,主要是由于長年以來外界對于公司在AI方面的爭議。從關(guān)于AI的準(zhǔn)確性和公正性的內(nèi)部爭論,再到公司去年公開解雇了一名聲稱AI已經(jīng)獲得人類感知的員工,谷歌一直處于輿論的風(fēng)口浪尖之上。

據(jù)前員工以及其他知情人士透露,長久以來的一系列事件讓高管們擔(dān)心公開演示AI產(chǎn)品可能對公司聲譽(yù)和搜索廣告業(yè)務(wù)構(gòu)成風(fēng)險(xiǎn)。據(jù)悉,谷歌母公司Alphabet去年?duì)I收近2830億美元,其中大部分收入來自搜索引擎廣告投放業(yè)務(wù)。

前谷歌產(chǎn)品經(jīng)理高拉夫·內(nèi)馬德(Gaurav Nemade)說:“谷歌正在努力在承擔(dān)風(fēng)險(xiǎn)和保持全球領(lǐng)導(dǎo)地位之間找到平衡?!?/p>

谷歌的謹(jǐn)慎態(tài)度如今看來是明智之舉。二月份時(shí)微軟曾宣布,針對于聊天機(jī)器人發(fā)表敏感言論的用戶報(bào)告反饋,未來將對機(jī)器人施加更多新限制。微軟高層解釋,當(dāng)應(yīng)用程序運(yùn)轉(zhuǎn)到難以負(fù)荷時(shí),它可能會(huì)出現(xiàn)“精神錯(cuò)亂”的現(xiàn)象。

在上月一封發(fā)給全體員工的郵件中,Alphabet和谷歌的首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)稱:“一些最成功的產(chǎn)品并不是第一個(gè)推向市場,但卻能慢慢贏得用戶的信任?!彼麑懙?,“這將是一段漫長的旅程——對每個(gè)人來說,都是如此。我們現(xiàn)在能做的最重要的事情是專注于打造一款偉大的產(chǎn)品,并負(fù)責(zé)任地開發(fā)它?!?/p>

02 十年秘密研發(fā):多次審查不過、內(nèi)部禁止,最終改名

谷歌在聊天機(jī)器人方面做出的努力可以追溯到2013年。

時(shí)任谷歌聯(lián)合創(chuàng)始人兼首席執(zhí)行官的拉里·佩奇(Larry Page)聘請了計(jì)算機(jī)科學(xué)家雷·庫茲韋爾(Ray Kurzweil),庫茲幫谷歌推出了一個(gè)前所未有的概念“技術(shù)奇點(diǎn)”:即機(jī)器終有一天將超越人類的智慧。

此外,谷歌還收購了英國人工智能公司DeepMind,該公司同樣致力于創(chuàng)建通用AI或可以反映人類心理能力的軟件。

但與此同時(shí),學(xué)者和技術(shù)專家開始對AI提出擔(dān)憂,比如它有可能通過面部識別軟件實(shí)現(xiàn)大規(guī)模監(jiān)控,他們開始向谷歌等科技公司施壓,要求他們承諾不會(huì)將某些技術(shù)用作非法途徑。

2015年,包括馬斯克在內(nèi)的一群科技企業(yè)家和投資者成立了OpenAI,其中有一部分原因是為了打壓谷歌在AI領(lǐng)域日漸攀升的地位。OpenAI最初是一家非營利組織,它希望確保AI不會(huì)成為企業(yè)利益的犧牲品,而是用于造福人類。

此前,谷歌與美國國防部擬定的一項(xiàng)名為“Project Maven”的合同遭到了員工的強(qiáng)烈反對,因?yàn)樵摵贤婕暗绞褂肁I自動(dòng)識別并跟蹤潛在的無人機(jī),谷歌最終放棄了這個(gè)項(xiàng)目。直至2018年,谷歌宣布承認(rèn)不會(huì)將AI技術(shù)應(yīng)用于軍事武器制造方面。

除此之外,CEO皮查伊還宣布了一套指導(dǎo)谷歌運(yùn)作的7項(xiàng)AI原則,旨在限制不公正技術(shù)的傳播,比如人工智能工具應(yīng)該對人負(fù)責(zé),并“為安全而構(gòu)建和測試”。

多年來,谷歌這款名為Meena的聊天機(jī)器人項(xiàng)目一直處于保密狀態(tài)中。一部分內(nèi)部員工對這類程序的風(fēng)險(xiǎn)表示擔(dān)憂,因?yàn)?016年時(shí)微軟曾因?yàn)橐豢蠲麨門ay聊天機(jī)器人的誤導(dǎo)性回答,最終被迫終止公開發(fā)布。

直至2020年,外界才對Meena有所了解。在谷歌發(fā)布的一項(xiàng)研究論文當(dāng)中稱,Meena已經(jīng)從公開的社交媒體對話中學(xué)習(xí)了近400億個(gè)單詞。而競爭對手OpenAI同樣開發(fā)了一個(gè)基于800萬個(gè)網(wǎng)頁的類似模型GPT-8。

在谷歌,Meena背后的團(tuán)隊(duì)也希望能早日發(fā)布他們的工具,即使只是像OpenAI那樣以有限的格式發(fā)布。但谷歌高管們多次拒絕了這一提議,據(jù)前谷歌產(chǎn)品經(jīng)理內(nèi)馬德稱,他們給出的理由是聊天機(jī)器人不符合谷歌關(guān)于安全和公平的AI原則。

谷歌發(fā)言人稱,多年來,Meena經(jīng)過了無數(shù)次審查,但一直因?yàn)楦鞣N原因而被禁止進(jìn)行更廣泛的發(fā)布。Google Brain人工智能研究部門的軟件工程師沙澤爾加入了這個(gè)項(xiàng)目,他們將Meena更名為LaMDA,意為“用于對話應(yīng)用程序的語言模型”。團(tuán)隊(duì)還為賦予了LaMDA更多的數(shù)據(jù)和計(jì)算能力。

然而,他們的技術(shù)很快引發(fā)了廣泛爭議。谷歌著名的AI倫理研究員蒂姆尼特·格布魯(Timnit Gebru)在2020年底公開宣稱,她因拒絕撤回一篇關(guān)于LaMDA等項(xiàng)目固有風(fēng)險(xiǎn)的研究論文而被解雇。谷歌則澄清該員工并未被解雇,并聲稱她的研究不夠嚴(yán)謹(jǐn)。

谷歌研究主管杰夫·迪恩(Jeff Dean)稱,谷歌將繼續(xù)投資對大眾負(fù)責(zé)的AI項(xiàng)目。

2021年5月,公司公開承諾會(huì)將AI道德小組的規(guī)模擴(kuò)大一倍。

在一周后,皮查伊在公司年會(huì)上登臺(tái),展示了兩段預(yù)先錄制的與LaMDA的對話,LaMDA根據(jù)命令對問題作出回應(yīng)。據(jù)知情人士稱,谷歌研究人員在會(huì)議召開前幾天準(zhǔn)備了這些問答案例,并在最后一刻向皮查伊演示。谷歌一再強(qiáng)調(diào)自身將努力使聊天機(jī)器人更加準(zhǔn)確,并最大限度地減少其被濫用的機(jī)會(huì)。

谷歌的兩位副總裁當(dāng)時(shí)在一篇博客文章中寫道:“在創(chuàng)建像LaMDA這樣的技術(shù)時(shí),我們的首要任務(wù)是努力確保將風(fēng)險(xiǎn)降至最低?!?/p>

03 核心人員離職、工程師被解雇,微軟ChatGPT背刺谷歌

2020年時(shí),弗里塔斯和沙澤爾還在研究如何將LaMDA集成到Google Assistant中。Google Assistant是谷歌四年前在其智能手機(jī)Pixel和家庭音箱系統(tǒng)上首次推出的一款軟件應(yīng)用程序,每月有超過5億人使用Google Assistant來執(zhí)行一些基礎(chǔ)任務(wù),比如查看天氣和安排約會(huì)。

知情人士稱,谷歌不愿向公眾發(fā)布LaMDA的決定讓弗雷塔斯和沙澤爾感到沮喪,他們決定離開公司,并使用類似技術(shù)建立一家自己的初創(chuàng)公司。中途皮查伊多次干預(yù),要求兩人留下來繼續(xù)研究LaMDA,但卻沒有向他們承諾何時(shí)將會(huì)發(fā)布。

2021年,弗雷塔斯和沙澤爾正式離開谷歌,并于當(dāng)年11月成立了初創(chuàng)公司Character Technologies。他們研發(fā)的AI軟件Character于2022年正式發(fā)布,該軟件允許用戶創(chuàng)建聊天機(jī)器人并與之互動(dòng),機(jī)器人甚至可以以蘇格拉底等知名人物的口吻與用戶對話。

“這款軟件的發(fā)布在谷歌內(nèi)部引起了一些轟動(dòng)?!鄙碀蔂栐赮ouTube的一段采訪中稱。在他看來,作為一家小初創(chuàng)公司來推出這款軟件可能更加幸運(yùn)。

2022年5月,谷歌考慮在當(dāng)月的旗艦會(huì)議上發(fā)布LaMDA。而據(jù)谷歌解雇的一名工程師布萊克·勒莫因(Blake Lemoine)后來透露,被解雇是因?yàn)樗谏缃黄脚_(tái)上發(fā)布了與聊天機(jī)器人的對話,并聲稱它是有知覺的。

在勒莫因發(fā)布的內(nèi)容引發(fā)廣泛爭議之后,谷歌取消了原本的發(fā)布安排。谷歌表示,勒莫因的公開披露違反了就業(yè)和數(shù)據(jù)安全政策,因此公司需要做出保守起見的安排。

自從微軟與OpenAI達(dá)成新協(xié)議以來,谷歌一直在努力向大眾展示自己作為AI創(chuàng)造者的行業(yè)地位。

在今年ChatGPT首次亮相后,谷歌也準(zhǔn)備公開發(fā)布自己的聊天機(jī)器人Bard,該機(jī)器人部分技術(shù)基于弗雷塔斯和沙澤爾當(dāng)年的研究,它搜集從網(wǎng)絡(luò)中獲取的信息,再以對話形式回答問題。谷歌在一次公開活動(dòng)中表明,原計(jì)劃是想對Bard的區(qū)域性搜索功能更進(jìn)一步的探討,讓媒體和公眾對Bard有新的認(rèn)識,知曉它是一個(gè)使用類似LaMDA的AI技術(shù)來回應(yīng)輸入文本的搜索工具。

據(jù)谷歌高層稱,谷歌經(jīng)常會(huì)重新評估發(fā)布一款產(chǎn)品的條件,但由于現(xiàn)在面臨太多的外界刺激,才在一個(gè)并不十全十美的情況下發(fā)布。

谷歌搜索副總裁伊麗莎白·里德(Elizabeth Reid)在接受采訪時(shí)稱,自去年年初以來,谷歌也對搜索產(chǎn)品進(jìn)行了內(nèi)部演示,這些產(chǎn)品也整合了LaMDA等生成式AI的響應(yīng)。

谷歌認(rèn)為生成式AI最有用的搜索用途之一,是在沒有標(biāo)準(zhǔn)正確答案下進(jìn)行的問題搜索,他們將其稱為“NORA”。里德說,傳統(tǒng)的搜索功能可能已經(jīng)滿足不了現(xiàn)在的用戶了,谷歌還看到了其他復(fù)雜搜索的潛在可能,比如說解一個(gè)數(shù)學(xué)題。

高管們說,和其它類似項(xiàng)目一樣,最大的問題是它的準(zhǔn)確性。使用這些搜索工具的人說,基于LaMDA技術(shù)構(gòu)建的工具在某些情況下會(huì)給出一些偏離主題的回答。

同樣,微軟新版Bing在上個(gè)月已經(jīng)發(fā)布,對于此前用戶報(bào)告的與聊天機(jī)器人之間產(chǎn)生的令人不安的對話,將會(huì)通過限制聊天時(shí)間的方式來減少機(jī)器人發(fā)出攻擊性或令人毛骨悚然的反應(yīng)的機(jī)會(huì)。

谷歌和微軟都承認(rèn)自己的聊天機(jī)器人還存在很多不準(zhǔn)確的地方。

在談到像LaMDA這樣的語言模型時(shí),里德認(rèn)為像是“在和一個(gè)孩子說話”,當(dāng)一個(gè)小孩子給不出大人想要的答案時(shí),他會(huì)編造出一個(gè)聽上去合理的答案來應(yīng)對。

谷歌未來還將繼續(xù)微調(diào)其模型,包括訓(xùn)練模型承認(rèn)自己不知道答案而不是編一個(gè)。

04 結(jié)語:AI領(lǐng)導(dǎo)者谷歌首戰(zhàn)失意,微軟略占上風(fēng)

谷歌聊天機(jī)器人的研發(fā)自2013年起步,2017年時(shí)已實(shí)現(xiàn)了重大的技術(shù)突破——神經(jīng)網(wǎng)絡(luò)系統(tǒng)Transformer,這也是ChatGPT所用到的底層技術(shù),隨后又發(fā)布了預(yù)訓(xùn)練大模型BERT;21年,微軟發(fā)布了ChatGPT的前身GPT-3,谷歌緊接著發(fā)布了預(yù)訓(xùn)練模型LaMDA,展示出自然的對話能力;如今,Bard也即將依托LaMDA的輕量級模型版本發(fā)布,谷歌在與微軟的較量中加快步伐。

長期以來的輿論壓力、層層加壓的安全審查,以及裁員后嚴(yán)重的人才流失情況,讓谷歌進(jìn)入到一個(gè)短暫的業(yè)務(wù)疲軟時(shí)期,整體業(yè)績下滑。但從長期來看,谷歌并未輸?shù)暨@場巨頭之爭,它所擁有的LLM(語言大模型)團(tuán)隊(duì)和定制芯片,在市場上難尋敵手。

與此同時(shí),我們也不難發(fā)現(xiàn),大模型和生成式AI的產(chǎn)業(yè)落地必然是場艱難長跑,巨頭們在技術(shù)、產(chǎn)品、生態(tài)、安全等多方面面臨的壓力重重,隨著生成式AI大規(guī)模接入應(yīng)用程序當(dāng)中,穩(wěn)定性和可靠性也將成為用戶更看中的評判標(biāo)準(zhǔn),也更考驗(yàn)各家基礎(chǔ)設(shè)施的能力。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

谷歌

5.4k
  • 美股收評:三大指數(shù)均續(xù)創(chuàng)歷史新高,特斯拉總市值升至美股第七位
  • 俄方解釋對谷歌天價(jià)罰款:是象征性的,谷歌不應(yīng)限制俄媒

評論

暫無評論哦,快來評價(jià)一下吧!

下載界面新聞

微信公眾號

微博

十年,谷歌是如何在聊天機(jī)器人競賽中落后微軟的?

谷歌對AI太過謹(jǐn)慎,給了微軟可乘之機(jī)。

編譯|智東西 吳菲凝

編輯|李水青

智東西3月9日報(bào)道,近日,外媒華爾街日報(bào)記者邁爾斯·庫盧帕(Miles Kruppa)和薩姆·謝克納(Sam Schechner)深度挖掘了谷歌聊天機(jī)器人的發(fā)展歷程,研發(fā)時(shí)間竟然已經(jīng)長達(dá)十年之久。在此期間,該項(xiàng)目更是經(jīng)歷了反復(fù)審查失敗、多次更名和多位核心人員離職等波折。

谷歌的聊天機(jī)器人投入可以追溯到2013年,而后研發(fā)出一款名為Meena的聊天機(jī)器人,但直至2020年才以LaMDA新名稱在一篇論文中得以披露進(jìn)展,至今產(chǎn)品仍未公開發(fā)布。2022年底,在OpenAI旗下的ChatGPT亮相并迅速走紅之后,谷歌匆忙公開了自己名為Bard的聊天機(jī)器人,但其卻在公開展示視頻中意外“翻車”。

華爾街日報(bào)兩名記者認(rèn)為,谷歌此前對待AI的態(tài)度太過于謹(jǐn)慎,以至于現(xiàn)在陷到一個(gè)“起大早,趕晚集”的尷尬境地,為競爭對手微軟提供了可乘之機(jī)。

在谷歌內(nèi)部,高管們認(rèn)為,谷歌必須保證AI技術(shù)足夠安全才能夠推向公眾。

01 兩年前聊天機(jī)器人已面世,因安全問題隱而未發(fā)

谷歌的兩位研究人員丹尼爾·德·弗雷塔斯(Daniel De Freitas)和諾姆·沙澤爾(Noam Shazeer)從2013年就已開始投入聊天機(jī)器人Meena的研發(fā),據(jù)稱所使用的技術(shù)遠(yuǎn)勝于當(dāng)時(shí)其他任何技術(shù)。他們開發(fā)出的對話式計(jì)算機(jī)程序可以像人一樣自信地談?wù)撜軐W(xué),還能即興創(chuàng)作出一些雙關(guān)語。

據(jù)知情人士透露,這兩位研究人員向同事們稱,聊天機(jī)器人在AI的不斷進(jìn)步的推動(dòng)下,未來將徹底顛覆人們使用搜索引擎和與計(jì)算機(jī)交互的方式。

他們敦促谷歌向外部研究人員提供Meena的訪問權(quán)限,試圖將其集成到Google Assistant智能助手中,還要求谷歌公開演示這款機(jī)器人。

但谷歌高管多次明確拒絕了他們,高管認(rèn)為該計(jì)劃不符合公司對AI系統(tǒng)安全性和公平性的標(biāo)準(zhǔn)。

谷歌這種拒絕公開發(fā)布的謹(jǐn)慎態(tài)度,主要是由于長年以來外界對于公司在AI方面的爭議。從關(guān)于AI的準(zhǔn)確性和公正性的內(nèi)部爭論,再到公司去年公開解雇了一名聲稱AI已經(jīng)獲得人類感知的員工,谷歌一直處于輿論的風(fēng)口浪尖之上。

據(jù)前員工以及其他知情人士透露,長久以來的一系列事件讓高管們擔(dān)心公開演示AI產(chǎn)品可能對公司聲譽(yù)和搜索廣告業(yè)務(wù)構(gòu)成風(fēng)險(xiǎn)。據(jù)悉,谷歌母公司Alphabet去年?duì)I收近2830億美元,其中大部分收入來自搜索引擎廣告投放業(yè)務(wù)。

前谷歌產(chǎn)品經(jīng)理高拉夫·內(nèi)馬德(Gaurav Nemade)說:“谷歌正在努力在承擔(dān)風(fēng)險(xiǎn)和保持全球領(lǐng)導(dǎo)地位之間找到平衡。”

谷歌的謹(jǐn)慎態(tài)度如今看來是明智之舉。二月份時(shí)微軟曾宣布,針對于聊天機(jī)器人發(fā)表敏感言論的用戶報(bào)告反饋,未來將對機(jī)器人施加更多新限制。微軟高層解釋,當(dāng)應(yīng)用程序運(yùn)轉(zhuǎn)到難以負(fù)荷時(shí),它可能會(huì)出現(xiàn)“精神錯(cuò)亂”的現(xiàn)象。

在上月一封發(fā)給全體員工的郵件中,Alphabet和谷歌的首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)稱:“一些最成功的產(chǎn)品并不是第一個(gè)推向市場,但卻能慢慢贏得用戶的信任?!彼麑懙?,“這將是一段漫長的旅程——對每個(gè)人來說,都是如此。我們現(xiàn)在能做的最重要的事情是專注于打造一款偉大的產(chǎn)品,并負(fù)責(zé)任地開發(fā)它。”

02 十年秘密研發(fā):多次審查不過、內(nèi)部禁止,最終改名

谷歌在聊天機(jī)器人方面做出的努力可以追溯到2013年。

時(shí)任谷歌聯(lián)合創(chuàng)始人兼首席執(zhí)行官的拉里·佩奇(Larry Page)聘請了計(jì)算機(jī)科學(xué)家雷·庫茲韋爾(Ray Kurzweil),庫茲幫谷歌推出了一個(gè)前所未有的概念“技術(shù)奇點(diǎn)”:即機(jī)器終有一天將超越人類的智慧。

此外,谷歌還收購了英國人工智能公司DeepMind,該公司同樣致力于創(chuàng)建通用AI或可以反映人類心理能力的軟件。

但與此同時(shí),學(xué)者和技術(shù)專家開始對AI提出擔(dān)憂,比如它有可能通過面部識別軟件實(shí)現(xiàn)大規(guī)模監(jiān)控,他們開始向谷歌等科技公司施壓,要求他們承諾不會(huì)將某些技術(shù)用作非法途徑。

2015年,包括馬斯克在內(nèi)的一群科技企業(yè)家和投資者成立了OpenAI,其中有一部分原因是為了打壓谷歌在AI領(lǐng)域日漸攀升的地位。OpenAI最初是一家非營利組織,它希望確保AI不會(huì)成為企業(yè)利益的犧牲品,而是用于造福人類。

此前,谷歌與美國國防部擬定的一項(xiàng)名為“Project Maven”的合同遭到了員工的強(qiáng)烈反對,因?yàn)樵摵贤婕暗绞褂肁I自動(dòng)識別并跟蹤潛在的無人機(jī),谷歌最終放棄了這個(gè)項(xiàng)目。直至2018年,谷歌宣布承認(rèn)不會(huì)將AI技術(shù)應(yīng)用于軍事武器制造方面。

除此之外,CEO皮查伊還宣布了一套指導(dǎo)谷歌運(yùn)作的7項(xiàng)AI原則,旨在限制不公正技術(shù)的傳播,比如人工智能工具應(yīng)該對人負(fù)責(zé),并“為安全而構(gòu)建和測試”。

多年來,谷歌這款名為Meena的聊天機(jī)器人項(xiàng)目一直處于保密狀態(tài)中。一部分內(nèi)部員工對這類程序的風(fēng)險(xiǎn)表示擔(dān)憂,因?yàn)?016年時(shí)微軟曾因?yàn)橐豢蠲麨門ay聊天機(jī)器人的誤導(dǎo)性回答,最終被迫終止公開發(fā)布。

直至2020年,外界才對Meena有所了解。在谷歌發(fā)布的一項(xiàng)研究論文當(dāng)中稱,Meena已經(jīng)從公開的社交媒體對話中學(xué)習(xí)了近400億個(gè)單詞。而競爭對手OpenAI同樣開發(fā)了一個(gè)基于800萬個(gè)網(wǎng)頁的類似模型GPT-8。

在谷歌,Meena背后的團(tuán)隊(duì)也希望能早日發(fā)布他們的工具,即使只是像OpenAI那樣以有限的格式發(fā)布。但谷歌高管們多次拒絕了這一提議,據(jù)前谷歌產(chǎn)品經(jīng)理內(nèi)馬德稱,他們給出的理由是聊天機(jī)器人不符合谷歌關(guān)于安全和公平的AI原則。

谷歌發(fā)言人稱,多年來,Meena經(jīng)過了無數(shù)次審查,但一直因?yàn)楦鞣N原因而被禁止進(jìn)行更廣泛的發(fā)布。Google Brain人工智能研究部門的軟件工程師沙澤爾加入了這個(gè)項(xiàng)目,他們將Meena更名為LaMDA,意為“用于對話應(yīng)用程序的語言模型”。團(tuán)隊(duì)還為賦予了LaMDA更多的數(shù)據(jù)和計(jì)算能力。

然而,他們的技術(shù)很快引發(fā)了廣泛爭議。谷歌著名的AI倫理研究員蒂姆尼特·格布魯(Timnit Gebru)在2020年底公開宣稱,她因拒絕撤回一篇關(guān)于LaMDA等項(xiàng)目固有風(fēng)險(xiǎn)的研究論文而被解雇。谷歌則澄清該員工并未被解雇,并聲稱她的研究不夠嚴(yán)謹(jǐn)。

谷歌研究主管杰夫·迪恩(Jeff Dean)稱,谷歌將繼續(xù)投資對大眾負(fù)責(zé)的AI項(xiàng)目。

2021年5月,公司公開承諾會(huì)將AI道德小組的規(guī)模擴(kuò)大一倍。

在一周后,皮查伊在公司年會(huì)上登臺(tái),展示了兩段預(yù)先錄制的與LaMDA的對話,LaMDA根據(jù)命令對問題作出回應(yīng)。據(jù)知情人士稱,谷歌研究人員在會(huì)議召開前幾天準(zhǔn)備了這些問答案例,并在最后一刻向皮查伊演示。谷歌一再強(qiáng)調(diào)自身將努力使聊天機(jī)器人更加準(zhǔn)確,并最大限度地減少其被濫用的機(jī)會(huì)。

谷歌的兩位副總裁當(dāng)時(shí)在一篇博客文章中寫道:“在創(chuàng)建像LaMDA這樣的技術(shù)時(shí),我們的首要任務(wù)是努力確保將風(fēng)險(xiǎn)降至最低?!?/p>

03 核心人員離職、工程師被解雇,微軟ChatGPT背刺谷歌

2020年時(shí),弗里塔斯和沙澤爾還在研究如何將LaMDA集成到Google Assistant中。Google Assistant是谷歌四年前在其智能手機(jī)Pixel和家庭音箱系統(tǒng)上首次推出的一款軟件應(yīng)用程序,每月有超過5億人使用Google Assistant來執(zhí)行一些基礎(chǔ)任務(wù),比如查看天氣和安排約會(huì)。

知情人士稱,谷歌不愿向公眾發(fā)布LaMDA的決定讓弗雷塔斯和沙澤爾感到沮喪,他們決定離開公司,并使用類似技術(shù)建立一家自己的初創(chuàng)公司。中途皮查伊多次干預(yù),要求兩人留下來繼續(xù)研究LaMDA,但卻沒有向他們承諾何時(shí)將會(huì)發(fā)布。

2021年,弗雷塔斯和沙澤爾正式離開谷歌,并于當(dāng)年11月成立了初創(chuàng)公司Character Technologies。他們研發(fā)的AI軟件Character于2022年正式發(fā)布,該軟件允許用戶創(chuàng)建聊天機(jī)器人并與之互動(dòng),機(jī)器人甚至可以以蘇格拉底等知名人物的口吻與用戶對話。

“這款軟件的發(fā)布在谷歌內(nèi)部引起了一些轟動(dòng)。”沙澤爾在YouTube的一段采訪中稱。在他看來,作為一家小初創(chuàng)公司來推出這款軟件可能更加幸運(yùn)。

2022年5月,谷歌考慮在當(dāng)月的旗艦會(huì)議上發(fā)布LaMDA。而據(jù)谷歌解雇的一名工程師布萊克·勒莫因(Blake Lemoine)后來透露,被解雇是因?yàn)樗谏缃黄脚_(tái)上發(fā)布了與聊天機(jī)器人的對話,并聲稱它是有知覺的。

在勒莫因發(fā)布的內(nèi)容引發(fā)廣泛爭議之后,谷歌取消了原本的發(fā)布安排。谷歌表示,勒莫因的公開披露違反了就業(yè)和數(shù)據(jù)安全政策,因此公司需要做出保守起見的安排。

自從微軟與OpenAI達(dá)成新協(xié)議以來,谷歌一直在努力向大眾展示自己作為AI創(chuàng)造者的行業(yè)地位。

在今年ChatGPT首次亮相后,谷歌也準(zhǔn)備公開發(fā)布自己的聊天機(jī)器人Bard,該機(jī)器人部分技術(shù)基于弗雷塔斯和沙澤爾當(dāng)年的研究,它搜集從網(wǎng)絡(luò)中獲取的信息,再以對話形式回答問題。谷歌在一次公開活動(dòng)中表明,原計(jì)劃是想對Bard的區(qū)域性搜索功能更進(jìn)一步的探討,讓媒體和公眾對Bard有新的認(rèn)識,知曉它是一個(gè)使用類似LaMDA的AI技術(shù)來回應(yīng)輸入文本的搜索工具。

據(jù)谷歌高層稱,谷歌經(jīng)常會(huì)重新評估發(fā)布一款產(chǎn)品的條件,但由于現(xiàn)在面臨太多的外界刺激,才在一個(gè)并不十全十美的情況下發(fā)布。

谷歌搜索副總裁伊麗莎白·里德(Elizabeth Reid)在接受采訪時(shí)稱,自去年年初以來,谷歌也對搜索產(chǎn)品進(jìn)行了內(nèi)部演示,這些產(chǎn)品也整合了LaMDA等生成式AI的響應(yīng)。

谷歌認(rèn)為生成式AI最有用的搜索用途之一,是在沒有標(biāo)準(zhǔn)正確答案下進(jìn)行的問題搜索,他們將其稱為“NORA”。里德說,傳統(tǒng)的搜索功能可能已經(jīng)滿足不了現(xiàn)在的用戶了,谷歌還看到了其他復(fù)雜搜索的潛在可能,比如說解一個(gè)數(shù)學(xué)題。

高管們說,和其它類似項(xiàng)目一樣,最大的問題是它的準(zhǔn)確性。使用這些搜索工具的人說,基于LaMDA技術(shù)構(gòu)建的工具在某些情況下會(huì)給出一些偏離主題的回答。

同樣,微軟新版Bing在上個(gè)月已經(jīng)發(fā)布,對于此前用戶報(bào)告的與聊天機(jī)器人之間產(chǎn)生的令人不安的對話,將會(huì)通過限制聊天時(shí)間的方式來減少機(jī)器人發(fā)出攻擊性或令人毛骨悚然的反應(yīng)的機(jī)會(huì)。

谷歌和微軟都承認(rèn)自己的聊天機(jī)器人還存在很多不準(zhǔn)確的地方。

在談到像LaMDA這樣的語言模型時(shí),里德認(rèn)為像是“在和一個(gè)孩子說話”,當(dāng)一個(gè)小孩子給不出大人想要的答案時(shí),他會(huì)編造出一個(gè)聽上去合理的答案來應(yīng)對。

谷歌未來還將繼續(xù)微調(diào)其模型,包括訓(xùn)練模型承認(rèn)自己不知道答案而不是編一個(gè)。

04 結(jié)語:AI領(lǐng)導(dǎo)者谷歌首戰(zhàn)失意,微軟略占上風(fēng)

谷歌聊天機(jī)器人的研發(fā)自2013年起步,2017年時(shí)已實(shí)現(xiàn)了重大的技術(shù)突破——神經(jīng)網(wǎng)絡(luò)系統(tǒng)Transformer,這也是ChatGPT所用到的底層技術(shù),隨后又發(fā)布了預(yù)訓(xùn)練大模型BERT;21年,微軟發(fā)布了ChatGPT的前身GPT-3,谷歌緊接著發(fā)布了預(yù)訓(xùn)練模型LaMDA,展示出自然的對話能力;如今,Bard也即將依托LaMDA的輕量級模型版本發(fā)布,谷歌在與微軟的較量中加快步伐。

長期以來的輿論壓力、層層加壓的安全審查,以及裁員后嚴(yán)重的人才流失情況,讓谷歌進(jìn)入到一個(gè)短暫的業(yè)務(wù)疲軟時(shí)期,整體業(yè)績下滑。但從長期來看,谷歌并未輸?shù)暨@場巨頭之爭,它所擁有的LLM(語言大模型)團(tuán)隊(duì)和定制芯片,在市場上難尋敵手。

與此同時(shí),我們也不難發(fā)現(xiàn),大模型和生成式AI的產(chǎn)業(yè)落地必然是場艱難長跑,巨頭們在技術(shù)、產(chǎn)品、生態(tài)、安全等多方面面臨的壓力重重,隨著生成式AI大規(guī)模接入應(yīng)用程序當(dāng)中,穩(wěn)定性和可靠性也將成為用戶更看中的評判標(biāo)準(zhǔn),也更考驗(yàn)各家基礎(chǔ)設(shè)施的能力。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。