正在閱讀:

留給“端側(cè)大模型”的時(shí)間不多了

掃一掃下載界面新聞APP

留給“端側(cè)大模型”的時(shí)間不多了

端側(cè)大模型不是萬(wàn)能的,但沒(méi)有云側(cè)大模型是萬(wàn)萬(wàn)不能的

文|腦極體

端側(cè)大模型(Edge AI models),也就是只在設(shè)備本地(如智能手機(jī)、IoT設(shè)備、嵌入式系統(tǒng)等)運(yùn)行的大模型,過(guò)去一兩年來(lái)非常流行。

具體表現(xiàn)在,終端設(shè)備廠(chǎng)商,如蘋(píng)果、榮耀、小米、OV等,AI公司如商湯科技,都推出了自研的純端側(cè)大模型。

端側(cè)大模型存在的意義,就是“以小博大”。

簡(jiǎn)單來(lái)說(shuō),和云側(cè)大模型相比,端側(cè)大模型要在本地部署,所以參數(shù)規(guī)模都不大,不用擔(dān)心私密數(shù)據(jù)在推理時(shí)被泄露;不需要網(wǎng)絡(luò)傳輸,因此響應(yīng)速度更快;設(shè)備原生搭載,不需要租用云資源,用起來(lái)更省……

聽(tīng)起來(lái),端側(cè)大模型簡(jiǎn)直是AI設(shè)備不可或缺的標(biāo)配啊。但實(shí)際情況,可能出乎很多人的意料。

我們?cè)谡{(diào)研和使用多個(gè)終端廠(chǎng)商的大模型時(shí)發(fā)現(xiàn),端云協(xié)同、云端大模型,才是大模型在端側(cè)的主流形式。

比如目前很流行的“手機(jī)拍照一鍵擦除背景人物”,僅靠端側(cè)大模型的計(jì)算能力是無(wú)法實(shí)現(xiàn)的,需要端云協(xié)同來(lái)完成。

再比如公文寫(xiě)作、長(zhǎng)文要點(diǎn)總結(jié)、PDF要點(diǎn)摘要等,端側(cè)大模型要么無(wú)法完成,比如榮耀、OPPO端側(cè)大模型都不支持PDF文本摘要,小米MiLM的支持度和生成效果也不夠好。

最終,用戶(hù)還是要訪(fǎng)問(wèn)GPT-4、文心一言、智譜清言、訊飛星火、KIMI等云端大模型的網(wǎng)頁(yè)/APP,來(lái)滿(mǎn)足一些復(fù)雜AIGC任務(wù)需求。

不難看到,端側(cè)大模型聽(tīng)起來(lái)很美,但真正用起來(lái)卻有點(diǎn)雞肋。

而隨著云端大模型“變大”(走向統(tǒng)一多模態(tài))又“變小”(壓縮技術(shù)),留給“端側(cè)大模型”的時(shí)間,真的不多了。

端側(cè)大模型不是萬(wàn)能的,但沒(méi)有云側(cè)大模型是萬(wàn)萬(wàn)不能的

目前來(lái)看,“端側(cè)大模型”收益和損失這筆賬,根本算不平。

先說(shuō)收益,云端大模型比端側(cè)大模型對(duì)用戶(hù)的價(jià)值更大。

端側(cè)AI首先要保障用戶(hù)體驗(yàn),先有價(jià)值,再說(shuō)其他。只能在設(shè)備本地運(yùn)行,意味著“端側(cè)大模型”注定不會(huì)太大,必然限制了模型本身的性能表現(xiàn),無(wú)法媲美云端大模型。

所以,用戶(hù)在使用端側(cè)大模型時(shí),要犧牲一部分體驗(yàn),那么所獲得的收益是否更大呢?并不是。

云端大模型的能力變得越來(lái)越強(qiáng)大,與不得不“因小失大”的端側(cè)大模型,拉開(kāi)了更大的體驗(yàn)差距。比如近期OpenAI和谷歌斗得火熱的多模態(tài)大模型,GPT-4o和Gemini帶來(lái)令人驚艷的語(yǔ)音交互、多種模態(tài)一次生成等能力,處理圖片、視頻、音頻等數(shù)據(jù)和復(fù)雜邏輯,都要在云端運(yùn)行。

一位國(guó)內(nèi)PC行業(yè)的資深從業(yè)者曾告訴腦極體,大模型出來(lái)之后我們硬件企業(yè)就在研究,怎么將大模型跟PC結(jié)合,究竟什么是真正的AI PC?結(jié)論就是,搭載了GPT-4(代指當(dāng)下最先進(jìn)大模型)的硬件,確實(shí)可以叫“AI xx”,模型能力才是最核心的。

所以,想做好端側(cè)AI,端側(cè)大模型不是萬(wàn)能的,但沒(méi)有云側(cè)大模型是萬(wàn)萬(wàn)不能的。

云端大模型不得不用,那端側(cè)大模型也一樣非用不可嗎?這就要來(lái)說(shuō)說(shuō)損失了。

不用端側(cè)大模型,并不會(huì)給用戶(hù)帶來(lái)更大的麻煩。

此前,終端追求搭載“端側(cè)大模型”,主要受限于兩點(diǎn):計(jì)算瓶頸、安全顧慮。大模型推理對(duì)實(shí)時(shí)性的要求,云端相比本地的時(shí)延更高。此外,手機(jī)、PC涉及大量隱私數(shù)據(jù),傳輸?shù)皆贫诉M(jìn)行推理,讓很多人有顧慮。上述兩點(diǎn)“損失”正在被積極地解決。

比如前不久谷歌I/O大會(huì)上,就發(fā)布了響應(yīng)速度快、成本低的輕量化模型Gemini 1.5 Flash。谷歌采用了“蒸餾”方法,將較大Gemini模型的核心知識(shí)和技能遷移到了更小、更高效的模型中,Gemini 1.5 Flash在摘要、聊天應(yīng)用、圖像和視頻字幕等多種任務(wù)中,有很好的表現(xiàn),可以在不同平臺(tái)運(yùn)行。

此外,本地計(jì)算硬件針對(duì)AI任務(wù)進(jìn)行優(yōu)化,也可以提升云端推理服務(wù)的流暢度。目前x86、Arm陣營(yíng)都在積極提升端側(cè)計(jì)算單元對(duì)AI專(zhuān)項(xiàng)任務(wù)的適配度,已經(jīng)有旗艦和高端手機(jī)支持實(shí)時(shí)運(yùn)行大規(guī)模參數(shù)量的大模型。

數(shù)據(jù)安全層面,終端廠(chǎng)商和大模型企業(yè)都推出了相應(yīng)的隱私安全保護(hù)機(jī)制,通過(guò)“數(shù)據(jù)可用不可見(jiàn)”、脫敏、聯(lián)邦學(xué)習(xí)等多種手段,防范泄露風(fēng)險(xiǎn)。

以一貫注重隱私安全的蘋(píng)果為例,也自研了端側(cè)模型OpenELM,可在手機(jī)和筆記本電腦等設(shè)備上運(yùn)行,但在真正上線(xiàn)AIGC等能力時(shí),據(jù)說(shuō)也將選擇與大模型企業(yè)合作(國(guó)外據(jù)傳是OpenAI,國(guó)內(nèi)據(jù)傳是文心一言)。

綜上,使用“云端大模型”的收益正顯著增大,不用“端側(cè)大模型”的損失卻越來(lái)越小。這讓“以小博大”端側(cè)大模型,顯得越來(lái)越不劃算了。

接下來(lái)的故事也不難預(yù)測(cè),隨著越來(lái)越多的終端企業(yè),紛紛把云端大模型塞進(jìn)設(shè)備,純端側(cè)大模型的存在會(huì)越來(lái)越尷尬,進(jìn)入到“不好用-不愛(ài)用-更不好用”的循環(huán)中。

這端側(cè)大模型終端廠(chǎng)商是非做不可嗎?

你可能會(huì)問(wèn)了,既然端側(cè)大模型不如云端大模型好用,為什么終端廠(chǎng)商還都在下大力氣做呢?

客觀(guān)情況是,大模型必須得有,但終端廠(chǎng)商并不適合做云端大模型,所以端側(cè)、端云協(xié)同就成了必選項(xiàng)。

一位國(guó)內(nèi)某終端企業(yè)的負(fù)責(zé)人曾直言:即使我的研發(fā)費(fèi)用再翻一倍,也沒(méi)法做像ChatGPT、Sora這樣的通用大模型,還是會(huì)選擇跟百度、騰訊、阿里巴巴等伙伴合作。

比如榮耀正在引導(dǎo)百模千態(tài),在手機(jī)中接入文心一言等通用大模型,以及高德地圖、航旅縱橫等行業(yè)大模型;華為在PC中接入了文心一言、訊飛星火、智譜AI的通用大模型,同時(shí)上線(xiàn)了基于自研盤(pán)古大模型的AI紀(jì)要功能……

從主觀(guān)角度猜測(cè),終端廠(chǎng)商做端側(cè)大模型,既有品牌方面的考量,彰顯大模型技術(shù)的自研能力,也有“將靈魂握在自己手里”的考慮,類(lèi)似于銀行、金融機(jī)構(gòu)、車(chē)企希望將數(shù)據(jù)這一核心優(yōu)勢(shì),掌握在自己手里,打造行業(yè)大模型,而非交給大模型廠(chǎng)商。

終端廠(chǎng)商,既希望通過(guò)合作云端大模型,拔高AI設(shè)備的體驗(yàn)優(yōu)勢(shì),增強(qiáng)產(chǎn)品對(duì)消費(fèi)者的吸引力,又希望通過(guò)自研抓住端側(cè)大模型,守住數(shù)據(jù)護(hù)城河,是進(jìn)可攻、退可守的大模型策略。

我們預(yù)計(jì),隨著云端大模型的性能、能力在非線(xiàn)性增長(zhǎng),終端廠(chǎng)商的純端側(cè)大模型,會(huì)被拉開(kāi)越來(lái)越大的差距,無(wú)法成為消費(fèi)者的購(gòu)買(mǎi)決策依據(jù)。

不遠(yuǎn)的將來(lái),能否在設(shè)備側(cè)整合優(yōu)質(zhì)云端大模型生態(tài),會(huì)成為AI終端設(shè)備的賽點(diǎn)。

總結(jié)一下就是,端側(cè)大模型,終端廠(chǎng)商可以做,但沒(méi)必要。云側(cè)大模型,終端廠(chǎng)商必須有,且得比人強(qiáng)。

深度協(xié)作的不只大模型還有兩類(lèi)廠(chǎng)商

在一次與華為終端的交流中,對(duì)方提到:華為是唯一一個(gè)云側(cè)通用大模型、端側(cè)大模型全自研的終端廠(chǎng)商(指盤(pán)古大模型),這給AI硬件奠定了很好的基礎(chǔ)。比如要完成一個(gè)復(fù)雜的AIGC任務(wù),可以拆分為云、端、邊緣等并行訓(xùn)練,兼顧推理效果、運(yùn)行速度、數(shù)據(jù)安全等。

需要說(shuō)明的是,上述思路仍處于概念驗(yàn)證階段,目前我們還未能在華為終端設(shè)備上體驗(yàn)到盤(pán)古大模型從云到端的深度整合。但這一理念,在邏輯上確實(shí)是說(shuō)得通的——通過(guò)端云高效協(xié)同,可以建立起無(wú)短板的大模型產(chǎn)品力,打動(dòng)AI硬件的潛在消費(fèi)者,而這離不開(kāi)終端廠(chǎng)商和通用大模型廠(chǎng)商的深度合作。

端側(cè)大模型和云側(cè)通用大模型全自有的終端企業(yè),確實(shí)具備緊密融合的先天優(yōu)勢(shì),不過(guò),其他廠(chǎng)商也可以通過(guò)開(kāi)放生態(tài)補(bǔ)足,形成一個(gè)更全面的模型生態(tài)。

這對(duì)雙方來(lái)說(shuō),是一件互利共贏的事情:

通用大模型廠(chǎng)商,需要借助終端廠(chǎng)商的龐大設(shè)備生態(tài),作為大模型落地的土壤,回收基座模型的龐大投入。借助端側(cè)的設(shè)備數(shù)據(jù),更好地解決大模型的幻覺(jué)問(wèn)題,推動(dòng)模型進(jìn)化。

而終端廠(chǎng)商,需要通用大模型(尤其是尖端版本的云端大模型)作為體驗(yàn)支撐,為用戶(hù)提供最先進(jìn)的AIGC應(yīng)用和體驗(yàn),避免在基座模型上投入太高的研發(fā)成本,也避免在AI體驗(yàn)上被其他終端廠(chǎng)商拉大。

在此基礎(chǔ)上,終端廠(chǎng)商和云端通用大模型廠(chǎng)商還要抓緊解決的重點(diǎn)問(wèn)題:

安全問(wèn)題。如何在保證隱私數(shù)據(jù)的基礎(chǔ)上,學(xué)習(xí)設(shè)備數(shù)據(jù),明確數(shù)據(jù)權(quán)益與責(zé)任歸屬,對(duì)數(shù)據(jù)產(chǎn)生的商業(yè)收益建立合理的分配機(jī)制。

開(kāi)發(fā)者分利政策。無(wú)論是手機(jī)的AI應(yīng)用,還是云端大模型的AI應(yīng)用,都需要開(kāi)發(fā)者來(lái)完成。終端開(kāi)發(fā)者生態(tài)和大模型開(kāi)發(fā)者生態(tài)的進(jìn)一步打通,也會(huì)增加對(duì)開(kāi)發(fā)者的吸引力,加速AI應(yīng)用的孵化。那么,如何共同賦能并分利給開(kāi)發(fā)者,將成為兩類(lèi)廠(chǎng)商合作與博弈的關(guān)鍵。

今年上半年,我們見(jiàn)證了通用大模型的諸多突破,留給端側(cè)大模型的時(shí)間已經(jīng)不多了,留給終端廠(chǎng)商構(gòu)建大模型共同體生態(tài)的機(jī)會(huì)窗口期,也并不會(huì)太久。

下半年,我們或?qū)⒁?jiàn)證一場(chǎng)“終端廠(chǎng)商+大模型廠(chǎng)商”攜手的“陣營(yíng)戰(zhàn)”。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

留給“端側(cè)大模型”的時(shí)間不多了

端側(cè)大模型不是萬(wàn)能的,但沒(méi)有云側(cè)大模型是萬(wàn)萬(wàn)不能的

文|腦極體

端側(cè)大模型(Edge AI models),也就是只在設(shè)備本地(如智能手機(jī)、IoT設(shè)備、嵌入式系統(tǒng)等)運(yùn)行的大模型,過(guò)去一兩年來(lái)非常流行。

具體表現(xiàn)在,終端設(shè)備廠(chǎng)商,如蘋(píng)果、榮耀、小米、OV等,AI公司如商湯科技,都推出了自研的純端側(cè)大模型。

端側(cè)大模型存在的意義,就是“以小博大”。

簡(jiǎn)單來(lái)說(shuō),和云側(cè)大模型相比,端側(cè)大模型要在本地部署,所以參數(shù)規(guī)模都不大,不用擔(dān)心私密數(shù)據(jù)在推理時(shí)被泄露;不需要網(wǎng)絡(luò)傳輸,因此響應(yīng)速度更快;設(shè)備原生搭載,不需要租用云資源,用起來(lái)更省……

聽(tīng)起來(lái),端側(cè)大模型簡(jiǎn)直是AI設(shè)備不可或缺的標(biāo)配啊。但實(shí)際情況,可能出乎很多人的意料。

我們?cè)谡{(diào)研和使用多個(gè)終端廠(chǎng)商的大模型時(shí)發(fā)現(xiàn),端云協(xié)同、云端大模型,才是大模型在端側(cè)的主流形式。

比如目前很流行的“手機(jī)拍照一鍵擦除背景人物”,僅靠端側(cè)大模型的計(jì)算能力是無(wú)法實(shí)現(xiàn)的,需要端云協(xié)同來(lái)完成。

再比如公文寫(xiě)作、長(zhǎng)文要點(diǎn)總結(jié)、PDF要點(diǎn)摘要等,端側(cè)大模型要么無(wú)法完成,比如榮耀、OPPO端側(cè)大模型都不支持PDF文本摘要,小米MiLM的支持度和生成效果也不夠好。

最終,用戶(hù)還是要訪(fǎng)問(wèn)GPT-4、文心一言、智譜清言、訊飛星火、KIMI等云端大模型的網(wǎng)頁(yè)/APP,來(lái)滿(mǎn)足一些復(fù)雜AIGC任務(wù)需求。

不難看到,端側(cè)大模型聽(tīng)起來(lái)很美,但真正用起來(lái)卻有點(diǎn)雞肋。

而隨著云端大模型“變大”(走向統(tǒng)一多模態(tài))又“變小”(壓縮技術(shù)),留給“端側(cè)大模型”的時(shí)間,真的不多了。

端側(cè)大模型不是萬(wàn)能的,但沒(méi)有云側(cè)大模型是萬(wàn)萬(wàn)不能的

目前來(lái)看,“端側(cè)大模型”收益和損失這筆賬,根本算不平。

先說(shuō)收益,云端大模型比端側(cè)大模型對(duì)用戶(hù)的價(jià)值更大。

端側(cè)AI首先要保障用戶(hù)體驗(yàn),先有價(jià)值,再說(shuō)其他。只能在設(shè)備本地運(yùn)行,意味著“端側(cè)大模型”注定不會(huì)太大,必然限制了模型本身的性能表現(xiàn),無(wú)法媲美云端大模型。

所以,用戶(hù)在使用端側(cè)大模型時(shí),要犧牲一部分體驗(yàn),那么所獲得的收益是否更大呢?并不是。

云端大模型的能力變得越來(lái)越強(qiáng)大,與不得不“因小失大”的端側(cè)大模型,拉開(kāi)了更大的體驗(yàn)差距。比如近期OpenAI和谷歌斗得火熱的多模態(tài)大模型,GPT-4o和Gemini帶來(lái)令人驚艷的語(yǔ)音交互、多種模態(tài)一次生成等能力,處理圖片、視頻、音頻等數(shù)據(jù)和復(fù)雜邏輯,都要在云端運(yùn)行。

一位國(guó)內(nèi)PC行業(yè)的資深從業(yè)者曾告訴腦極體,大模型出來(lái)之后我們硬件企業(yè)就在研究,怎么將大模型跟PC結(jié)合,究竟什么是真正的AI PC?結(jié)論就是,搭載了GPT-4(代指當(dāng)下最先進(jìn)大模型)的硬件,確實(shí)可以叫“AI xx”,模型能力才是最核心的。

所以,想做好端側(cè)AI,端側(cè)大模型不是萬(wàn)能的,但沒(méi)有云側(cè)大模型是萬(wàn)萬(wàn)不能的。

云端大模型不得不用,那端側(cè)大模型也一樣非用不可嗎?這就要來(lái)說(shuō)說(shuō)損失了。

不用端側(cè)大模型,并不會(huì)給用戶(hù)帶來(lái)更大的麻煩。

此前,終端追求搭載“端側(cè)大模型”,主要受限于兩點(diǎn):計(jì)算瓶頸、安全顧慮。大模型推理對(duì)實(shí)時(shí)性的要求,云端相比本地的時(shí)延更高。此外,手機(jī)、PC涉及大量隱私數(shù)據(jù),傳輸?shù)皆贫诉M(jìn)行推理,讓很多人有顧慮。上述兩點(diǎn)“損失”正在被積極地解決。

比如前不久谷歌I/O大會(huì)上,就發(fā)布了響應(yīng)速度快、成本低的輕量化模型Gemini 1.5 Flash。谷歌采用了“蒸餾”方法,將較大Gemini模型的核心知識(shí)和技能遷移到了更小、更高效的模型中,Gemini 1.5 Flash在摘要、聊天應(yīng)用、圖像和視頻字幕等多種任務(wù)中,有很好的表現(xiàn),可以在不同平臺(tái)運(yùn)行。

此外,本地計(jì)算硬件針對(duì)AI任務(wù)進(jìn)行優(yōu)化,也可以提升云端推理服務(wù)的流暢度。目前x86、Arm陣營(yíng)都在積極提升端側(cè)計(jì)算單元對(duì)AI專(zhuān)項(xiàng)任務(wù)的適配度,已經(jīng)有旗艦和高端手機(jī)支持實(shí)時(shí)運(yùn)行大規(guī)模參數(shù)量的大模型。

數(shù)據(jù)安全層面,終端廠(chǎng)商和大模型企業(yè)都推出了相應(yīng)的隱私安全保護(hù)機(jī)制,通過(guò)“數(shù)據(jù)可用不可見(jiàn)”、脫敏、聯(lián)邦學(xué)習(xí)等多種手段,防范泄露風(fēng)險(xiǎn)。

以一貫注重隱私安全的蘋(píng)果為例,也自研了端側(cè)模型OpenELM,可在手機(jī)和筆記本電腦等設(shè)備上運(yùn)行,但在真正上線(xiàn)AIGC等能力時(shí),據(jù)說(shuō)也將選擇與大模型企業(yè)合作(國(guó)外據(jù)傳是OpenAI,國(guó)內(nèi)據(jù)傳是文心一言)。

綜上,使用“云端大模型”的收益正顯著增大,不用“端側(cè)大模型”的損失卻越來(lái)越小。這讓“以小博大”端側(cè)大模型,顯得越來(lái)越不劃算了。

接下來(lái)的故事也不難預(yù)測(cè),隨著越來(lái)越多的終端企業(yè),紛紛把云端大模型塞進(jìn)設(shè)備,純端側(cè)大模型的存在會(huì)越來(lái)越尷尬,進(jìn)入到“不好用-不愛(ài)用-更不好用”的循環(huán)中。

這端側(cè)大模型終端廠(chǎng)商是非做不可嗎?

你可能會(huì)問(wèn)了,既然端側(cè)大模型不如云端大模型好用,為什么終端廠(chǎng)商還都在下大力氣做呢?

客觀(guān)情況是,大模型必須得有,但終端廠(chǎng)商并不適合做云端大模型,所以端側(cè)、端云協(xié)同就成了必選項(xiàng)。

一位國(guó)內(nèi)某終端企業(yè)的負(fù)責(zé)人曾直言:即使我的研發(fā)費(fèi)用再翻一倍,也沒(méi)法做像ChatGPT、Sora這樣的通用大模型,還是會(huì)選擇跟百度、騰訊、阿里巴巴等伙伴合作。

比如榮耀正在引導(dǎo)百模千態(tài),在手機(jī)中接入文心一言等通用大模型,以及高德地圖、航旅縱橫等行業(yè)大模型;華為在PC中接入了文心一言、訊飛星火、智譜AI的通用大模型,同時(shí)上線(xiàn)了基于自研盤(pán)古大模型的AI紀(jì)要功能……

從主觀(guān)角度猜測(cè),終端廠(chǎng)商做端側(cè)大模型,既有品牌方面的考量,彰顯大模型技術(shù)的自研能力,也有“將靈魂握在自己手里”的考慮,類(lèi)似于銀行、金融機(jī)構(gòu)、車(chē)企希望將數(shù)據(jù)這一核心優(yōu)勢(shì),掌握在自己手里,打造行業(yè)大模型,而非交給大模型廠(chǎng)商。

終端廠(chǎng)商,既希望通過(guò)合作云端大模型,拔高AI設(shè)備的體驗(yàn)優(yōu)勢(shì),增強(qiáng)產(chǎn)品對(duì)消費(fèi)者的吸引力,又希望通過(guò)自研抓住端側(cè)大模型,守住數(shù)據(jù)護(hù)城河,是進(jìn)可攻、退可守的大模型策略。

我們預(yù)計(jì),隨著云端大模型的性能、能力在非線(xiàn)性增長(zhǎng),終端廠(chǎng)商的純端側(cè)大模型,會(huì)被拉開(kāi)越來(lái)越大的差距,無(wú)法成為消費(fèi)者的購(gòu)買(mǎi)決策依據(jù)。

不遠(yuǎn)的將來(lái),能否在設(shè)備側(cè)整合優(yōu)質(zhì)云端大模型生態(tài),會(huì)成為AI終端設(shè)備的賽點(diǎn)。

總結(jié)一下就是,端側(cè)大模型,終端廠(chǎng)商可以做,但沒(méi)必要。云側(cè)大模型,終端廠(chǎng)商必須有,且得比人強(qiáng)。

深度協(xié)作的不只大模型還有兩類(lèi)廠(chǎng)商

在一次與華為終端的交流中,對(duì)方提到:華為是唯一一個(gè)云側(cè)通用大模型、端側(cè)大模型全自研的終端廠(chǎng)商(指盤(pán)古大模型),這給AI硬件奠定了很好的基礎(chǔ)。比如要完成一個(gè)復(fù)雜的AIGC任務(wù),可以拆分為云、端、邊緣等并行訓(xùn)練,兼顧推理效果、運(yùn)行速度、數(shù)據(jù)安全等。

需要說(shuō)明的是,上述思路仍處于概念驗(yàn)證階段,目前我們還未能在華為終端設(shè)備上體驗(yàn)到盤(pán)古大模型從云到端的深度整合。但這一理念,在邏輯上確實(shí)是說(shuō)得通的——通過(guò)端云高效協(xié)同,可以建立起無(wú)短板的大模型產(chǎn)品力,打動(dòng)AI硬件的潛在消費(fèi)者,而這離不開(kāi)終端廠(chǎng)商和通用大模型廠(chǎng)商的深度合作。

端側(cè)大模型和云側(cè)通用大模型全自有的終端企業(yè),確實(shí)具備緊密融合的先天優(yōu)勢(shì),不過(guò),其他廠(chǎng)商也可以通過(guò)開(kāi)放生態(tài)補(bǔ)足,形成一個(gè)更全面的模型生態(tài)。

這對(duì)雙方來(lái)說(shuō),是一件互利共贏的事情:

通用大模型廠(chǎng)商,需要借助終端廠(chǎng)商的龐大設(shè)備生態(tài),作為大模型落地的土壤,回收基座模型的龐大投入。借助端側(cè)的設(shè)備數(shù)據(jù),更好地解決大模型的幻覺(jué)問(wèn)題,推動(dòng)模型進(jìn)化。

而終端廠(chǎng)商,需要通用大模型(尤其是尖端版本的云端大模型)作為體驗(yàn)支撐,為用戶(hù)提供最先進(jìn)的AIGC應(yīng)用和體驗(yàn),避免在基座模型上投入太高的研發(fā)成本,也避免在AI體驗(yàn)上被其他終端廠(chǎng)商拉大。

在此基礎(chǔ)上,終端廠(chǎng)商和云端通用大模型廠(chǎng)商還要抓緊解決的重點(diǎn)問(wèn)題:

安全問(wèn)題。如何在保證隱私數(shù)據(jù)的基礎(chǔ)上,學(xué)習(xí)設(shè)備數(shù)據(jù),明確數(shù)據(jù)權(quán)益與責(zé)任歸屬,對(duì)數(shù)據(jù)產(chǎn)生的商業(yè)收益建立合理的分配機(jī)制。

開(kāi)發(fā)者分利政策。無(wú)論是手機(jī)的AI應(yīng)用,還是云端大模型的AI應(yīng)用,都需要開(kāi)發(fā)者來(lái)完成。終端開(kāi)發(fā)者生態(tài)和大模型開(kāi)發(fā)者生態(tài)的進(jìn)一步打通,也會(huì)增加對(duì)開(kāi)發(fā)者的吸引力,加速AI應(yīng)用的孵化。那么,如何共同賦能并分利給開(kāi)發(fā)者,將成為兩類(lèi)廠(chǎng)商合作與博弈的關(guān)鍵。

今年上半年,我們見(jiàn)證了通用大模型的諸多突破,留給端側(cè)大模型的時(shí)間已經(jīng)不多了,留給終端廠(chǎng)商構(gòu)建大模型共同體生態(tài)的機(jī)會(huì)窗口期,也并不會(huì)太久。

下半年,我們或?qū)⒁?jiàn)證一場(chǎng)“終端廠(chǎng)商+大模型廠(chǎng)商”攜手的“陣營(yíng)戰(zhàn)”。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。