正在閱讀:

大模型燒錢不止,“小模型”能否率先盈利?

掃一掃下載界面新聞APP

大模型燒錢不止,“小模型”能否率先盈利?

更小的參數(shù)意味著更低的部署門檻和使用成本,某種程度上有助于解決云側(cè)模型耗能、算力等成本居高不下的問題。

圖:匡達

界面新聞記者 | 李京亞

界面新聞編輯 | 宋佳楠

馬斯克的Neuralink想把芯片植入完全健康的人類大腦,但一些大模型公司想最先“征服”智能手機。

近日,國內(nèi)大語言模型創(chuàng)業(yè)公司面壁智能推出了只有20億參數(shù)量級的端側(cè)語言模型面壁MiniCPM,希望“以小博大”。參數(shù)量級是衡量模型規(guī)模和潛在學習能力的一項關(guān)鍵指標。

雖然目前大模型評測難以形成統(tǒng)一標準,且缺少公開的提示詞和測試代碼,但面壁智能研究團隊發(fā)表論文稱,其小模型MiniCPM的性能超越或與市面上大部分70億規(guī)模大模型持平,超越了部分百億參數(shù)以上大模型。

這與全行業(yè)正在給予小模型的高關(guān)注度相吻合,尤其是小模型在智能手機、嵌入式系統(tǒng)等邊緣設備上展現(xiàn)出天然應用優(yōu)勢之后。

圖源:面壁智能
面壁智能聯(lián)合創(chuàng)始人劉知遠表示,在Mistral-6B的同一模型水平下,面壁智能團隊的模型參數(shù)量是最小的。這或許意味著模型的效率被提升到了最高水平。

邊緣設備通常只有有限的計算能力和存儲空間,無法有效地運行大型語言模型。當手機廠商僅靠硬件難以實現(xiàn)差異化時,他們希望把大模型塞進手機,成為移動設備的又一賣點。更重要的是,這些大模型主要依托于云計算,例如OpenAI的ChatGPT使用了微軟的云服務。

為擺脫對OpenAI的依賴,去年6月,微軟便發(fā)布論文證明,13億參數(shù)的模型也能具備非常良好的性能,此后這家公司集中開發(fā)了Phi系列小模型。同樣看到小模型在降本和提高業(yè)務效益方面潛力的還有谷歌和Stability AI,他們紛紛在小模型上發(fā)力。

急需找到新增長曲線的手機廠商如華為、OPPO和vivo,已經(jīng)在去年下半年開始部署端側(cè)模型,只是模型適配尺寸暫不統(tǒng)一,如榮耀是把端側(cè)模型參數(shù)局限在70億之上,小米則是13億。

據(jù)面壁智能團隊透露,MiniCPM已經(jīng)跑通了國際主流手機品牌和終端CPU芯片,目前正與多家終端廠商溝通,探討將MiniCPM落地的各種可能。該團隊還表示,將完全開源MiniCPM-2B的模型參數(shù)供學術(shù)研究和有限商用。

面壁智能此番新增一項功能——將多模態(tài)能力集中在MiniCPM里面,也算開創(chuàng)了行業(yè)另一先河。 圖源:面壁智能 

更小的參數(shù)意味著更低的部署門檻和使用成本,某種程度上有助于解決云側(cè)模型耗能、算力等成本居高不下的問題。

據(jù)面壁智能CEO李大海介紹,MiniCPM的單個模型成本較低,原因是足夠小的參數(shù)能夠?qū)崿F(xiàn)推理成本的斷崖式下跌,甚至可以實現(xiàn)CPU推理,只需一臺機器持續(xù)參數(shù)訓練,一張顯卡進行參數(shù)微調(diào),同時也有持續(xù)改進的成本空間。

不過,業(yè)界對大模型端側(cè)部署還有些重要問題尚未達成共識,比如手機上跑大模型到底有什么用?到底能跑多大的模型?

為探究大模型在手機上的真實使用場景,阿里前副總裁、人工智能科學家賈揚清的整體感受是,做信息提取跟信息摘要效果較好,而涉及創(chuàng)作、展示創(chuàng)造的東西,則需要更大的模型承載,“大家會覺得在云端跑更好”。

對前述問題,力推端側(cè)模型的面壁智能也不能給出明確答案。在李大??磥恚Z揚清的觀點屬于某個具體時點看到的特定現(xiàn)象,但伴隨著大模型的快速發(fā)展,端側(cè)模型能力邊界有了極大提升,這些論斷就有可能不成立。

“我們不會對手機大模型的應用場景設限,因為其本身就是通用人工智能?!鼻迦A大學長聘副教授、面壁智能聯(lián)合創(chuàng)始人劉知遠表示,在為系統(tǒng)提供穩(wěn)定接口之后,會解鎖很多新玩法,比如訂餐與旅游。像蘋果Siri能做的事情,都可以作為端側(cè)大語言模型驅(qū)動的應用。

他判斷端側(cè)大模型有極大可用潛力,因為其不像云端模型一樣要跟隱私數(shù)據(jù)進行交互,可以高度保護個人隱私。未來大模型會是云端共存、云端協(xié)同的模式,而他們希望探索模型性能的天花板。

這家創(chuàng)立于2022年的公司,創(chuàng)始成員全部來自清華大學自然語言處理NLP實驗室。

早在2019年,已經(jīng)在科學界聲名鵲起的劉知遠決定把清華NLP實驗室的研究方向從傳統(tǒng)NLP命題中撤出,全面圍繞大模型領(lǐng)域展開。2020年底,劉知遠、曾國洋(現(xiàn)任面壁智能CTO)帶領(lǐng)的面壁早期核心團隊發(fā)布了首個中文大語言模型CPM-1,三年時間內(nèi)陸續(xù)發(fā)布了CPM-2(110億參數(shù))、CPM-3、CPM-Ant、CPM-Bee等模型。

后來公司開始向商業(yè)化轉(zhuǎn)型,并以實現(xiàn)AGI(通用人工智能)為長遠目標?!癆GI的實現(xiàn)需要我們做什么,我們就做什么。”劉知遠稱。

去年4月,知乎官宣了與面壁智能的合作。6月,知乎CTO李大海出任面壁智能董事和CEO,開始全面負責后者的戰(zhàn)略發(fā)展和日常管理。

同在4月,面壁智能完成了由知乎獨家投資的千萬人民幣級別天使輪融資,這是其迄今為止唯一一輪融資。在國內(nèi)基礎(chǔ)大模型領(lǐng)域競爭中,這家公司需要面對Minimax、百川智能、智譜AI、零一萬物和月之暗面等實力強勁的對手。

當下,面壁智能不僅需要證明自己的技術(shù),還需要證明技術(shù)給產(chǎn)品帶來的好處,因為大模型投資人正在密切關(guān)注商業(yè)變現(xiàn)。

自去年6月開始,國內(nèi)AIGC領(lǐng)域整體投融資趨冷,而在硅谷,一大批AIGC新興初創(chuàng)開始死去。

日前,AI搜索引擎新貴Perplexity CEO表示,AI創(chuàng)業(yè)公司應該先做產(chǎn)品,后做模型,成為一個擁有十萬用戶的套殼產(chǎn)品比擁有自有模型卻沒有用戶更有意義。目前,這家公司正在跟谷歌叫板。

李大海對這一觀點部分認同。他告訴界面新聞,大模型公司有兩種思路“可行”:產(chǎn)品能力更強的公司,模型一側(cè)可以先置空;模型能力更強的,可以后面再做商業(yè)化。大模型既是技術(shù),也是產(chǎn)品,關(guān)鍵是要盡快形成數(shù)據(jù)飛輪,建立模型跟應用的閉環(huán)。

據(jù)他透露,面壁智能的商業(yè)收入以金融、營銷領(lǐng)域的大型企業(yè)客戶為主,端側(cè)大模型的商業(yè)模式則還在探索之中。

不過,據(jù)界面新聞記者了解,華為、OPPO、vivo等主流手機廠商都在自研端側(cè)大模型。像榮耀與百度文心一言盡管有合作,也多是在前者自有端側(cè)模型上提供輔助支持,完全使用外部端側(cè)大模型的案例仍然很少。

而且在現(xiàn)實中,大模型頭部廠商想在短時間內(nèi)做好端側(cè)應用并不容易。

一位大語言模型產(chǎn)品經(jīng)理表示,大模型頭部廠商有能力用較低成本在端側(cè)模型上取得更好效果,但在挖掘場景方面欠缺經(jīng)驗。具備大模型技術(shù)積累的手機廠商一樣有機會做出好的應用。

這也意味著,在徹底解決隱私安全等一系列問題之前,面壁智能想要說服手機廠商大范圍使用其產(chǎn)品并不容易。

未經(jīng)正式授權(quán)嚴禁轉(zhuǎn)載本文,侵權(quán)必究。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

大模型燒錢不止,“小模型”能否率先盈利?

更小的參數(shù)意味著更低的部署門檻和使用成本,某種程度上有助于解決云側(cè)模型耗能、算力等成本居高不下的問題。

圖:匡達

界面新聞記者 | 李京亞

界面新聞編輯 | 宋佳楠

馬斯克的Neuralink想把芯片植入完全健康的人類大腦,但一些大模型公司想最先“征服”智能手機。

近日,國內(nèi)大語言模型創(chuàng)業(yè)公司面壁智能推出了只有20億參數(shù)量級的端側(cè)語言模型面壁MiniCPM,希望“以小博大”。參數(shù)量級是衡量模型規(guī)模和潛在學習能力的一項關(guān)鍵指標。

雖然目前大模型評測難以形成統(tǒng)一標準,且缺少公開的提示詞和測試代碼,但面壁智能研究團隊發(fā)表論文稱,其小模型MiniCPM的性能超越或與市面上大部分70億規(guī)模大模型持平,超越了部分百億參數(shù)以上大模型。

這與全行業(yè)正在給予小模型的高關(guān)注度相吻合,尤其是小模型在智能手機、嵌入式系統(tǒng)等邊緣設備上展現(xiàn)出天然應用優(yōu)勢之后。

圖源:面壁智能
面壁智能聯(lián)合創(chuàng)始人劉知遠表示,在Mistral-6B的同一模型水平下,面壁智能團隊的模型參數(shù)量是最小的。這或許意味著模型的效率被提升到了最高水平。

邊緣設備通常只有有限的計算能力和存儲空間,無法有效地運行大型語言模型。當手機廠商僅靠硬件難以實現(xiàn)差異化時,他們希望把大模型塞進手機,成為移動設備的又一賣點。更重要的是,這些大模型主要依托于云計算,例如OpenAI的ChatGPT使用了微軟的云服務。

為擺脫對OpenAI的依賴,去年6月,微軟便發(fā)布論文證明,13億參數(shù)的模型也能具備非常良好的性能,此后這家公司集中開發(fā)了Phi系列小模型。同樣看到小模型在降本和提高業(yè)務效益方面潛力的還有谷歌和Stability AI,他們紛紛在小模型上發(fā)力。

急需找到新增長曲線的手機廠商如華為、OPPO和vivo,已經(jīng)在去年下半年開始部署端側(cè)模型,只是模型適配尺寸暫不統(tǒng)一,如榮耀是把端側(cè)模型參數(shù)局限在70億之上,小米則是13億。

據(jù)面壁智能團隊透露,MiniCPM已經(jīng)跑通了國際主流手機品牌和終端CPU芯片,目前正與多家終端廠商溝通,探討將MiniCPM落地的各種可能。該團隊還表示,將完全開源MiniCPM-2B的模型參數(shù)供學術(shù)研究和有限商用。

面壁智能此番新增一項功能——將多模態(tài)能力集中在MiniCPM里面,也算開創(chuàng)了行業(yè)另一先河。 圖源:面壁智能 

更小的參數(shù)意味著更低的部署門檻和使用成本,某種程度上有助于解決云側(cè)模型耗能、算力等成本居高不下的問題。

據(jù)面壁智能CEO李大海介紹,MiniCPM的單個模型成本較低,原因是足夠小的參數(shù)能夠?qū)崿F(xiàn)推理成本的斷崖式下跌,甚至可以實現(xiàn)CPU推理,只需一臺機器持續(xù)參數(shù)訓練,一張顯卡進行參數(shù)微調(diào),同時也有持續(xù)改進的成本空間。

不過,業(yè)界對大模型端側(cè)部署還有些重要問題尚未達成共識,比如手機上跑大模型到底有什么用?到底能跑多大的模型?

為探究大模型在手機上的真實使用場景,阿里前副總裁、人工智能科學家賈揚清的整體感受是,做信息提取跟信息摘要效果較好,而涉及創(chuàng)作、展示創(chuàng)造的東西,則需要更大的模型承載,“大家會覺得在云端跑更好”。

對前述問題,力推端側(cè)模型的面壁智能也不能給出明確答案。在李大海看來,賈揚清的觀點屬于某個具體時點看到的特定現(xiàn)象,但伴隨著大模型的快速發(fā)展,端側(cè)模型能力邊界有了極大提升,這些論斷就有可能不成立。

“我們不會對手機大模型的應用場景設限,因為其本身就是通用人工智能?!鼻迦A大學長聘副教授、面壁智能聯(lián)合創(chuàng)始人劉知遠表示,在為系統(tǒng)提供穩(wěn)定接口之后,會解鎖很多新玩法,比如訂餐與旅游。像蘋果Siri能做的事情,都可以作為端側(cè)大語言模型驅(qū)動的應用。

他判斷端側(cè)大模型有極大可用潛力,因為其不像云端模型一樣要跟隱私數(shù)據(jù)進行交互,可以高度保護個人隱私。未來大模型會是云端共存、云端協(xié)同的模式,而他們希望探索模型性能的天花板。

這家創(chuàng)立于2022年的公司,創(chuàng)始成員全部來自清華大學自然語言處理NLP實驗室。

早在2019年,已經(jīng)在科學界聲名鵲起的劉知遠決定把清華NLP實驗室的研究方向從傳統(tǒng)NLP命題中撤出,全面圍繞大模型領(lǐng)域展開。2020年底,劉知遠、曾國洋(現(xiàn)任面壁智能CTO)帶領(lǐng)的面壁早期核心團隊發(fā)布了首個中文大語言模型CPM-1,三年時間內(nèi)陸續(xù)發(fā)布了CPM-2(110億參數(shù))、CPM-3、CPM-Ant、CPM-Bee等模型。

后來公司開始向商業(yè)化轉(zhuǎn)型,并以實現(xiàn)AGI(通用人工智能)為長遠目標?!癆GI的實現(xiàn)需要我們做什么,我們就做什么。”劉知遠稱。

去年4月,知乎官宣了與面壁智能的合作。6月,知乎CTO李大海出任面壁智能董事和CEO,開始全面負責后者的戰(zhàn)略發(fā)展和日常管理。

同在4月,面壁智能完成了由知乎獨家投資的千萬人民幣級別天使輪融資,這是其迄今為止唯一一輪融資。在國內(nèi)基礎(chǔ)大模型領(lǐng)域競爭中,這家公司需要面對Minimax、百川智能、智譜AI、零一萬物和月之暗面等實力強勁的對手。

當下,面壁智能不僅需要證明自己的技術(shù),還需要證明技術(shù)給產(chǎn)品帶來的好處,因為大模型投資人正在密切關(guān)注商業(yè)變現(xiàn)。

自去年6月開始,國內(nèi)AIGC領(lǐng)域整體投融資趨冷,而在硅谷,一大批AIGC新興初創(chuàng)開始死去。

日前,AI搜索引擎新貴Perplexity CEO表示,AI創(chuàng)業(yè)公司應該先做產(chǎn)品,后做模型,成為一個擁有十萬用戶的套殼產(chǎn)品比擁有自有模型卻沒有用戶更有意義。目前,這家公司正在跟谷歌叫板。

李大海對這一觀點部分認同。他告訴界面新聞,大模型公司有兩種思路“可行”:產(chǎn)品能力更強的公司,模型一側(cè)可以先置空;模型能力更強的,可以后面再做商業(yè)化。大模型既是技術(shù),也是產(chǎn)品,關(guān)鍵是要盡快形成數(shù)據(jù)飛輪,建立模型跟應用的閉環(huán)。

據(jù)他透露,面壁智能的商業(yè)收入以金融、營銷領(lǐng)域的大型企業(yè)客戶為主,端側(cè)大模型的商業(yè)模式則還在探索之中。

不過,據(jù)界面新聞記者了解,華為、OPPO、vivo等主流手機廠商都在自研端側(cè)大模型。像榮耀與百度文心一言盡管有合作,也多是在前者自有端側(cè)模型上提供輔助支持,完全使用外部端側(cè)大模型的案例仍然很少。

而且在現(xiàn)實中,大模型頭部廠商想在短時間內(nèi)做好端側(cè)應用并不容易。

一位大語言模型產(chǎn)品經(jīng)理表示,大模型頭部廠商有能力用較低成本在端側(cè)模型上取得更好效果,但在挖掘場景方面欠缺經(jīng)驗。具備大模型技術(shù)積累的手機廠商一樣有機會做出好的應用。

這也意味著,在徹底解決隱私安全等一系列問題之前,面壁智能想要說服手機廠商大范圍使用其產(chǎn)品并不容易。

未經(jīng)正式授權(quán)嚴禁轉(zhuǎn)載本文,侵權(quán)必究。