文|光錐智能 藝思
編輯|王一粟
十年后,國內(nèi)云廠商又打起來了!
近一個月,國內(nèi)云廠商掀起了新一輪的大模型降價潮。這意味著AI競爭已經(jīng)不僅僅是一場軍備技術(shù)競賽這么簡單,各頭部廠商也在考慮如何賺錢了。
在這場價格戰(zhàn)中,包括火山引擎、阿里,還有智譜AI、面壁智能這樣的明星創(chuàng)業(yè)團隊都卷了進來。各家看似是在降價,其實是想通過比低價,快速搶占市場,從而實現(xiàn)商業(yè)化的快速落地。
從卷大模型技術(shù)到卷價格
在眾人看來,可能頭部大廠最具降價的底氣和實力,因為大廠的業(yè)務(wù)比較多,就算AI業(yè)務(wù)虧錢,也可通過其他業(yè)務(wù)來彌齊,但有關(guān)大模型價格戰(zhàn)的發(fā)起人卻是明星創(chuàng)業(yè)團隊——智譜AI。
5月11日,智譜AI大模型開放平臺上線了新的價格體系,新注冊用戶獲得額度從500萬tokens 提升至2500萬tokens,并且個人版 GLM-3Turbo模型產(chǎn)品的調(diào)用價格從5元/百萬tokens降低至1元 / 百萬tokens,足足降了5倍。但這還不夠,GLM-3 Turbo Batch 批處理 API也便宜了50%,價格為1元 /200萬tokens。
4天后,火山引擎放出一記重彈,宣布豆包Pro 32k模型定價是0.8厘/千tokens,這個價格比行業(yè)降低了99.3%,此外,豆包Pro 128k模型定價是5厘錢/千tokens。與行業(yè)模型比,價格足足降低了95.8%。
這則消息一經(jīng)放出,整個AI圈都不淡定了。有人稱,火山引擎將大模型帶入到了“厘時代”。
我們算一筆賬,以主力模型32k窗口為例,1塊錢可以從GPT買到2400個token,如果選擇國內(nèi)模型,大概能得到8000多個token。如果用開源Llama自己搭建,大概可以獲得3萬個token。但通過豆包模型,1塊錢就能獲得125萬個token。這是什么概念?相信《三國演義》很多人都讀過,共計75萬字,換算過來,也就是1塊錢能處理3本《三國演義》的文字量。
與其他大模型比起來,火山引擎簡直是白菜價,幾乎等于不要錢??梢哉f,火山引擎此次降價,將大模型價格戰(zhàn)推向了高潮。
火山引擎發(fā)布會后的兩天,騰訊集團高級執(zhí)行副總裁、云與智慧產(chǎn)業(yè)事業(yè)群CEO 湯道生在騰訊云生成式AI產(chǎn)業(yè)應(yīng)用峰會上介紹了混元大模型的技術(shù)、性能、安全、使用門檻低等特點,雖然沒有公開介紹價格。但據(jù)騰訊云官網(wǎng)顯示,混元大模型可以為首次使用者提供10萬tokens的文本生成模型免費體驗額度,有效期為1年。而在tokens資源包的價格方面,窗口尺寸為32K的hunyuan-standard模型和hunyuan-pro模型,它們的模型推理輸入價格分別為0.0069元/千tokens和0.069元/千tokens,兩者均為刊例價的6.9折。
與此前比,價格明顯降低了。據(jù)騰訊云官網(wǎng)一份更新于5月14日的計費信息顯示,混元大模型標(biāo)準(zhǔn)版(hunyuan-standard的前身)和高級版(hunyuan-pro的前身)此前的模型推理輸入價格分別為0.012元/千tokens和0.12元/千tokens。
雖然幾家大廠中,阿里云的降價策略還不明顯,但早在今年2月29日,其就釋放出一個降價的信號,堪稱阿里云史上力度最大的降價,本次降價涉及100多款產(chǎn)品、500多個產(chǎn)品規(guī)格。其中,云服務(wù)器ECS最高降36%、對象存儲OSS最高降55%、云數(shù)據(jù)庫RDS最高降40%,而這三項都是用戶使用頻率最高的產(chǎn)品。
從阿里云的降價清單中不難看出,降價的主力是傳統(tǒng)云計算產(chǎn)品,雖然不涉及大模型,諸如GPU的AI訓(xùn)練和推理算力。但云和大模型的發(fā)展是相輔相成的,由此可以推斷,在大模型這波價格戰(zhàn)中,未來阿里云甚至更多大模型廠商很可能會加入進來,只不過各家的節(jié)奏不同。
反觀過去一年OpenAI的動作,降價似乎一直是其主線任務(wù)。自去年以來,OpenAI已經(jīng)進行了4次降價。在剛剛結(jié)束的春季發(fā)布會上,OpenAI宣布了其最新模型GPT-4o,不僅性能有大幅提升,價格也下調(diào)了50%。
大模型價格戰(zhàn)的序幕已然揭開了。
價格戰(zhàn),意欲何為?
目前,國產(chǎn)大模型的價格戰(zhàn)正在如火如荼的進行中。
有人難免發(fā)問:大模型本就是一個高投入、低產(chǎn)出的行業(yè),為什么要打價格戰(zhàn)?
結(jié)論非常簡單:“加快商業(yè)化落地。”
從去年下半年開始,大模型已經(jīng)開始從“卷大模型技術(shù)”向“卷大模型應(yīng)用”轉(zhuǎn)變。2024 年,商業(yè)化、落地應(yīng)用將成為大模型公司的主旋律。
最新的《中國大模型中標(biāo)項目監(jiān)測報告》顯示,今年 1-4 月,可統(tǒng)計到的大模型相關(guān)中標(biāo)金額已達(dá)到 2023 年全年披露金額的 77% 左右,涉及政務(wù)、金融、運營商、能源、教科、交通等各行各業(yè),表明企業(yè)對大模型的應(yīng)用需求正快速增長。
面對商業(yè)化,為何如此急切?
原因有二。一是,大模型研發(fā)成本越來越高。眾所周知,算力一直是國產(chǎn)大模型發(fā)展的掣肘。一方面,目前全球的算力技術(shù),美國占據(jù)了全球近9成的算力市場份額,幾乎被其壟斷。相比之下,中國算力荒的現(xiàn)象越來越嚴(yán)峻。
據(jù)相關(guān)數(shù)據(jù),中國目前的算力需求量約為每年1.5億臺的服務(wù)器,而中國的算力供給量僅為每年3000萬臺的服務(wù)器,缺口達(dá)到了1.2億臺,占到了全球算力缺口的80%。與之而來的是,算力租賃服務(wù)的水漲船高。其中,并濟科技、中貝通信、匯納科技等公司宣布算力服務(wù)收費大幅上漲,導(dǎo)致大模型研發(fā)成本進一步提升。
在巨大的成本壓力下,大模型廠商不得不加緊尋找一條商業(yè)化之路。
二是,大模型技術(shù)已經(jīng)卷的差不多了,通用模型具備的是通識能力,是不能解決特定行業(yè)特定場景的實際問題的,只有一項技術(shù)被成功大規(guī)模商用才是真正的成功,顯然,經(jīng)過一年的技術(shù)比拼,已經(jīng)到了驗證的階段。
為了加快大模型的商業(yè)化落地,國內(nèi)各企業(yè)紛紛行動起來。目前大模型的商業(yè)化落地大致有兩種路徑:一是API調(diào)用,二是,私有化部署。
API調(diào)用是最常見的落地方式。智譜AI自研的第四代基座大模型 GLM-4的調(diào)用價格仍為0.1元/千 tokens,百萬tokens的價格為100元,通義千問相對低,但qwen-72b-chat的調(diào)用價格也在0.02元/千tokens,OpenAI的GPT-4 Turbo 每100萬tokens輸入/輸出價格分別是10/30美元。
從短期來看,雖然成本不高,但對于需求量較大的用戶和行業(yè)來說,就顯得不是很友好了。
而私有化部署就更貴了。截至目前,國內(nèi)沒有一家廠商披露具體的大模型訓(xùn)練成本,但從多位行業(yè)人士口中得出,大模型的研發(fā)成本遠(yuǎn)比想象中高的多,動輒成千上百萬,甚至需要以“億”來計算。
華為大模型負(fù)責(zé)人田奇曾提到,大模型開發(fā)和訓(xùn)練一次需要約1200萬美元,這表明即使技術(shù)再領(lǐng)先的公司,大模型的訓(xùn)練也是非常昂貴的。
百川智能創(chuàng)始人CEO王小川也曾表示,每1億參數(shù)對應(yīng)訓(xùn)練成本在1.5到3萬人民幣之間。因此,一個千億級參數(shù)的模型單次訓(xùn)練成本預(yù)估在三千萬至五千萬人民幣之間。Anthropic的首席執(zhí)行官Dario Amodei也預(yù)測過,未來兩年內(nèi)模型成本將達(dá)到100億美元。
顯然,API調(diào)用和研發(fā)的高昂價格,已經(jīng)成了AI商業(yè)化的枷鎖。久而久之,大模型就變成了有錢人的游戲,肯定不利于大規(guī)模商業(yè)化。
而價格戰(zhàn)就成了最直接且最快速的落地方式。但并不是所有企業(yè)都能加入進來,因為只有把大模型的研發(fā)成本盡可能的降低到最小,才有降價的空間和資本。
如前文所述,大模型最大的研發(fā)成本是算力,所以很多廠商往往會通過提高大模型的訓(xùn)練效率、降低推理成本兩種手段來降本。
中國工程院院士鄭緯民曾做過這樣的計算,在大模型訓(xùn)練的過程中,70%的開銷要花在算力上;推理過程中95%的花費也是在算力上。為何在推理上做文章,也就不言而喻了。
比如微軟在Microsoft Build 2020 上,公開了為GPT-3提供支持的AI supercomputing超級計算機,其可以讓大模型的訓(xùn)練效率比其他平臺高16倍,從而降低時間成本與風(fēng)險成本。
國產(chǎn)大模型也不例外。盤古大模型早在2.0版本中,就嘗試用稀疏+稠密架構(gòu),來降低訓(xùn)練成本。文心一言推出一個月后,也通過技術(shù)手段將大模型的推理性能提升近10倍,推理成本降到原來的十分之一。
阿里云通義大模型則聚焦于規(guī)模定理,基于小模型數(shù)據(jù)分布、規(guī)則和配比,研究大規(guī)模參數(shù)規(guī)模下如何提升模型能力,并通過對底層靈駿集群的優(yōu)化,將模型訓(xùn)練效率提升了30%,訓(xùn)練穩(wěn)定性提升了15%。
而騰訊選擇了一條不同于百度和阿里的路子,其將機器學(xué)習(xí)框架Angel、訓(xùn)練以及推理框架進行迭代升級,其中,Angel可以將大模型訓(xùn)練效率提升至主流開源框架的2.6倍,千億級大模型訓(xùn)練可節(jié)省50%算力成本。
訓(xùn)練框架方面,騰訊自研機器學(xué)習(xí)訓(xùn)練框架AngelPTM,可針對預(yù)訓(xùn)練、模型精調(diào)和強化學(xué)習(xí)等全流程進行加速和優(yōu)化,實現(xiàn)以更少的資源和更快的速度訓(xùn)練更大的模型;推理方面,騰訊推出大模型推理框架AngelHCF,通過擴展并行能力,實現(xiàn)更快的推理性能和更低成本,相較于業(yè)界主流框架,其推理速度提高了1.3倍。
競速大模型商業(yè)化,云廠商亮劍
觀察下來,阿里、騰訊、字節(jié)的商業(yè)化路徑基本趨同,即“迭代通用模型的能力+構(gòu)建完整的生態(tài)+研發(fā)創(chuàng)新型AI產(chǎn)品”,但也有不同的側(cè)重點。
持續(xù)迭代大模型能力,是大模型商業(yè)化的前提。
去年至今,國內(nèi)幾家大廠都在持續(xù)迭代大模型的能力,百度先發(fā)制人于去年3月推出文心一言,目前文心大模型已經(jīng)迭代至4.0版本,同時還推出了多個輕量級大語言模型。其后是阿里,去年4月通義千問大模型問世,經(jīng)過2.0、2.1現(xiàn)已迭代至2.5版本。
騰訊算是BAT中最晚的一家,去年9月混元問世。隨后,騰訊并沒有像前兩者一樣,通過迭代新版本來擴大聲量,而是通過技術(shù)能力彰顯其實用性。諸如升級機器學(xué)習(xí)框架Angel、機器學(xué)習(xí)訓(xùn)練框架AngelPTM以及大模型推理框架AngelHCF。另外,騰訊前段時間還開源了文生圖大模型,包括后續(xù)文生視頻能力的升級,通過這一些列動作讓大模型滲透到千行百業(yè)。
而字節(jié)算是最特殊的一家,其僅用一年的時間就將豆包模型從1.0進化到了3.0,而從今年火山引擎發(fā)布的豆包模型家族中看,不僅包括兩款通用模型 pro、lite,還推出了7款功能性模型,涵蓋角色扮演、語音識別、語音合成、聲音復(fù)刻、文生圖等方面。說明火山引擎未來將深入到不同行業(yè)不同場景。
眾所周知,調(diào)用量的大小會直接影響模型的效果,在這方面,目前文心大模型日調(diào)用量達(dá)到2億,通義大模型也已過億,字節(jié)豆包大模型的日調(diào)用量達(dá)到1200億tokens(約1800億漢字)。
強生態(tài),是大模型商業(yè)化的加速器。
生態(tài)構(gòu)建方面,幾家大廠包括百度、阿里、字節(jié)火山引擎等都采取了一個相同的路徑——構(gòu)建大模型平臺,不僅提供自家模型服務(wù)還接入了第三方開源大模型,方便客戶按需調(diào)用。諸如百度智能云千帆大模型平臺,阿里的百煉平臺、騰訊元器以及火山引擎的方舟平臺。
為了加速大模型滲透,拓展商業(yè)化市場的空間。阿里堅定開源,去年8月通義開源,之后沿著“全模態(tài)、全尺寸”的開源路線,阿里云開源了 8 款參數(shù)規(guī)模從 5 億到 1100 億的大語言模型。其中,面向端側(cè)設(shè)備,開源了如0.5B、1.8B、4B、7B、14B小尺寸模型;面對企業(yè)級用戶,開源了如72B、110B的大尺寸模型。此外,通義還開源了視覺、音頻、代碼、混合專家模型。
而阿里的開源要追溯到2022年,也就是在大模型爆火的前一年,阿里云就完成了魔搭(ModelScope)社區(qū)的搭建,該社區(qū)推出阿里就把其近五年研發(fā)的 300 多個優(yōu)質(zhì)模型全部開源出來。周靖人還介紹道,魔搭社區(qū)平臺仍在持續(xù)擴大建設(shè),平臺上的高質(zhì)量開源模型總數(shù)已超過 4500 個,開發(fā)者數(shù)量也已超過500 萬。
與阿里一樣,騰訊在大模型商業(yè)化的競逐賽中,同樣選擇了開源路線。不久前,騰訊云全面開源了混元文生圖模型。騰訊混元模型應(yīng)用負(fù)責(zé)人張鋒表示,“在過去非大模型時代,我們就開源了很多項目,在大模型時代做出開源的決定,是最近半年騰訊與客戶接觸過程中得出的結(jié)論?!?/p>
而最早入局的百度卻一直在堅持閉源路線。百度認(rèn)為,閉源大模型能實現(xiàn)比開源大模型性能更好、成本更低的綜合效果,從而促進AI應(yīng)用生態(tài)的繁榮。
AI重構(gòu)內(nèi)部產(chǎn)品,是大廠進行大模型商業(yè)化的第一站。
目前,百度已經(jīng)完成了對百度文庫、百度搜索、百度地圖、如流等業(yè)務(wù)的AI重構(gòu)。阿里則對釘釘、高德地圖、閑魚、餓了么、優(yōu)酷、盒馬、淘票票,天貓、淘寶等阿里集團最核心的產(chǎn)品進行了全面升級。
字節(jié)內(nèi)部也開啟了賽馬機制,抖音、剪映等50多個業(yè)務(wù)線各自為營開始了AI探索,此外,字節(jié)也不改“App工廠”的本色。過去一年里,除了主打的豆包App外,基于豆包大模型,還推出了互動娛樂應(yīng)用“貓箱”,以及星繪、即夢等AI創(chuàng)作工具。
而騰訊作為大模型中最低調(diào)的一家,卻在產(chǎn)品側(cè)表現(xiàn)的尤為不低調(diào)。秉持著產(chǎn)業(yè)實用的原則,自去年9月混元上線以來,騰訊就將內(nèi)部產(chǎn)品的AI化改造作為重點工作推進,目前,混元大模型已經(jīng)在超600個騰訊內(nèi)部業(yè)務(wù)和場景中落地。包括企業(yè)微信、騰訊會議、騰訊文檔等“一門三杰”產(chǎn)品,也包括騰訊樂享、騰訊電子簽、騰訊問卷、騰訊云AI代碼助手等協(xié)作SaaS產(chǎn)品。
加速行業(yè)滲透,大模型商業(yè)化的最后一公里。
無論是通用模型還是行業(yè)模型,最終的落地其實就是要解決特定行業(yè)、特定場景下的實際難題。當(dāng)然在行業(yè)的選擇上,有交叉,也有不同的方向。
基于文心大模型,百度率先重構(gòu)了數(shù)字政府、金融、工業(yè)、交通四大行業(yè)解決方案;依托騰訊云TI平臺,騰訊云打造了行業(yè)大模型精選商店,覆蓋金融、文旅、政務(wù)、傳媒、教育等十個行業(yè),可提供超50個解決方案。同時,騰訊云還攜手17家來自不同行業(yè)的生態(tài)伙伴,發(fā)起了“騰訊云行業(yè)大模型生態(tài)計劃”,致力于共同推進大模型在產(chǎn)業(yè)領(lǐng)域的創(chuàng)新和落地。
阿里也于去年發(fā)布了8個行業(yè)大模型,覆蓋金融、醫(yī)療、法律、編程、個性化創(chuàng)作等領(lǐng)域。
而據(jù)信息顯示,目前火山引擎已經(jīng)與吉利汽車、長城汽車、捷途汽車、賽力斯、智己汽車等20余家廠商成立了汽車大模型生態(tài)聯(lián)盟。同時,還與OPPO、vivo、榮耀、小米及華碩等終端廠商共同成立了智能終端大模型聯(lián)盟。由此推斷,火山引擎很可能率先這兩個行業(yè)作為抓手,待成熟后再向其他行業(yè)滲透。
結(jié)語
經(jīng)過一年的時間,大模型的競爭已經(jīng)從卷大模型技術(shù)本身,過渡到了卷大模型商業(yè)化的階段。
如大模型研發(fā)一樣,大模型的商業(yè)化落地同樣不是一件易事,前者考驗的更多的是技術(shù)和資本,而后者在前者的基礎(chǔ)上,還需要根據(jù)不同行業(yè)、不同的業(yè)務(wù)場景,對大模型進行微調(diào),從而提供一款真正能為企業(yè)所需的大模型服務(wù)。
目前,各大模型廠商紛紛亮劍,但這只是開始,接下來很長一段時間內(nèi),各頭部將持續(xù)圍繞如何加快大模型落地做文章,競爭的同時,也會把大模型推向一個新的發(fā)展階段。