文|IT時報記者 毛宇
編輯|郝俊慧 孫妍
DeepSeek的“鯰魚效應(yīng)”正在加速。
2月13日,文心一言宣布,4月1日起全面免費,同時上線深度搜索功能。此前,百度基于文心一言 4.0 Turbo推出的專業(yè)版會員服務(wù)定價為59.9元/月。
同日,OpenAI宣布GPT-4.5和GPT-5路線圖更新、模型規(guī)范重大更新,并預(yù)告GPT-4.5和GPT-5將在幾周/幾個月內(nèi)推出,更重要的是,ChatGPT的免費套餐將在標(biāo)準(zhǔn)智能設(shè)置下獲得對GPT-5的無限制聊天訪問權(quán)限。
不過,對于業(yè)內(nèi)更為關(guān)注的API(應(yīng)用程序編程接口)服務(wù)費用,百度和OpenAI卻沒有給出更多信息,當(dāng)C端用戶可以免費獲得越來越好的AI服務(wù)時,開發(fā)者們更希望大模型的算力價格戰(zhàn)來得更猛烈些。
2月9日,DeepSeek-V3宣布,結(jié)束API服務(wù)45天優(yōu)惠期,價格回調(diào)至原價,輸入每百萬Token收費0.5元(緩存命中)至2元(緩存未命中),輸出價格則定為每百萬Token 8元,是優(yōu)惠期的4倍。
不過,在業(yè)內(nèi)人士看來,這個價格“仍然是高性價比”,盡管從2024年5月開始,國內(nèi)各大模型廠商先后展開多輪價格戰(zhàn),但在開發(fā)者看來,只是“噱頭更足”,因為性能強大的高階模型“還是很貴”,DeepSeek的算法架構(gòu)創(chuàng)新和分布式訓(xùn)練優(yōu)化等創(chuàng)新,才真正將價格打下來。
新一輪的大模型價格戰(zhàn),箭在弦上。有分析指出,這場由算法突破驅(qū)動的價格革命,可能重塑全球AI服務(wù)市場格局,加速市場洗牌進(jìn)程。
價格更為敏感的算力市場已暗流涌動,山海引擎COO彭璐告訴《IT時報》記者,國內(nèi)企業(yè)都已經(jīng)在加快提升國產(chǎn)算力部署規(guī)模。不過,基于“DeepSeek的低成本能力,預(yù)計數(shù)據(jù)中心的算力價格不會上漲”。
創(chuàng)新誕生“AI界拼多多”
DeepSeek被稱為“AI界的拼多多”是有道理的。
目前,OpenAI GPT-4o API服務(wù)定價為每百萬輸入Token 1.25美元(緩存命中)(約9.13元人民幣)/ 2.5美元(緩存未命中)(約18.27元人民幣),每百萬輸出Token 10美元(約73.091元人民幣),而Claude 3.5-Sonnet依然是最昂貴的模型,價格高出DeepSeek-V3數(shù)倍。
即便是DeepSeek推理能力更強、性能比肩OpenAI o1正式版的R1模型,每百萬輸入Token 1元(緩存命中)/4元(緩存未命中),每百萬輸出Token 16元的API服務(wù)價格,也幾乎是OpenAI o1同等規(guī)模輸入15美元(約109元人民幣)和輸出60美元(約437元人民幣)的二十分之一到百分之一。
國內(nèi)大模型企業(yè)從2024年5月進(jìn)入降價周期,通義、豆包、Kimi、百度的降幅大多在80%以上,但當(dāng)去年12月DeepSeek發(fā)布V3時,尤其是在45天優(yōu)惠期內(nèi),價格非常香。
“DeepSeek的低價源自成本夠低。”上述AI業(yè)內(nèi)人士表示,DeepSeek采用的MOE模型架構(gòu)并不很新,MiniMax等國內(nèi)廠商也早已開始應(yīng)用,但DeepSeek-V3引入了多頭潛在注意力機制,通過低秩壓縮技術(shù)減少了推理時的Key-Value緩存,顯著提升了推理效率,此外,DeepSeek-R1在做訓(xùn)練時,跳過了傳統(tǒng)訓(xùn)練中的監(jiān)督微調(diào)(SFT)步驟,使用了RL強化學(xué)習(xí)的方法,完全依賴環(huán)境反饋來優(yōu)化模型行為,同樣省去很多算力成本。
大模型算力價格有望普降
沒讓大家失望,“AI界拼多多”果然將價格打下來了。由于DeepSeek完全采用開源模式,這些技術(shù)創(chuàng)新正在被全球人工智能產(chǎn)業(yè)學(xué)習(xí)并復(fù)刻,大模型算力價格有望迎來一次普降。
短短一個多月過去,DeepSeek橫空出世帶來的“鯰魚效應(yīng)”明顯。據(jù)《IT時報》記者觀察,截至目前,已有多家國產(chǎn)大模型廠商推出新的性能比肩DeepSeek-V3的產(chǎn)品,加上優(yōu)惠期結(jié)束,V3已不是絕對的“性價比之王”。
同樣走開源路線的阿里云大模型通義,在2月4日三方基準(zhǔn)測試平臺ChatbotArena公布的最新大模型盲測榜單上,以剛剛發(fā)布的Qwen2.5-Max超越DeepSeek V3、o1-mini和Claude-3.5-Sonnet等模型,成為非推理類的中國大模型冠軍。目前Qwen2.5-Max的API調(diào)用價格還未公布,而在2024年9月發(fā)布的價格表上,通義的上一代旗艦?zāi)P?、性能逼?GPT-4o的Qwen-Max每百萬Token輸入成本為2.4元,輸出成本為每百萬Token9.6元,略高于DeepSeek-V3。
另一家國內(nèi)AI創(chuàng)業(yè)公司MiniMax(稀宇)也于1月15日推出MiniMax-Text-01,基準(zhǔn)測試結(jié)果顯示,性能比肩GPT-4o和Claude-3.5,價格為輸入每百萬Token0.2美元(1.45元人民幣),輸出每百萬Token1.1美元(8元人民幣),和DeepSeek-V3幾乎持平。
當(dāng)然,也有分析人士指出,雖然價格較高,但閉源大模型OpenAI GPT-4o和Claude 3.5-Sonnet在多模態(tài)、泛化能力以及綜合能力上的優(yōu)勢依然存在,不少開發(fā)者暫時還不會放棄。
英偉達(dá)模組出現(xiàn)低價拋售
同時,隨著DeepSeek開源模型的廣泛應(yīng)用,國產(chǎn)GPU服務(wù)商迎來新一輪增長機遇,算力市場格局也正經(jīng)歷深刻變革。
當(dāng)下,國內(nèi)多數(shù)企業(yè)都在自行部署DeepSeek。其中DeepSeek滿血版模型對顯存要求較高,需要1.25臺H100或1臺H200支持,但4位量化版僅需400GB左右的顯存。上述人士透露,有客戶已經(jīng)在國產(chǎn)GPU服務(wù)器上做本地化部署的適配,從成本上來說,雖然仍需數(shù)萬元,但較之前已大幅降低。
據(jù)了解,目前亞馬遜和阿里云平臺已有服務(wù)商在低價拋售H100模組,上述人士分析,此前生成式AI大模型廠商選擇英偉達(dá),是因為其成熟的CUDA生態(tài)和GPU的通用能力,也是當(dāng)時性價比最高的方案,因此大廠爭相堆砌算力資源?!靶×ν瑯右材艹銎孥E”的DeepSeek靠算法突破算力限制,且客戶需求逐漸向推理和微調(diào)轉(zhuǎn)移,國產(chǎn)GPU適配性正在提升,從而擠壓了英偉達(dá)的部分市場空間。
DeepSeek的API商業(yè)化,本質(zhì)上是一場深刻的“技術(shù)效能革命”。彭璐認(rèn)為,DeepSeek的出現(xiàn),推動算力市場開始思考如何從“堆算力”轉(zhuǎn)向“精細(xì)化運營”,企業(yè)更注重單位算力的效能,市場供需平衡正在重構(gòu)。同時,DeepSeek的開源策略也降低了AI應(yīng)用的門檻,未來入局AI賽道的中小企業(yè)或會大幅增加。
排版/ 季嘉穎