文|新火種 小巖
編輯|美美
乘著ChatGPT爆火的東風(fēng),2023年成為了當(dāng)之無愧的“大模型爆發(fā)之年”。跟隨ChatGPT的腳步,諸多大廠和知名企業(yè)推出了自己的AI大模型。也正因此,大模型賽道的競爭變得異常激烈,燒錢的勢頭也變得異常兇猛。
不過,這樣的趨勢很可能在2024年產(chǎn)生變化。每個事物的發(fā)展都要經(jīng)歷“產(chǎn)生,發(fā)展,高潮,低谷”的階段,已經(jīng)在2023年大放異彩,涌現(xiàn)無數(shù)高光時刻的大模型很可能在2024年漸漸冷卻,褪掉光環(huán),而小模型,則有可能成為今年的破局之道。
“大模型雖然亮眼,但企業(yè)對這些技術(shù)的采用幾乎沒有實(shí)質(zhì)性的增長”。
眾所周知,在高新技術(shù)和燒錢測試的加持下,大模型產(chǎn)品的表現(xiàn)變得十分突出,整個賽道也卷的出奇。但可惜的是,這些花大力氣砸出來的優(yōu)秀大模型產(chǎn)品很難成功變現(xiàn)。
根據(jù)印度IT巨頭Infosys的最新發(fā)現(xiàn),只有6%的歐洲公司通過生成式AI用例創(chuàng)造了商業(yè)價值。麥肯錫也在2023年的一份報(bào)告中得出結(jié)論,“盡管生成式AI的使用可能會刺激其他人工智能工具的采用,但我們認(rèn)為,企業(yè)對這些技術(shù)的采用幾乎沒有實(shí)質(zhì)性的增長?!?/p>
而資本市場對于大模型AI的態(tài)度也不樂觀。從融資規(guī)模來看,生成式AI的投資浪潮是一次“短暫繁榮”,盡管頭部以及率先搶占先機(jī)的AI公司獲得了不少資本的青睞,但后續(xù)的AI公司如果想要收獲資金,并不容易。根據(jù)Crunchbase數(shù)據(jù)顯示,2023 年,人工智能獨(dú)角獸公司的融資大幅下降,僅為 2021 年市場高峰時的25 %左右;全球最活躍的9大 VC 在AI獨(dú)角獸公司的投資也是大幅下降。
究其原因,這并不難理解。潮水退去,方知誰在裸泳。投資者都是趨利避害的,自然想看到自己投資的AI公司產(chǎn)出盡可能多的利潤。在這種情況下,針對AI的投資泡沫會越來越少,據(jù)此,AI公司試錯的成本將大大提高。
大模型發(fā)展即將受阻,小模型能否順勢而為,迎來自己的井噴元年?
在這種情況下,AI模型需要朝著效率更高,成本更低的方向去發(fā)展。從這個角度去說,小模型很可能比大模型更實(shí)用,更方便。
Snorkel AI曾做過一個試驗(yàn),分別用GPT-3微調(diào)和自己搭建的小模型來訓(xùn)練一個法律領(lǐng)域的垂直模型。GPT-3的微調(diào)和搭建成本是7418美元,10000推理的花費(fèi)是173美元,而自己搭建的小模型成本僅為1915美元,10000次推理也只是花費(fèi)了0.26美元。從正確率來看,GPT-3微調(diào)的垂直模型正確率為71.4 %,小模型則為71.3 %。
值得一提的是,GPT-3的參數(shù)量很大,是小模型的1400倍。我們當(dāng)然不能因?yàn)镚PT-3微調(diào)的正確率與小模型的正確率相似就妄下結(jié)論,認(rèn)為“參數(shù)量沒用”。不過,這或許就是“殺雞焉用牛刀”的道理,就像《華爾街日報(bào)》提到的那句玩笑,用GPT-4總結(jié)電子郵件就像“讓蘭博基尼送披薩”。畢竟,在很多場景下,用戶需要的并沒有那么多。
目前,國內(nèi)的AI領(lǐng)域也在面臨相同的狀況。
如今,國內(nèi)已經(jīng)發(fā)布的所謂“大模型”超過200個,“百模大戰(zhàn)”進(jìn)行的如火如荼。而處于頭部的幾個大模型都曾宣稱自己的參數(shù)規(guī)模超千億級別,有的甚至達(dá)到了萬億的規(guī)模。
但規(guī)模只要夠大,就一定夠好嗎?未必。百度的李彥宏曾經(jīng)說過,“100多個大模型浪費(fèi)社會資源……尤其在中國算力還受限制情況下,企業(yè)應(yīng)該去探索各行各業(yè)的應(yīng)用結(jié)合,全新的 APP產(chǎn)品可能性等?!?/p>
事實(shí)上,與李彥宏持有相同觀點(diǎn)的人并不在少數(shù)。相較于要把AI模型的規(guī)模不斷做大這件事,大家更應(yīng)該關(guān)注如何將模型更好的應(yīng)用到實(shí)處。不是大模型做不起,而是小模型更具性價比。
做小模型的本質(zhì),其實(shí)是在做離用戶更近的模型。
更重要的是,從某種層面來說,更好操作,更低成本的小模型或許更能匹配C端用戶的核心訴求。
大模型看似高大上,但卻存在成本高,個性化不足的問題。如果大模型可以變小,甚至直接走進(jìn)移動端,將模型塞進(jìn)手機(jī),智能汽車,機(jī)器人等設(shè)備,那么一定會大大提高C端用戶的黏著度。特別是從創(chuàng)業(yè)角度來看,搭建離用戶更近的模型自然也更有生存空間,因?yàn)樗麄冸x用戶更近。
事實(shí)上,很多企業(yè)已經(jīng)將這樣的策略提上了日程。有媒體報(bào)道,早在2022年初,阿里巴巴達(dá)摩院,上海浙江大學(xué)高等研究院,以及上海人工智能實(shí)驗(yàn)室的聯(lián)合研究團(tuán)隊(duì)通過蒸餾壓縮和參數(shù)共享等技術(shù)手段,將3.4億參數(shù)的M6模型壓縮到了百萬參數(shù),其規(guī)模只有以大模型的三十分之一,卻保留了大模型90 %以上的性能。當(dāng)然,2022年的3.4億,較今天的大模型規(guī)模來看不算太大,但這個舉動無疑為“大規(guī)模瘦身” 開了一個好頭。
2023年初,關(guān)于AI大模型的競爭逐漸激烈,局面逐漸焦灼,最終演變成了一場聲勢浩大的模型競賽。如今,潮水褪去,在耗費(fèi)了大量金錢,人力,時間成本之后,愈來愈多的AI公司悟出了一個道理:如何“變大”并不是關(guān)鍵,關(guān)鍵在于要如何“既大又好”,更重要的是,當(dāng)大模型進(jìn)入應(yīng)用環(huán)節(jié),如何該做到“以小馭大”。
如同區(qū)塊鏈行業(yè)一樣,野蠻生長之后勢必會迎來監(jiān)管的壓力,AI也將面臨同樣的狀況。如今,隨著AI影響力的增強(qiáng),相關(guān)的問題也開始凸顯譬如Midjourney + Elevenlabs 生成的假新聞就引起過極大的影響。
此外,AI大模型的推進(jìn)將消耗掉大量的資源。有新聞報(bào)道,到2027年,全球的AI需求可能會消耗掉66億立方米的水資源,幾乎相當(dāng)于美國華盛頓州全年的取水量。AI對環(huán)境和能源可能造成的影響會對AI行業(yè)造成一定的經(jīng)濟(jì)壓力和政治壓力。到了那時,如何用更少的數(shù)據(jù),更少的能源訓(xùn)練出更好用的模型,就成為了未來的重中之重。