文|烏鴉智能說(shuō)
今天凌晨,蘋(píng)果開(kāi)了一個(gè)短短12分鐘的會(huì)議,會(huì)議的內(nèi)容很簡(jiǎn)單,無(wú)非八個(gè)字:放棄造車(chē),發(fā)力AI。
路透社援引內(nèi)部消息人士透露,蘋(píng)果公司已擱置并取消了自動(dòng)駕駛電動(dòng)汽車(chē)的所有開(kāi)發(fā)計(jì)劃,意味著這個(gè)長(zhǎng)達(dá)十余年、投入數(shù)十億美元,也是蘋(píng)果歷史上最雄心勃勃的項(xiàng)目,卻在一個(gè)沒(méi)有回答任何問(wèn)題的12分鐘簡(jiǎn)短會(huì)議上結(jié)束。
與此同時(shí),蘋(píng)果又做了重大決定:轉(zhuǎn)向生成式人工智能。汽車(chē)團(tuán)隊(duì)(即特殊項(xiàng)目團(tuán)隊(duì),簡(jiǎn)稱(chēng)SPG)的眾多成員將被調(diào)往人工智能部門(mén),由高管約翰·詹南德里亞(John Giannandrea)領(lǐng)導(dǎo)。這是一個(gè)明確且極為重要的信號(hào):蘋(píng)果要加速發(fā)力生成式AI了。
在過(guò)去相當(dāng)長(zhǎng)時(shí)間里,蘋(píng)果都因?yàn)樵谶@場(chǎng)生成式AI派對(duì)上顯得遲疑而受到猛烈抨擊。
在目前所有的主流智能手機(jī)廠商乃至全球科技公司里,蘋(píng)果是唯一一家還沒(méi)有正式發(fā)布大模型產(chǎn)品的廠商,甚至都很少正面提及。就連馬斯克在去年7月成立的人工智能公司xAI,馬上就要發(fā)布首個(gè)AI大模型Grok 1.5。
而在已披露蘋(píng)果大模型進(jìn)展的有限信息里,蘋(píng)果給人一種感覺(jué):相比其他科技公司,蘋(píng)果并不追求大模型性能的絕對(duì)領(lǐng)先,而是更看重大模型落地的可能性。
考慮到生成式AI是一場(chǎng)先發(fā)制人的游戲,蘋(píng)果在大模型上的“遲鈍“與”務(wù)實(shí)“,或許會(huì)為其在未來(lái)競(jìng)爭(zhēng)中埋下隱患。
/ 01 / 遲到的蘋(píng)果
由于電動(dòng)汽車(chē)市場(chǎng)降溫、競(jìng)爭(zhēng)激烈等因素影響,蘋(píng)果放棄造車(chē)本就在情理之中,只是時(shí)間問(wèn)題。但讓人不理解的是,蘋(píng)果在生成式AI上的“遲鈍“。
去年的大模型風(fēng)潮中,手機(jī)廠商成為一股不可或缺的“力量”。
2023年,華為發(fā)布了盤(pán)古大模型,并率先將大模型接入手機(jī);vivo則推出了主打輕量化的藍(lán)心大模型;三星也公布了其自研的生成式人工智能模型“三星高斯”,并在今年推出了旗下首款A(yù)I手機(jī)Galaxy S24系列手機(jī)。
唯獨(dú)蘋(píng)果是個(gè)例外。作為全球最大的科技公司,蘋(píng)果在去年對(duì)這項(xiàng)過(guò)去十年中最重要的科技發(fā)展——生成式人工智能,很少正面提及。
在一季報(bào)的電話會(huì)議上,蘋(píng)果CEO庫(kù)克只是輕描淡寫(xiě)地表示,蘋(píng)果會(huì)將AI應(yīng)用到更多產(chǎn)品上,但要深思熟慮。甚至在6月的開(kāi)發(fā)者大會(huì)WWDC上,蘋(píng)果對(duì)人工智能和大模型更是只字未提,只是簡(jiǎn)單提到了“機(jī)器學(xué)習(xí)”這個(gè)詞語(yǔ)。?
在目前所有的主流智能手機(jī)廠商乃至全球科技公司里,蘋(píng)果是唯一一家還沒(méi)有正式發(fā)布大模型產(chǎn)品的廠商。就連馬斯克在去年7月成立的人工智能公司xAI,就要發(fā)布首個(gè)AI大模型Grok 1.5。
看上去,蘋(píng)果似乎“缺席”了這場(chǎng)大模型的賽跑。但事實(shí)可能并非如此。
種種跡象顯示,蘋(píng)果在AI領(lǐng)域的布局比我們想象得要更深。據(jù)彭博社報(bào)道,2023 年 7 月,蘋(píng)果建立了自己的大型語(yǔ)言模型 Ajax,并推出代號(hào)為「Apple GPT」的內(nèi)部聊天機(jī)器人,用于測(cè)試 Ajax 的功能。
據(jù)知情人士分析,Ajax GPT的訓(xùn)練參數(shù)數(shù)量超過(guò)2000億。參數(shù)反映了機(jī)器學(xué)習(xí)模型的規(guī)模和復(fù)雜程度;參數(shù)數(shù)量越多,表示復(fù)雜程度越高,需要的存儲(chǔ)空間和計(jì)算能力也越大。要知道,GPT-3.5的訓(xùn)練參數(shù)規(guī)模在1750億,也就是說(shuō),如今的Ajax GPT或許在功能上比OpenAI的GPT-3.5更強(qiáng)。
從投入規(guī)模上看,Ajax GPT所在的生成式AI項(xiàng)目每年將花費(fèi)蘋(píng)果約 10 億美元。另外,根據(jù)The Information報(bào)道,如今蘋(píng)果公司將把訓(xùn)練最先進(jìn)模型的預(yù)算增加到每天數(shù)百萬(wàn)美元,而這只是對(duì)開(kāi)發(fā)其中一種模型的投入。
與很多人印象不同,蘋(píng)果還是最熱衷于投資AI的科技公司。自2010年以來(lái),在FAMGA的公司中,蘋(píng)果共收購(gòu)了20家AI公司,位列第一。同期,谷歌和微軟分別收購(gòu)了14家和10家。
更加有趣的事情是,在投入研發(fā)大模型的同時(shí),蘋(píng)果還花了相當(dāng)大的精力去探索大模型落地的可能性。
/ 02 / 押注端側(cè)大模型
今年下半年以來(lái),AI硬件是所有科技公司共同發(fā)力的方向。在真正“AI-native 硬件”誕生之前,把 LLM 和現(xiàn)有終端融合更具有落地可能性。手機(jī)、PC、車(chē)車(chē)等硬件廠商都有極大動(dòng)力去落地大模型,這其中以手機(jī)廠商最為激進(jìn)。
但遺憾的是,到目前為止,大模型與現(xiàn)有智能硬件之間的融合并不流暢。
就拿手機(jī)來(lái)說(shuō),受限于手機(jī)內(nèi)存的運(yùn)存處理能力限制,大模型還無(wú)法被搬到手機(jī)上。聯(lián)發(fā)科就曾透露,130億參數(shù)大模型至少需要13GB內(nèi)存,再加上6GB App?;睢?GB安卓OS,即總的手機(jī)內(nèi)存容量需求將達(dá)到23GB。
23GB手機(jī)內(nèi)存是個(gè)什么概念呢?去年上市最新的iPhone 15的運(yùn)行內(nèi)存大小只有6GB,iPhone15 Pro 和 iPhone15 Pro Max 運(yùn)行內(nèi)存也只有8GB。這意味著,想要在手機(jī)上提升跑大模型,內(nèi)存容量必須有大幅度提升。
所以,目前大多數(shù)大模型都是在云端運(yùn)營(yíng),固然參數(shù)規(guī)模更大、算力更高等優(yōu)勢(shì),但缺點(diǎn)也很明顯。當(dāng)用戶(hù)在弱網(wǎng)乃至離網(wǎng)環(huán)境下,無(wú)法實(shí)用大模型功能,甚至還有用戶(hù)隱私安全泄露的風(fēng)險(xiǎn)。這對(duì)極為重視用戶(hù)體驗(yàn)的蘋(píng)果來(lái)說(shuō),是無(wú)法接受的。
而蘋(píng)果就是端側(cè)大模型的堅(jiān)定支持者。多位前蘋(píng)果機(jī)器學(xué)習(xí)工程則師稱(chēng),出于提高隱私和性能的考慮,蘋(píng)果的領(lǐng)導(dǎo)層更傾向于在設(shè)備上運(yùn)行大模型,而不是在云服務(wù)器上。
去年8月,蘋(píng)果在加州、西雅圖、巴黎、北京等部門(mén)已經(jīng)釋放了數(shù)十個(gè)崗位,招聘大模型技術(shù)人才,其中尤其是端側(cè)大型模型是重點(diǎn)。招聘信息顯示,蘋(píng)果希望將大型機(jī)型壓縮到終端中,以便未來(lái)iPhone/iPad等核心產(chǎn)品可以直接運(yùn)行在AIGC技術(shù)上。
要想落地落地端側(cè)大模型,除了內(nèi)存容量提升,模型本身的壓縮和優(yōu)化也是落地大模型的一種方式。前者顧名思義就是壓縮模型的規(guī)模,讓模型更注重關(guān)鍵場(chǎng)景的精度和效果;后者則是通過(guò)技術(shù)手段對(duì)模型進(jìn)行優(yōu)化,通過(guò)內(nèi)存管理減少內(nèi)存搬運(yùn),進(jìn)而降低功耗。
目前,大部分科技公司把更多精力放到訓(xùn)練參數(shù)更少、體量更小的“小模型”。 去年12月,微軟正式發(fā)布了參數(shù)規(guī)模僅有27億的“小模型”P(pán)hi-2,并宣稱(chēng)該模型性能夠“吊打”體量在其25倍以上的大模型。
但蘋(píng)果卻另辟蹊徑,選擇了后者。此前,蘋(píng)果發(fā)布的論文顯示,它嘗試?yán)瞄W存來(lái)解決大模型在塞進(jìn)手機(jī)時(shí)遇到的內(nèi)存不足的問(wèn)題。簡(jiǎn)單來(lái)說(shuō),蘋(píng)果就做了兩件事情,優(yōu)化閃存交互和內(nèi)存管理。
說(shuō)起來(lái),計(jì)算機(jī)的各種硬件設(shè)備和我們?nèi)祟?lèi)的軀體非常相似,計(jì)算機(jī)的 CPU 好比人類(lèi)的大腦,其中也有用來(lái)存放程序和數(shù)據(jù)的記憶裝置,相當(dāng)于我們腦袋中的記憶體。
計(jì)算機(jī)的記憶體簡(jiǎn)單分為內(nèi)存和閃存兩種。內(nèi)存用于臨時(shí)存儲(chǔ)那些需要隨時(shí)訪問(wèn)的數(shù)據(jù)和指令,它提供高速的讀寫(xiě),有較高的存儲(chǔ)密度。而閃存正相反,它讀寫(xiě)較慢,適用于長(zhǎng)期數(shù)據(jù)的存儲(chǔ)。從特性上看,內(nèi)存更適合需要頻繁讀寫(xiě)的大模型。但正如上文所說(shuō),內(nèi)存現(xiàn)階段性能不夠,僅憑它一個(gè)撐不起大模型。
而蘋(píng)果的做法是,允許模型重復(fù)使用部分已處理的數(shù)據(jù),從而減少頻繁讀取內(nèi)存的需要,提高大模型運(yùn)行效率;二是通過(guò)對(duì)數(shù)據(jù)進(jìn)行更有效的分組,令大模型能夠更快地從閃存中讀取數(shù)據(jù),從而加速AI 理解和生成語(yǔ)言的能力。
通過(guò)這一方式,蘋(píng)果可以運(yùn)行比設(shè)備DRAM容量大兩倍的模型,并在CPU和GPU上分別比傳統(tǒng)方法提速4-5倍和20-25倍。用研究人員的話說(shuō),這為在內(nèi)存有限的設(shè)備上有效推理 LLM 鋪平了道路。
作為一個(gè)硬件公司,蘋(píng)果更注重于技術(shù)落地本身沒(méi)有什么太大問(wèn)題。但如果把其視作是一家科技公司,蘋(píng)果就多少顯得有些“另類(lèi)”。
/ 03/ 科技公司里的“實(shí)用主義者”
幾乎在所有人的邏輯里,大模型是一場(chǎng)先發(fā)制人的游戲,推理能力是唯一的衡量標(biāo)準(zhǔn)。甚至在很多人看來(lái),模型競(jìng)賽相當(dāng)殘酷,類(lèi)似芯片或 SpaceX,因?yàn)轭I(lǐng)先的模型能力又強(qiáng)又便宜,后面的玩家會(huì)很難存活。
但蘋(píng)果對(duì)這個(gè)游戲的理解并非如此。一個(gè)更接近真相的解釋是:相比其他科技公司,蘋(píng)果并不追求大模型性能的絕對(duì)領(lǐng)先,而是更看重大模型落地的可能性。
這與蘋(píng)果長(zhǎng)期以來(lái)的“實(shí)用主義”理念有很大關(guān)系。蘋(píng)果實(shí)用主義的精髓在于,其并不追求絕對(duì)的技術(shù)領(lǐng)先,而更擅長(zhǎng)在技術(shù)向產(chǎn)品大規(guī)模轉(zhuǎn)化過(guò)程中,通過(guò)其獨(dú)特的產(chǎn)品能力,實(shí)現(xiàn)對(duì)同類(lèi)產(chǎn)品的超越。
從過(guò)去看,智能手機(jī)是由IBM公司的工程師Theodore Paraskevakos發(fā)明的,但卻在蘋(píng)果手里發(fā)揚(yáng)光大;在初代iPod發(fā)布時(shí),MP3播放器已經(jīng)是一個(gè)個(gè)非常成熟的品類(lèi),可最后蘋(píng)果還是贏了。在更擅長(zhǎng)賺錢(qián)的庫(kù)克上任后,蘋(píng)果的實(shí)用主義得到更充分的踐行。
這也體現(xiàn)蘋(píng)果在AI領(lǐng)域的布局。相比谷歌的動(dòng)輒上億美元的大手筆,蘋(píng)果雖然并購(gòu)數(shù)量多,但整體金額都不大。它們更愿意收購(gòu)一些小型公司,借助其團(tuán)隊(duì)和技術(shù)為蘋(píng)果自身未來(lái)的產(chǎn)品增加新功能。比如,iPhone X的FaceID就源自蘋(píng)果在芯片和計(jì)算機(jī)視覺(jué)領(lǐng)域的一系列并購(gòu)行動(dòng)。
沿著這個(gè)邏輯,也就不難理解蘋(píng)果為何遲遲不公布其大模型產(chǎn)品。因?yàn)榈侥壳盀橹?,大模型遠(yuǎn)大愿景與尚不清晰的商業(yè)化前景之間仍然需要無(wú)數(shù)的產(chǎn)品去填。
盡管目前已經(jīng)出現(xiàn)ChatGPT、Character.AI 等超級(jí)應(yīng)用,但上述應(yīng)用的調(diào)用入口十分單一,功能也多集中在內(nèi)容生產(chǎn)方面,仍然有很大提升空間。一個(gè)顯著的體現(xiàn)是,這些應(yīng)用在用戶(hù)活躍度上起伏很大。比如在經(jīng)歷去年年初的瘋狂后,ChatGPT日活在去年下半年出現(xiàn)了明顯的回撤。
更重要的是,相比功能相對(duì)單一,大模型落地所要付出的成本與商業(yè)化回報(bào)之間不成正比。目前,AI應(yīng)用商業(yè)化手段還很單一,難以支撐其高昂的運(yùn)行成本。
按照Open AI公布的GPT-4的API費(fèi)用表,為每輸入1000個(gè)字符(約合750個(gè)單詞),價(jià)格為0.03美元,每生成1000個(gè)字符,價(jià)格為0.06美元。也就是說(shuō)用戶(hù)每問(wèn)一次,成本差不多就是1毛錢(qián)??紤]到蘋(píng)果全球僅 iPhone 用戶(hù)就超過(guò)十億,意味著大模型運(yùn)行的成本將極其高昂。
退一步講,如果仍然是這個(gè)路子,無(wú)論哪家廠商最終“贏了”,他們的產(chǎn)品或者服務(wù)都會(huì)極大概率以“App”的形式出現(xiàn)在蘋(píng)果的App Store里,為全球的蘋(píng)果用戶(hù)提供服務(wù)。
蘋(píng)果看似務(wù)實(shí)的做法并非沒(méi)有一絲隱患。目前,市場(chǎng)對(duì)于AI硬件的發(fā)展大致有兩種觀點(diǎn):
一種觀點(diǎn)是基于大模型的自然語(yǔ)言交互能力需要一個(gè)新硬件。無(wú)論是去年發(fā)布的AI Pin,還是不久前在CES上亮相的Rabbit R1,都屬于這一類(lèi)產(chǎn)品。這類(lèi)產(chǎn)品的特點(diǎn)是最大化利用了AI的文本理解、生成、翻譯能力、特別是圖片、音視頻等多模態(tài)能力,幾乎做到無(wú)縫銜接,融于無(wú)形。
另一種觀點(diǎn)是手機(jī)就是大模型最好的硬件載體,這也是蘋(píng)果所相信的方向。所以,我們能看到,蘋(píng)果將更多精力投入了新硬件產(chǎn)品的研發(fā)——Vision Pro,而非AI硬件。
路線差異背后,意味著一旦踏錯(cuò),蘋(píng)果幾乎就完全要依賴(lài)產(chǎn)品能力進(jìn)行追趕。但近年來(lái),蘋(píng)果所引以為傲后發(fā)至上的產(chǎn)品能力卻頻頻失效。
盡管經(jīng)歷了漫長(zhǎng)的7年研發(fā),Vision Pro最終上市,但距離庫(kù)克的最初設(shè)想相繼甚遠(yuǎn);而在造車(chē)這事上,今天蘋(píng)果也正式宣布放棄,退出新能源汽車(chē)的競(jìng)爭(zhēng)。
毫無(wú)疑問(wèn),大模型時(shí)代的硬件會(huì)重復(fù)計(jì)算機(jī)的老路:就是從算力集中于超算等大型設(shè)備上到算力一步步轉(zhuǎn)移至屬于個(gè)人終端。只是“實(shí)用主義者“蘋(píng)果,最終會(huì)在這個(gè)故事里扮演怎樣的角色,仍然要打一個(gè)大大的問(wèn)號(hào)。