界面新聞?dòng)浾?| 肖芳
界面新聞編輯 | 文姝琪
在2024 re:Invent全球大會(huì)上,亞馬遜一口氣發(fā)布了6款大模型。
這些大模型都依托于其發(fā)布的推出新一代基礎(chǔ)模型Amazon Nova,并集成在Amazon Bedrock中提供服務(wù)。
其中,Amazon Nova系列基礎(chǔ)模型包括Micro、Lite、Pro、Premier四款:Amazon Nova Micro為純文本生成模型,每秒可輸出210個(gè)token;Amazon Nova Lite和Amazon Nova Pro為多模態(tài)模型,分別對(duì)標(biāo)OpenAI的GPT-4o mini和GPT-4o,且多項(xiàng)能力在基準(zhǔn)測(cè)試中表現(xiàn)更優(yōu);Amazon Nova Premier同樣是多模態(tài)大模型,專為復(fù)雜推理任務(wù)而生。
目前,Amazon Nova系列Micro、Lite、Pro模型已全部正式可用,Amazon Nova Premier預(yù)計(jì)將在2025年第一季度可用。
同時(shí),亞馬遜還推出了兩個(gè)全新模型。Amazon Nova Canvas是圖像生成模型,性能上優(yōu)于OpenAI的DALL-E 3和Stable Diffusion,還內(nèi)置的安全控制措施確保能夠追溯每張圖像的來(lái)源;Amazon Nova Reel是視頻生成模型,支持生成六秒的視頻,未來(lái)幾個(gè)月將支持最長(zhǎng)為兩分鐘的視頻生成。
亞馬遜云科技新任CEO馬特?加曼(Matt Garman)在演講中表示,大模型是一個(gè)創(chuàng)新速度極快的領(lǐng)域,幾乎每周都會(huì)有新版本、新功能、新模型、新更新以及新的成本變化。盡管有這么多創(chuàng)新和眾多模型,可實(shí)際上要找到一個(gè)完全契合自身用例的完美模型依舊十分困難。
正是基于這樣的市場(chǎng)洞察,亞馬遜云科技試圖打造一個(gè)專業(yè)知識(shí)與延遲、成本等因素進(jìn)行合理組合的大模型服務(wù)。其最近兩年在大模型上的動(dòng)作也均以此為出發(fā)點(diǎn)。
Amazon Bedrock去年的使用量已增長(zhǎng)5倍
面對(duì)市場(chǎng)對(duì)大模型的需求痛點(diǎn),亞馬遜在2023年4月推出一項(xiàng)完全托管的服務(wù)Amazon Bedrock,來(lái)滿足市場(chǎng)需要考量模型專業(yè)能力、成本等因素的需求。
通過(guò)API集合,Amazon Bedrock提供來(lái)自AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stability AI 以及亞馬遜自身等多家公司的基礎(chǔ)模型。這些基礎(chǔ)模型涵蓋了文本生成、圖像生成等多種類型,為開(kāi)發(fā)者提供了豐富的選擇,以滿足不同的應(yīng)用場(chǎng)景和需求。
馬特?加曼(Matt Garman)透露,每天都有數(shù)以萬(wàn)計(jì)的客戶在生產(chǎn)應(yīng)用中使用Amazon Bedrock,其使用量在去年就增長(zhǎng)了近5倍。
快速增長(zhǎng)的使用量證明了市場(chǎng)對(duì)于Amazon Bedrock這種服務(wù)模式的認(rèn)可。背后的原因也不難理解,大模型在快速迭代升級(jí),很多企業(yè)并非是想使用一款基礎(chǔ)模型,而是針對(duì)不用需求選擇更合適的模型。Amazon Bedrock集成了越來(lái)越多模型,其帶來(lái)的便捷性不僅吸引了很多企業(yè)客戶使用,還吸引了Salesforce、SAP和Workday等獨(dú)立軟件供應(yīng)商(ISV)集成到他們自己的系統(tǒng)上,為下游客戶提供生成式AI服務(wù)。
Amazon Nova系列模型也是在平衡專業(yè)能力、成本和延遲等多方面基礎(chǔ)之上推出的。同時(shí),亞馬遜還在Amazon Bedrock中推出模型蒸餾功能,幫助企業(yè)進(jìn)一步降低大模型的使用成本。根據(jù)馬特?加曼(Matt Garman)在演講中透露的信息,經(jīng)過(guò)蒸餾的模型相比被蒸餾的模型,運(yùn)行速度能夠快500%,成本還能降低75%,而且Amazon Bedrock可一站式完成所有相關(guān)工作。
亞馬遜自研的Nova系列模型還能夠與蒸餾功能整合在一起,把大模型的智能“轉(zhuǎn)移”到更小的模型中,這些小模型成本效益更高,延遲更低。
亞馬遜在2024 re:Invent全球大會(huì)上發(fā)布的6款模型并不是全部。根據(jù)馬特?加曼(Matt Garman)的介紹,亞馬遜還將在2025年推出語(yǔ)音到語(yǔ)音模型以及多模態(tài)到多模態(tài)模型。
其中,語(yǔ)音到語(yǔ)音模型計(jì)劃在2025年第一季度推出,該模型旨在通過(guò)理解自然語(yǔ)言的流式語(yǔ)音輸入,解釋語(yǔ)言和非語(yǔ)言信號(hào)(如語(yǔ)調(diào)和節(jié)奏),提供流暢的類人交互,徹底改變對(duì)話式AI應(yīng)用,確保低延遲的雙向交流。
多模態(tài)到多模態(tài)模型是亞馬遜在大模型上的一個(gè)全新嘗試,能夠接受文本、圖像、音頻和視頻作為輸入,并以任意模態(tài)生成輸出。該模型預(yù)計(jì)在2025年中旬推出,將簡(jiǎn)化應(yīng)用開(kāi)發(fā),使同一模型能夠執(zhí)行多種任務(wù),如內(nèi)容模態(tài)轉(zhuǎn)換、內(nèi)容編輯,以及驅(qū)動(dòng)能夠理解和生成所有模態(tài)的AI代理。
數(shù)十萬(wàn)枚自研芯片落地Anthropic,亞馬遜要向微軟+OpenAI發(fā)起新挑戰(zhàn)
在2024 re:Invent全球大會(huì)上,AI初創(chuàng)公司Anthropic的聯(lián)合創(chuàng)始人兼首席計(jì)算官Tom Brown宣布了“雷尼爾計(jì)劃”(Project Rainier),該計(jì)劃也是一個(gè)有戰(zhàn)略意義的布局。
“雷尼爾計(jì)劃”的核心內(nèi)容是,Anthropic未來(lái)將使用一個(gè)擁有數(shù)十萬(wàn)枚亞馬遜自研芯片的算力集群。其芯片數(shù)量將是Anthropic現(xiàn)有算力集群的五倍以上。
Anthropic是亞馬遜投資的AI初創(chuàng)公司。2023年9月,亞馬遜向Anthropic投資40億美元。今年11月,亞馬遜再次向Anthropic追加40億美元投資。這是亞馬遜近30年最大的一筆對(duì)外投資。投資之后,Anthropic必須使用亞馬遜AWS的云計(jì)算服務(wù),其推出的Claude系列模型也已集成在Amazon Bedrock上。
從模型能力上看,Claude系列模型是目前市面上幾乎少數(shù)可以和OpenAI旗下GPT-4對(duì)標(biāo)的模型。如果“雷尼爾計(jì)劃”能夠順利落地,Anthropic將用上全球規(guī)模最大的AI算力集群之一,這對(duì)后續(xù)模型能力的進(jìn)一步提升也有積極的幫助。
此舉背后,我們可以看到亞馬遜云在大模型上更大的野心。一方面,亞馬遜云科技聯(lián)合Anthropic對(duì)標(biāo)微軟+OpenAI的模式,和其爭(zhēng)奪更多有大模型和云計(jì)算使用需求的客戶。
此前,微軟CEO薩提亞·納德拉在電話財(cái)報(bào)會(huì)中曾表示,超過(guò)1.8萬(wàn)家公司正在使用微軟的Azure OpenAI服務(wù),這里面有很多是Azure的新客戶。并且,其云計(jì)算產(chǎn)品Azure的收入增長(zhǎng),也有不少是來(lái)自微軟提供的GPT-4入口。
這意味著OpenAI走紅后,其為微軟的云服務(wù)Azure帶來(lái)了更多新增客戶,亞馬遜也可以復(fù)制這種已經(jīng)被驗(yàn)證過(guò)的打法。
另一方面,亞馬遜通過(guò)投資的方式將自研芯片和Anthropic深度綁定,既能夠降低自己的算力成本,也能減少其對(duì)英偉達(dá)、英特爾等芯片供應(yīng)商的依賴。節(jié)省下來(lái)的算力成本可以讓亞馬遜的云計(jì)算服務(wù)以及生成式AI服務(wù)在價(jià)格上更有競(jìng)爭(zhēng)力。
據(jù)Synergy Research Group最新公布的數(shù)據(jù)估算,2024 年第三季度,亞馬遜在全球云基礎(chǔ)設(shè)施市場(chǎng)的市場(chǎng)份額達(dá)到31%,領(lǐng)先于微軟 Azure平臺(tái)的 20%和谷歌云的11%。
顯然,亞馬遜云科技并未滿足于此,還在試圖通過(guò)AI大模型帶來(lái)的增量尋求更多的市場(chǎng)份額。