正在閱讀:

AI時代,英偉達(dá)藏不住的“野心”

掃一掃下載界面新聞APP

AI時代,英偉達(dá)藏不住的“野心”

AI群雄逐鹿,英偉達(dá)也在深夜放大招。

文丨獵云網(wǎng) 邵延港

最近一周,人工智能帶來了一次又一次顛覆,Open AI、微軟、谷歌先后出手將人工智能卷出了新高度,現(xiàn)在輪到英偉達(dá)在夜里放大招了!

在3月21日晚上11點開始的英偉達(dá)第14次GTC大會上,英偉達(dá)發(fā)布了ChatGPT設(shè)計的推理GPU、AI超級計算服務(wù)DGX Cloud、突破性的光刻計算庫cuLitho、加速企業(yè)創(chuàng)建大模型和生成式AI的云服務(wù)NVIDIA AI Foundations等,以及與Quantum Machines合作推出了全球首個GPU加速量子計算系統(tǒng)。

值得注意的是,在大會上英偉達(dá)創(chuàng)始人黃仁勛發(fā)表了一段時長78分鐘的演講——《切勿錯過 AI 的決定性時刻》,其中就三次強(qiáng)調(diào)“AI的iPhone時刻已經(jīng)到來”的論調(diào),黃仁勛稱英偉達(dá)從生成式AI變革初期就已經(jīng)參與進(jìn)來。早在2016年,他就向OpenAI親手交付了第一臺DGX AI超級計算機(jī),用于支持ChatGPT的大語言模型的突破。

ChatGPT發(fā)布之后,在很多時間內(nèi)用戶量就達(dá)到1億,引爆全球的大模型開發(fā)市場,作為AI芯片行家里手的英偉達(dá),勢必要延長觸手,深入布局。

英偉達(dá)在此次大會上“軟硬兼施”,向AI時代吹響了沖鋒號角。

ChatGPT帶來大模型浪潮,英偉達(dá)祭出專用GPU

英偉達(dá)是一家芯片公司,芯片產(chǎn)品的發(fā)布引起諸多關(guān)注,不過,市場將關(guān)注焦點定在了大模型專用的GPU芯片。

為了支持像ChatGPT這樣的大語言模型推理,英偉達(dá)直接祭出專用GPU芯片H100 NVL 。它是基于去年已經(jīng)發(fā)布的H100的改進(jìn)版本,配備雙GPU NVLink,將兩張擁有94GB HBM3顯存的PCIe H100 GPU拼接在一起?;贜VIDIAHopper 架構(gòu)的H100配有一個Transformer引擎。

黃仁勛稱,相較于目前唯一可以實時處理ChatGPT的HGX A100,一臺搭載四對H100和雙NVLINK的標(biāo)準(zhǔn)服務(wù)器能將速度提升10倍,并且還可以將大語言模型的處理成本降低一個數(shù)量級。黃仁勛也將NVIDIA DGX H100稱作全球客戶構(gòu)建AI基礎(chǔ)設(shè)施的藍(lán)圖。

據(jù)英偉達(dá)公布信息,H100 AI 超級計算機(jī)現(xiàn)已開始上線。Oracle Cloud Infrastructure 宣布配備H100 GPU 的新OCCompute 裸機(jī) GPU 實例在一定條件可用。亞馬遜云科技發(fā)布了即將推出的P5實例EC2 UltraClusters,其規(guī)??蓴U(kuò)展到2萬個互連的H100 GPU;微軟Azure發(fā)布了其H100虛擬機(jī)ND H100 v5的私人預(yù)覽版;Meta 現(xiàn)已為其內(nèi)部的AI生產(chǎn)和研究團(tuán)隊部署了由 H100 驅(qū)動的 Grand Teton Al 超級計算機(jī);OpenAl 也將在其Azure超級計算機(jī)上使用H100來支持其持續(xù)進(jìn)行的AI研究。

此外,英偉達(dá)還發(fā)布了用于AI視頻生成的通用GPUL4,以及針對圖像生成的L40和為推薦系統(tǒng)和大型語言模型的AI數(shù)據(jù)庫所設(shè)計Grace Hopper超級芯片。

值得注意的是,英偉達(dá)自己也打造了大模型突破背后的引擎,即為最新版DGX超級計算機(jī)。

據(jù)悉,在2016年8月,英偉達(dá)將制造出來的第一臺超算DGX-1捐給了OpenAI,并親自題字“致Elon和OpenAI 團(tuán)隊,為了計算和人類的未來”。

英偉達(dá)最新版本的DGX搭載8個NVIDIA H100 GPU,它們連接成為一個巨大的GPU。黃仁勛透露,該款DGX現(xiàn)已全面投入生產(chǎn)。

黃仁勛表示,最初作為AI研究儀器使用的NVIDIA DGX超級計算機(jī)現(xiàn)已在世界各地的企業(yè)中全天候運(yùn)行,用于完善數(shù)據(jù)和處理Al?!敦敻弧?00強(qiáng)企業(yè)中有一半都安裝了DGX AI超級計算機(jī)。

不過,英偉達(dá)也強(qiáng)調(diào)ChatGPT僅是一個起點。在ChatGPT發(fā)布之后攪動的一場浪潮中,全球范圍內(nèi)涌現(xiàn)出一批進(jìn)軍大模型的企業(yè)。未來大模型專用GPU迎來爆發(fā),英偉達(dá)在短期內(nèi)找不到競爭對手,或?qū)⑻幱诮^對的優(yōu)勢地位。

英偉達(dá)帶來了一朵“云”

在“傳統(tǒng)”的發(fā)布芯片硬件之外,此次在軟件產(chǎn)品也格外吸睛,尤其是英偉達(dá)發(fā)布的DGX Cloud人工智能云服務(wù)。

DGX Cloud是一項人工智能超級計算服務(wù),它可以讓企業(yè)快速訪問為生成式人工智能和其他開創(chuàng)性應(yīng)用訓(xùn)練高級模型所需的基礎(chǔ)設(shè)施和軟件。

黃仁勛稱,英偉達(dá)的DGX Cloud服務(wù)可讓企業(yè)和軟件開發(fā)人員通過瀏覽器登入,即可獲得英偉達(dá)的超級計算機(jī)DGX的AI算力。英偉達(dá)表示,其云端服務(wù)單個實例可由8塊A100或H100芯片與訂制網(wǎng)路技術(shù)組合在一起,采取月租模式。

據(jù)悉,租用的DGX Cloud起價為每個實例每月36999 美元,租金中包括使用帶有八個 Nvidia H100或A100 GPU和640GB GPU內(nèi)存的云計算機(jī)。價格包括用于開發(fā)AI應(yīng)用程序和大型語言模型的AI Enterprise 軟件。

目前,英偉達(dá)與微軟Azure、谷歌OCP、Oracle OCI等其他云廠商一起托管DGX Cloud基礎(chǔ)設(shè)施。其中,Oracle Cloud infrastructure是最早合作的云服務(wù)提供商;微軟Azure預(yù)計將在下個季度開始托管DGX Cloud,該服務(wù)將很快擴(kuò)展到Google Cloud等。

黃仁勛表示,此次合作將英偉達(dá)的生態(tài)系統(tǒng)帶給云服務(wù)提供商,同時擴(kuò)大了英偉達(dá)的規(guī)模和影響力。企業(yè)也將能夠按月租用DGXCloud 集群以便快速、輕松地擴(kuò)展大型多節(jié)點訓(xùn)練工作負(fù)載的開發(fā)。

對于生成式AI,英偉達(dá)也發(fā)布了NVIDIA AI Foundations云服務(wù)系列,它為需要構(gòu)建、完善和運(yùn)行自定義大型語言模型及生成式AI的客戶服務(wù)。

據(jù)悉,AI Foundations云服務(wù)系列包括NVIDIA NeMo,它用于構(gòu)建自定義語言文本-文本轉(zhuǎn)換生成模型;Picasso視覺語言模型制作服務(wù),它適用于構(gòu)建使用授權(quán)或?qū)S袃?nèi)容訓(xùn)練而成的自定義模型;BioNeMo,則用于藥物研發(fā)行業(yè)的研究人員。

對于英偉達(dá)而言,DGX Cloud 的出現(xiàn)代表英偉達(dá)向云優(yōu)先戰(zhàn)略的轉(zhuǎn)變,英偉達(dá)正在向外界傳達(dá)他們現(xiàn)在既是一家硬件制造商,也是一家軟件公司。

AI時代,英偉達(dá)的野心

無論是專為大模型研發(fā)的GPU,還是DGX Cloud,英偉達(dá)無一不再展示其在AI時代的“野心”。

黃仁勛在演講中表示,加速計算和AI的出現(xiàn)恰逢其時。摩爾定律正在放緩,各個行業(yè)正在應(yīng)對可持續(xù)發(fā)展,生成式AI以及數(shù)字化等強(qiáng)大的動態(tài)挑戰(zhàn)。各個行業(yè)的企業(yè)正在競相進(jìn)行數(shù)字化轉(zhuǎn)型,希望成為軟件驅(qū)動的技術(shù)公司,成為行業(yè)顛覆者而不是被顛覆者。

英偉達(dá)發(fā)布的一整套軟硬件設(shè)施,可以讓客戶可以更快、更容易地使用人工智能應(yīng)用程序,站在更多創(chuàng)業(yè)公司的背后提供服務(wù)。

尤其是ChatGPT商務(wù)出現(xiàn)加速了AI的商業(yè)化落地,英偉達(dá)面對的是一個無比巨大的蛋糕,另一方面,AI也將帶來對當(dāng)前行業(yè)的顛覆。據(jù)悉,Adobe正在與英偉達(dá)一起構(gòu)建一整套用于未來創(chuàng)作工作的新一代Al;Shutterstock也在與英偉達(dá)一起訓(xùn)練一個生成式文本-3D轉(zhuǎn)換基礎(chǔ)模型,以簡化詳細(xì)3D資產(chǎn)的創(chuàng)建。

英偉達(dá)此次深夜放大招的最終目的是要通過自己將AI帶到各行各業(yè),但英偉達(dá)的野心并不局限于此。

英偉達(dá)發(fā)布了一款名為cuLitho的計算光刻庫,也將為半導(dǎo)體行業(yè)帶來新的革命。黃仁勛稱,隨著當(dāng)前生產(chǎn)工藝接近物理學(xué)的極限,cuLitho 將助力ASML、TSMC和Synopsis等半導(dǎo)體領(lǐng)導(dǎo)者加速新一代芯片的設(shè)計和制造,這項突破將加速計算引入到計算光刻領(lǐng)域。

黃仁勛稱,計算光刻是芯片設(shè)計和制造領(lǐng)域中最大的計算工作負(fù)載,每年消耗數(shù)百億CPU小時。大型數(shù)據(jù)中心24×7全天候運(yùn)行,以便創(chuàng)建用于光刻系統(tǒng)的掩膜板。這些數(shù)據(jù)中心是芯片制造商每年投資近2000億美元的資本支出的一部分。cuLitho能夠?qū)⒂嬎愎饪痰乃俣忍岣叩皆瓉淼?0倍。

此外,除了用于計算光刻的cuLitho,黃仁勛宣布英偉達(dá)已更新了100個加速庫,包括用于量子計算的cuQuantum和新開源的CUDA Quantum和用于組合優(yōu)化的cuOpt等。黃仁勛表示,全球英偉達(dá)生態(tài)目前已有400萬名開發(fā)者、4萬家公司和英偉達(dá)初創(chuàng)加速計劃中的 1.4萬家初創(chuàng)企業(yè)。

截至美東時間3月21日,英偉達(dá)市值6471億美元,是全球第五大科技股,到AI時代,英偉達(dá)還將狂飆一段時間。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

英偉達(dá)

6.7k
  • 英偉達(dá)或于12月宣布在泰國投資計劃
  • 機(jī)構(gòu):英偉達(dá)將Blackwell Ultra產(chǎn)品更名為B300系列,預(yù)計2025年將推動CoWoS-L增長

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

AI時代,英偉達(dá)藏不住的“野心”

AI群雄逐鹿,英偉達(dá)也在深夜放大招。

文丨獵云網(wǎng) 邵延港

最近一周,人工智能帶來了一次又一次顛覆,Open AI、微軟、谷歌先后出手將人工智能卷出了新高度,現(xiàn)在輪到英偉達(dá)在夜里放大招了!

在3月21日晚上11點開始的英偉達(dá)第14次GTC大會上,英偉達(dá)發(fā)布了ChatGPT設(shè)計的推理GPU、AI超級計算服務(wù)DGX Cloud、突破性的光刻計算庫cuLitho、加速企業(yè)創(chuàng)建大模型和生成式AI的云服務(wù)NVIDIA AI Foundations等,以及與Quantum Machines合作推出了全球首個GPU加速量子計算系統(tǒng)。

值得注意的是,在大會上英偉達(dá)創(chuàng)始人黃仁勛發(fā)表了一段時長78分鐘的演講——《切勿錯過 AI 的決定性時刻》,其中就三次強(qiáng)調(diào)“AI的iPhone時刻已經(jīng)到來”的論調(diào),黃仁勛稱英偉達(dá)從生成式AI變革初期就已經(jīng)參與進(jìn)來。早在2016年,他就向OpenAI親手交付了第一臺DGX AI超級計算機(jī),用于支持ChatGPT的大語言模型的突破。

ChatGPT發(fā)布之后,在很多時間內(nèi)用戶量就達(dá)到1億,引爆全球的大模型開發(fā)市場,作為AI芯片行家里手的英偉達(dá),勢必要延長觸手,深入布局。

英偉達(dá)在此次大會上“軟硬兼施”,向AI時代吹響了沖鋒號角。

ChatGPT帶來大模型浪潮,英偉達(dá)祭出專用GPU

英偉達(dá)是一家芯片公司,芯片產(chǎn)品的發(fā)布引起諸多關(guān)注,不過,市場將關(guān)注焦點定在了大模型專用的GPU芯片。

為了支持像ChatGPT這樣的大語言模型推理,英偉達(dá)直接祭出專用GPU芯片H100 NVL 。它是基于去年已經(jīng)發(fā)布的H100的改進(jìn)版本,配備雙GPU NVLink,將兩張擁有94GB HBM3顯存的PCIe H100 GPU拼接在一起?;贜VIDIAHopper 架構(gòu)的H100配有一個Transformer引擎。

黃仁勛稱,相較于目前唯一可以實時處理ChatGPT的HGX A100,一臺搭載四對H100和雙NVLINK的標(biāo)準(zhǔn)服務(wù)器能將速度提升10倍,并且還可以將大語言模型的處理成本降低一個數(shù)量級。黃仁勛也將NVIDIA DGX H100稱作全球客戶構(gòu)建AI基礎(chǔ)設(shè)施的藍(lán)圖。

據(jù)英偉達(dá)公布信息,H100 AI 超級計算機(jī)現(xiàn)已開始上線。Oracle Cloud Infrastructure 宣布配備H100 GPU 的新OCCompute 裸機(jī) GPU 實例在一定條件可用。亞馬遜云科技發(fā)布了即將推出的P5實例EC2 UltraClusters,其規(guī)??蓴U(kuò)展到2萬個互連的H100 GPU;微軟Azure發(fā)布了其H100虛擬機(jī)ND H100 v5的私人預(yù)覽版;Meta 現(xiàn)已為其內(nèi)部的AI生產(chǎn)和研究團(tuán)隊部署了由 H100 驅(qū)動的 Grand Teton Al 超級計算機(jī);OpenAl 也將在其Azure超級計算機(jī)上使用H100來支持其持續(xù)進(jìn)行的AI研究。

此外,英偉達(dá)還發(fā)布了用于AI視頻生成的通用GPUL4,以及針對圖像生成的L40和為推薦系統(tǒng)和大型語言模型的AI數(shù)據(jù)庫所設(shè)計Grace Hopper超級芯片。

值得注意的是,英偉達(dá)自己也打造了大模型突破背后的引擎,即為最新版DGX超級計算機(jī)。

據(jù)悉,在2016年8月,英偉達(dá)將制造出來的第一臺超算DGX-1捐給了OpenAI,并親自題字“致Elon和OpenAI 團(tuán)隊,為了計算和人類的未來”。

英偉達(dá)最新版本的DGX搭載8個NVIDIA H100 GPU,它們連接成為一個巨大的GPU。黃仁勛透露,該款DGX現(xiàn)已全面投入生產(chǎn)。

黃仁勛表示,最初作為AI研究儀器使用的NVIDIA DGX超級計算機(jī)現(xiàn)已在世界各地的企業(yè)中全天候運(yùn)行,用于完善數(shù)據(jù)和處理Al?!敦敻弧?00強(qiáng)企業(yè)中有一半都安裝了DGX AI超級計算機(jī)。

不過,英偉達(dá)也強(qiáng)調(diào)ChatGPT僅是一個起點。在ChatGPT發(fā)布之后攪動的一場浪潮中,全球范圍內(nèi)涌現(xiàn)出一批進(jìn)軍大模型的企業(yè)。未來大模型專用GPU迎來爆發(fā),英偉達(dá)在短期內(nèi)找不到競爭對手,或?qū)⑻幱诮^對的優(yōu)勢地位。

英偉達(dá)帶來了一朵“云”

在“傳統(tǒng)”的發(fā)布芯片硬件之外,此次在軟件產(chǎn)品也格外吸睛,尤其是英偉達(dá)發(fā)布的DGX Cloud人工智能云服務(wù)。

DGX Cloud是一項人工智能超級計算服務(wù),它可以讓企業(yè)快速訪問為生成式人工智能和其他開創(chuàng)性應(yīng)用訓(xùn)練高級模型所需的基礎(chǔ)設(shè)施和軟件。

黃仁勛稱,英偉達(dá)的DGX Cloud服務(wù)可讓企業(yè)和軟件開發(fā)人員通過瀏覽器登入,即可獲得英偉達(dá)的超級計算機(jī)DGX的AI算力。英偉達(dá)表示,其云端服務(wù)單個實例可由8塊A100或H100芯片與訂制網(wǎng)路技術(shù)組合在一起,采取月租模式。

據(jù)悉,租用的DGX Cloud起價為每個實例每月36999 美元,租金中包括使用帶有八個 Nvidia H100或A100 GPU和640GB GPU內(nèi)存的云計算機(jī)。價格包括用于開發(fā)AI應(yīng)用程序和大型語言模型的AI Enterprise 軟件。

目前,英偉達(dá)與微軟Azure、谷歌OCP、Oracle OCI等其他云廠商一起托管DGX Cloud基礎(chǔ)設(shè)施。其中,Oracle Cloud infrastructure是最早合作的云服務(wù)提供商;微軟Azure預(yù)計將在下個季度開始托管DGX Cloud,該服務(wù)將很快擴(kuò)展到Google Cloud等。

黃仁勛表示,此次合作將英偉達(dá)的生態(tài)系統(tǒng)帶給云服務(wù)提供商,同時擴(kuò)大了英偉達(dá)的規(guī)模和影響力。企業(yè)也將能夠按月租用DGXCloud 集群以便快速、輕松地擴(kuò)展大型多節(jié)點訓(xùn)練工作負(fù)載的開發(fā)。

對于生成式AI,英偉達(dá)也發(fā)布了NVIDIA AI Foundations云服務(wù)系列,它為需要構(gòu)建、完善和運(yùn)行自定義大型語言模型及生成式AI的客戶服務(wù)。

據(jù)悉,AI Foundations云服務(wù)系列包括NVIDIA NeMo,它用于構(gòu)建自定義語言文本-文本轉(zhuǎn)換生成模型;Picasso視覺語言模型制作服務(wù),它適用于構(gòu)建使用授權(quán)或?qū)S袃?nèi)容訓(xùn)練而成的自定義模型;BioNeMo,則用于藥物研發(fā)行業(yè)的研究人員。

對于英偉達(dá)而言,DGX Cloud 的出現(xiàn)代表英偉達(dá)向云優(yōu)先戰(zhàn)略的轉(zhuǎn)變,英偉達(dá)正在向外界傳達(dá)他們現(xiàn)在既是一家硬件制造商,也是一家軟件公司。

AI時代,英偉達(dá)的野心

無論是專為大模型研發(fā)的GPU,還是DGX Cloud,英偉達(dá)無一不再展示其在AI時代的“野心”。

黃仁勛在演講中表示,加速計算和AI的出現(xiàn)恰逢其時。摩爾定律正在放緩,各個行業(yè)正在應(yīng)對可持續(xù)發(fā)展,生成式AI以及數(shù)字化等強(qiáng)大的動態(tài)挑戰(zhàn)。各個行業(yè)的企業(yè)正在競相進(jìn)行數(shù)字化轉(zhuǎn)型,希望成為軟件驅(qū)動的技術(shù)公司,成為行業(yè)顛覆者而不是被顛覆者。

英偉達(dá)發(fā)布的一整套軟硬件設(shè)施,可以讓客戶可以更快、更容易地使用人工智能應(yīng)用程序,站在更多創(chuàng)業(yè)公司的背后提供服務(wù)。

尤其是ChatGPT商務(wù)出現(xiàn)加速了AI的商業(yè)化落地,英偉達(dá)面對的是一個無比巨大的蛋糕,另一方面,AI也將帶來對當(dāng)前行業(yè)的顛覆。據(jù)悉,Adobe正在與英偉達(dá)一起構(gòu)建一整套用于未來創(chuàng)作工作的新一代Al;Shutterstock也在與英偉達(dá)一起訓(xùn)練一個生成式文本-3D轉(zhuǎn)換基礎(chǔ)模型,以簡化詳細(xì)3D資產(chǎn)的創(chuàng)建。

英偉達(dá)此次深夜放大招的最終目的是要通過自己將AI帶到各行各業(yè),但英偉達(dá)的野心并不局限于此。

英偉達(dá)發(fā)布了一款名為cuLitho的計算光刻庫,也將為半導(dǎo)體行業(yè)帶來新的革命。黃仁勛稱,隨著當(dāng)前生產(chǎn)工藝接近物理學(xué)的極限,cuLitho 將助力ASML、TSMC和Synopsis等半導(dǎo)體領(lǐng)導(dǎo)者加速新一代芯片的設(shè)計和制造,這項突破將加速計算引入到計算光刻領(lǐng)域。

黃仁勛稱,計算光刻是芯片設(shè)計和制造領(lǐng)域中最大的計算工作負(fù)載,每年消耗數(shù)百億CPU小時。大型數(shù)據(jù)中心24×7全天候運(yùn)行,以便創(chuàng)建用于光刻系統(tǒng)的掩膜板。這些數(shù)據(jù)中心是芯片制造商每年投資近2000億美元的資本支出的一部分。cuLitho能夠?qū)⒂嬎愎饪痰乃俣忍岣叩皆瓉淼?0倍。

此外,除了用于計算光刻的cuLitho,黃仁勛宣布英偉達(dá)已更新了100個加速庫,包括用于量子計算的cuQuantum和新開源的CUDA Quantum和用于組合優(yōu)化的cuOpt等。黃仁勛表示,全球英偉達(dá)生態(tài)目前已有400萬名開發(fā)者、4萬家公司和英偉達(dá)初創(chuàng)加速計劃中的 1.4萬家初創(chuàng)企業(yè)。

截至美東時間3月21日,英偉達(dá)市值6471億美元,是全球第五大科技股,到AI時代,英偉達(dá)還將狂飆一段時間。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。