正在閱讀:

越來越卷的AI,“X”PU的各有所長

掃一掃下載界面新聞APP

越來越卷的AI,“X”PU的各有所長

AI應用場景的豐富帶來眾多碎片化的需求,基于此適配各種功能的處理器不斷衍生。

文|半導體產業(yè)縱橫

AI運算指以“深度學習” 為代表的神經網(wǎng)絡算法,需要系統(tǒng)能夠高效處理大量非結構化數(shù)據(jù)(文本、視頻、圖像、語音等)。需要硬件具有高效的線性代數(shù)運算能力,計算任務具有:單位計算任務簡單,邏輯控制難度要求低,但并行運算量大、參數(shù)多的特點。對于芯片的多核并行運算、片上存儲、帶寬、低延時的訪存等提出了較高的需求。

AI應用場景的豐富帶來眾多碎片化的需求,基于此適配各種功能的處理器不斷衍生。

CPU

CPU即中央處理器(Central Processing Unit),作為計算機系統(tǒng)的運算和控制核心,主要負責多任務管理、調度,具有很強的通用性,是計算機的核心領導部件,好比人的大腦。不過其計算能力并不強,更擅長邏輯控制。

正是因為CPU的并行運算能力不是很強,所以很少有人優(yōu)先考慮在 CPU 上直接訓練模型。不過芯片巨頭英特爾就選擇了這么一條路。

像英特爾至強可擴展處理器這種 AI build-in 的 CPU 在支持模型訓練上已經有了極大地提升,去年由萊斯大學、螞蟻集團和英特爾等機構的研究者發(fā)表的一篇論文中表明,在消費級 CPU 上運行的 AI 軟件,其訓練深度神經網(wǎng)絡的速度是 GPU 的 15 倍,另外相比顯存 CPU 的內存更易擴展,很多推薦算法、排序模型、圖片 / 影像識別等應用,已經在大規(guī)模使用 CPU 作為基礎計算設備。

相比價格高昂的 GPU,CPU 其實是一種性價比很高的訓練硬件,也非常適合對結果準確度要求高兼顧成本考量的制造業(yè)、圖像處理與分析等行業(yè)客戶的深度學習模型。

GPU

GPU即圖形處理器(Graphics Processing Unit),采用數(shù)量眾多的計算單元和超長的流水線,擅長進行圖像處理、并行計算。

對于復雜的單個計算任務來說,CPU 的執(zhí)行效率更高,通用性更強;而對于圖形圖像這種矩陣式多像素點的簡單計算,更適合用 GPU 來處理,也有人稱之為人海戰(zhàn)術。而AI 領域中用于圖像識別的深度學習、用于決策和推理的機器學習以及超級計算都需要大規(guī)模的并行計算,因此更適合采用 GPU 架構。

多核 CPU 與 GPU 的計算網(wǎng)格(圖中綠色方格為計算單元)

CPU和GPU還有一個很大的區(qū)別就是:CPU可單獨作用,處理復雜的邏輯運算和不同的數(shù)據(jù)類型,但當需要處理大量類型統(tǒng)一的數(shù)據(jù)時,則可調用GPU進行并行計算。但GPU無法單獨工作,必須由CPU進行控制調用才能工作。

在AI計算領域英偉達的GPU幾乎占到市場的絕大部分,但近幾年也有不少國產企業(yè)進軍高端GPU,比如沐曦首款采用7nm工藝的異構GPU產品已流片、壁仞前不久也發(fā)布了單芯片峰值算力達到PFLOPS級別的BR100,還有燧原科技、黑芝麻、地平線等公司都在向高端GPU發(fā)力。

DPU

DPU即數(shù)據(jù)處理器(Data Processing Unit),用于優(yōu)化卷積神經網(wǎng)絡,廣泛應用于加速深度學習推理算法。

當CPU算力釋放遇瓶頸,DPU能夠卸載 CPU 的基礎層應用(如網(wǎng)絡協(xié)議處理、加密解密、數(shù)據(jù)壓縮等),從而釋放CPU低效應用端的算力,將CPU算力集中在上層應用。區(qū)別于GPU,DPU主要用于對數(shù)據(jù)解析與處理,提高數(shù)據(jù)接發(fā)的效率,而GPU則是專注于數(shù)據(jù)的加速計算。因此,DPU將有望成為釋放CPU算力新的關鍵芯片,并與CPU、GPU形成優(yōu)勢互補,提高算力天花板。

DPU還具有高性能網(wǎng)絡接口,能以線速或網(wǎng)絡中的可用速度解析、處理數(shù)據(jù),并高效地將數(shù)據(jù)傳輸?shù)紾PU和CPU。

英偉達收購Mellanox后,憑借原有的ConnectX系列高速網(wǎng)卡技術,推出其 BlueField系列DPU,成為DPU賽道的標桿。英偉達首席執(zhí)行官黃仁勛也曾表示:“ DPU 將成為未來計算的三大支柱之一,未來的數(shù)據(jù)中心標配是‘ CPU + DPU + GPU ’。CPU 用于通用計算, GPU 用于加速計算, DPU 則進行數(shù)據(jù)處理?!?/p>

當下的DPU的市場,已經成為各個巨頭和初創(chuàng)公司的必爭之地,除英偉達等企業(yè)開始布局DPU產業(yè)外,阿里巴巴、華為在內的各大云服務商也逐漸躋身DPU行業(yè)。其他還有芯啟源、大禹智芯、星云智聯(lián)、中科馭數(shù)、云豹智能等公司。

TPU

TPU即張量處理器(Tensor Processing Unit)是谷歌專門為加速深層神經網(wǎng)絡運算能力而研發(fā)的ASIC 芯片,專用機器學習的人工智能加速處理器。

AI 系統(tǒng)通常涉及訓練和推斷過程。簡單來說,訓練過程是指在已有數(shù)據(jù)中學習,獲得某些能力的過程;而推理過程則是指對新的數(shù)據(jù),使用這些能力完成特定任務(比如分類、識別等);推理是將深度學習訓練成果投入使用的過程。

有老話言,萬能工具的效率永遠比不上專用工具。TPU與同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率(性能/瓦特)提升。此外,在 TPU 中采用 GPU 常用的 GDDR5 存儲器能使性能TPOS指標再高 3 倍,并將能效比指標 TOPS/Watt 提高到 GPU 的 70 倍,CPU 的 200 倍。

2016年 TPU 消息剛剛公布時,谷歌資深硬件工程師Norman Jouppi 在谷歌Research 博客中特別提到,TPU 從測試到量產只用了 22 天,其性能把人工智能技術往前推進了差不多 7 年,相當于摩爾定律 3 代的時間。

IPU

IPU即圖像處理單元(Intelligent Processing Unit),可以從圖像傳感器到顯示設備的數(shù)據(jù)流提供全面支持,連接到相關設備,比如:攝像機、顯示器、圖形加速器、電視編碼器和解碼器。相關圖像處理與操作包括傳感器圖像信號處理、顯示處理、圖像轉換等,以及同步和控制功能。 采用的是大規(guī)模并行同構眾核架構,同時將訓練和推理合二為一,為AI計算提供了全新的技術架構,兼具處理二者工作的能力。

IPU是英國AI芯片創(chuàng)業(yè)公司Graphcore率先提出的概念,Graphcore的第一代IPU如今已在微軟Azure云以及Dell-EMC服務器中使用,為AI算法帶來了飛躍性的性能提升,也為開發(fā)者帶來更廣闊的創(chuàng)新空間及更多創(chuàng)新機會。

目前,IPU正在成為僅次于GPU和谷歌TPU的第三大部署平臺,基于IPU的應用已經覆蓋包括自然語言處理、圖像/視頻處理、時序分析、推薦/排名及概率模型等機器學習的各個應用場景。

2021年,英特爾推出了IPU技術,近日又和谷歌共同設計了新型定制基礎設施處理單元(IPU)芯片 E2000 ,代號為“Mount Evans”,以降低數(shù)據(jù)中心主 CPU 負載,并更有效和安全地處理數(shù)據(jù)密集型云工作負載。

NPU

CPU和GPU的制造成本較高,功耗也比較大,加之AI場景下需要運算的數(shù)據(jù)量與日俱增,一種針對神經網(wǎng)絡深度學習的高效智能處理器應運而生,也就是NPU。

NPU即神經網(wǎng)絡處理器(Neural network Processing Unit),它是用電路模擬人類的神經元和突觸結構。用于加速神經網(wǎng)絡的運算,解決傳統(tǒng)芯片在神經網(wǎng)絡運算時效率低下的問題,特別擅長處理視頻、圖像類的海量多媒體數(shù)據(jù)。

與CPU、GPU處理器運行需要的數(shù)千條指令相比,NPU只要一條或幾條就能完成,且在同等功耗下NPU 的性能可以達到 GPU 的 118 倍,因此在深度學習的處理效率方面優(yōu)勢明顯。NPU 目前較多地在端側應用于 AI 推理計算,在云端也有大量運用于視頻編解碼運算、自然語言處理、數(shù)據(jù)分析,部分NPU還能運用于 AI 的訓練。

比如在手機SoC中,CPU是負責計算和整體協(xié)調的,而GPU是負責和圖像有關的部分,NPU負責和AI有關的部分,其工作流程則是,任何工作都要先通過CPU,CPU再根據(jù)這一塊工作的性質來決定分配給誰。如果是圖形方面的計算,就會分配給GPU,如果是AI方面的計算需求,就分配給NPU。

NPU具體的應用有:基于人臉識別的考勤機、基于 DHN(深度哈希網(wǎng)絡)的掌紋識別、基于圖像分類的自動垃圾分類、自動駕駛汽車、自動跟焦攝像機、監(jiān)視系統(tǒng)等。

2014年中科院的陳天石科研團隊發(fā)表了 DianNao 系列論文,隨即席卷了體系結構界,開啟了專用人工智能芯片設計的先河,后來中科院旗下的寒武紀科技推出了其第一代 NPU 寒武紀 1A,并用在了華為麒麟 970 芯片中,華為也推出了自研的基于 DaVince 架構的 NPU ,阿里則推出了“含光”架構的 NPU 。

隨著芯片構造方式的變化,大量異構處理器方案也不斷衍生,每個芯片都對處理器性能、優(yōu)化目標、所需的數(shù)據(jù)吞吐量以及數(shù)據(jù)流做出了不同的選擇。在這幾大類處理器芯片中,IPU與DPU發(fā)展速度領先。隨著5G邊緣云、自動駕駛和車路協(xié)同、金融計算等帶來越來越多的數(shù)據(jù)量,各種“X”PU的市場價值都在不斷攀升。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

越來越卷的AI,“X”PU的各有所長

AI應用場景的豐富帶來眾多碎片化的需求,基于此適配各種功能的處理器不斷衍生。

文|半導體產業(yè)縱橫

AI運算指以“深度學習” 為代表的神經網(wǎng)絡算法,需要系統(tǒng)能夠高效處理大量非結構化數(shù)據(jù)(文本、視頻、圖像、語音等)。需要硬件具有高效的線性代數(shù)運算能力,計算任務具有:單位計算任務簡單,邏輯控制難度要求低,但并行運算量大、參數(shù)多的特點。對于芯片的多核并行運算、片上存儲、帶寬、低延時的訪存等提出了較高的需求。

AI應用場景的豐富帶來眾多碎片化的需求,基于此適配各種功能的處理器不斷衍生。

CPU

CPU即中央處理器(Central Processing Unit),作為計算機系統(tǒng)的運算和控制核心,主要負責多任務管理、調度,具有很強的通用性,是計算機的核心領導部件,好比人的大腦。不過其計算能力并不強,更擅長邏輯控制。

正是因為CPU的并行運算能力不是很強,所以很少有人優(yōu)先考慮在 CPU 上直接訓練模型。不過芯片巨頭英特爾就選擇了這么一條路。

像英特爾至強可擴展處理器這種 AI build-in 的 CPU 在支持模型訓練上已經有了極大地提升,去年由萊斯大學、螞蟻集團和英特爾等機構的研究者發(fā)表的一篇論文中表明,在消費級 CPU 上運行的 AI 軟件,其訓練深度神經網(wǎng)絡的速度是 GPU 的 15 倍,另外相比顯存 CPU 的內存更易擴展,很多推薦算法、排序模型、圖片 / 影像識別等應用,已經在大規(guī)模使用 CPU 作為基礎計算設備。

相比價格高昂的 GPU,CPU 其實是一種性價比很高的訓練硬件,也非常適合對結果準確度要求高兼顧成本考量的制造業(yè)、圖像處理與分析等行業(yè)客戶的深度學習模型。

GPU

GPU即圖形處理器(Graphics Processing Unit),采用數(shù)量眾多的計算單元和超長的流水線,擅長進行圖像處理、并行計算。

對于復雜的單個計算任務來說,CPU 的執(zhí)行效率更高,通用性更強;而對于圖形圖像這種矩陣式多像素點的簡單計算,更適合用 GPU 來處理,也有人稱之為人海戰(zhàn)術。而AI 領域中用于圖像識別的深度學習、用于決策和推理的機器學習以及超級計算都需要大規(guī)模的并行計算,因此更適合采用 GPU 架構。

多核 CPU 與 GPU 的計算網(wǎng)格(圖中綠色方格為計算單元)

CPU和GPU還有一個很大的區(qū)別就是:CPU可單獨作用,處理復雜的邏輯運算和不同的數(shù)據(jù)類型,但當需要處理大量類型統(tǒng)一的數(shù)據(jù)時,則可調用GPU進行并行計算。但GPU無法單獨工作,必須由CPU進行控制調用才能工作。

在AI計算領域英偉達的GPU幾乎占到市場的絕大部分,但近幾年也有不少國產企業(yè)進軍高端GPU,比如沐曦首款采用7nm工藝的異構GPU產品已流片、壁仞前不久也發(fā)布了單芯片峰值算力達到PFLOPS級別的BR100,還有燧原科技、黑芝麻、地平線等公司都在向高端GPU發(fā)力。

DPU

DPU即數(shù)據(jù)處理器(Data Processing Unit),用于優(yōu)化卷積神經網(wǎng)絡,廣泛應用于加速深度學習推理算法。

當CPU算力釋放遇瓶頸,DPU能夠卸載 CPU 的基礎層應用(如網(wǎng)絡協(xié)議處理、加密解密、數(shù)據(jù)壓縮等),從而釋放CPU低效應用端的算力,將CPU算力集中在上層應用。區(qū)別于GPU,DPU主要用于對數(shù)據(jù)解析與處理,提高數(shù)據(jù)接發(fā)的效率,而GPU則是專注于數(shù)據(jù)的加速計算。因此,DPU將有望成為釋放CPU算力新的關鍵芯片,并與CPU、GPU形成優(yōu)勢互補,提高算力天花板。

DPU還具有高性能網(wǎng)絡接口,能以線速或網(wǎng)絡中的可用速度解析、處理數(shù)據(jù),并高效地將數(shù)據(jù)傳輸?shù)紾PU和CPU。

英偉達收購Mellanox后,憑借原有的ConnectX系列高速網(wǎng)卡技術,推出其 BlueField系列DPU,成為DPU賽道的標桿。英偉達首席執(zhí)行官黃仁勛也曾表示:“ DPU 將成為未來計算的三大支柱之一,未來的數(shù)據(jù)中心標配是‘ CPU + DPU + GPU ’。CPU 用于通用計算, GPU 用于加速計算, DPU 則進行數(shù)據(jù)處理?!?/p>

當下的DPU的市場,已經成為各個巨頭和初創(chuàng)公司的必爭之地,除英偉達等企業(yè)開始布局DPU產業(yè)外,阿里巴巴、華為在內的各大云服務商也逐漸躋身DPU行業(yè)。其他還有芯啟源、大禹智芯、星云智聯(lián)、中科馭數(shù)、云豹智能等公司。

TPU

TPU即張量處理器(Tensor Processing Unit)是谷歌專門為加速深層神經網(wǎng)絡運算能力而研發(fā)的ASIC 芯片,專用機器學習的人工智能加速處理器。

AI 系統(tǒng)通常涉及訓練和推斷過程。簡單來說,訓練過程是指在已有數(shù)據(jù)中學習,獲得某些能力的過程;而推理過程則是指對新的數(shù)據(jù),使用這些能力完成特定任務(比如分類、識別等);推理是將深度學習訓練成果投入使用的過程。

有老話言,萬能工具的效率永遠比不上專用工具。TPU與同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率(性能/瓦特)提升。此外,在 TPU 中采用 GPU 常用的 GDDR5 存儲器能使性能TPOS指標再高 3 倍,并將能效比指標 TOPS/Watt 提高到 GPU 的 70 倍,CPU 的 200 倍。

2016年 TPU 消息剛剛公布時,谷歌資深硬件工程師Norman Jouppi 在谷歌Research 博客中特別提到,TPU 從測試到量產只用了 22 天,其性能把人工智能技術往前推進了差不多 7 年,相當于摩爾定律 3 代的時間。

IPU

IPU即圖像處理單元(Intelligent Processing Unit),可以從圖像傳感器到顯示設備的數(shù)據(jù)流提供全面支持,連接到相關設備,比如:攝像機、顯示器、圖形加速器、電視編碼器和解碼器。相關圖像處理與操作包括傳感器圖像信號處理、顯示處理、圖像轉換等,以及同步和控制功能。 采用的是大規(guī)模并行同構眾核架構,同時將訓練和推理合二為一,為AI計算提供了全新的技術架構,兼具處理二者工作的能力。

IPU是英國AI芯片創(chuàng)業(yè)公司Graphcore率先提出的概念,Graphcore的第一代IPU如今已在微軟Azure云以及Dell-EMC服務器中使用,為AI算法帶來了飛躍性的性能提升,也為開發(fā)者帶來更廣闊的創(chuàng)新空間及更多創(chuàng)新機會。

目前,IPU正在成為僅次于GPU和谷歌TPU的第三大部署平臺,基于IPU的應用已經覆蓋包括自然語言處理、圖像/視頻處理、時序分析、推薦/排名及概率模型等機器學習的各個應用場景。

2021年,英特爾推出了IPU技術,近日又和谷歌共同設計了新型定制基礎設施處理單元(IPU)芯片 E2000 ,代號為“Mount Evans”,以降低數(shù)據(jù)中心主 CPU 負載,并更有效和安全地處理數(shù)據(jù)密集型云工作負載。

NPU

CPU和GPU的制造成本較高,功耗也比較大,加之AI場景下需要運算的數(shù)據(jù)量與日俱增,一種針對神經網(wǎng)絡深度學習的高效智能處理器應運而生,也就是NPU。

NPU即神經網(wǎng)絡處理器(Neural network Processing Unit),它是用電路模擬人類的神經元和突觸結構。用于加速神經網(wǎng)絡的運算,解決傳統(tǒng)芯片在神經網(wǎng)絡運算時效率低下的問題,特別擅長處理視頻、圖像類的海量多媒體數(shù)據(jù)。

與CPU、GPU處理器運行需要的數(shù)千條指令相比,NPU只要一條或幾條就能完成,且在同等功耗下NPU 的性能可以達到 GPU 的 118 倍,因此在深度學習的處理效率方面優(yōu)勢明顯。NPU 目前較多地在端側應用于 AI 推理計算,在云端也有大量運用于視頻編解碼運算、自然語言處理、數(shù)據(jù)分析,部分NPU還能運用于 AI 的訓練。

比如在手機SoC中,CPU是負責計算和整體協(xié)調的,而GPU是負責和圖像有關的部分,NPU負責和AI有關的部分,其工作流程則是,任何工作都要先通過CPU,CPU再根據(jù)這一塊工作的性質來決定分配給誰。如果是圖形方面的計算,就會分配給GPU,如果是AI方面的計算需求,就分配給NPU。

NPU具體的應用有:基于人臉識別的考勤機、基于 DHN(深度哈希網(wǎng)絡)的掌紋識別、基于圖像分類的自動垃圾分類、自動駕駛汽車、自動跟焦攝像機、監(jiān)視系統(tǒng)等。

2014年中科院的陳天石科研團隊發(fā)表了 DianNao 系列論文,隨即席卷了體系結構界,開啟了專用人工智能芯片設計的先河,后來中科院旗下的寒武紀科技推出了其第一代 NPU 寒武紀 1A,并用在了華為麒麟 970 芯片中,華為也推出了自研的基于 DaVince 架構的 NPU ,阿里則推出了“含光”架構的 NPU 。

隨著芯片構造方式的變化,大量異構處理器方案也不斷衍生,每個芯片都對處理器性能、優(yōu)化目標、所需的數(shù)據(jù)吞吐量以及數(shù)據(jù)流做出了不同的選擇。在這幾大類處理器芯片中,IPU與DPU發(fā)展速度領先。隨著5G邊緣云、自動駕駛和車路協(xié)同、金融計算等帶來越來越多的數(shù)據(jù)量,各種“X”PU的市場價值都在不斷攀升。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。