• 正文
  • 推薦器件
  • 相關推薦
申請入駐 產業(yè)圖譜

各類算力芯片,如何繁榮生長?

2024/05/06
2833
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

作者:豐寧

隨著ChatGPT的出圈,大家可以明顯感受到全社會對于生成式人工智能技術的廣泛關注,隨著大模型的數(shù)量和模型參數(shù)量不斷激增,對算力的需求也越來越高。

根據《中國算力發(fā)展指數(shù)白皮書》中的定義,算力是設備通過處理數(shù)據,實現(xiàn)特定結果輸出的計算能力。算力實現(xiàn)的核心是CPU、GPU等各類計算芯片,并由計算機、服務器和各類智能終端等承載,海量數(shù)據處理和各種數(shù)字化應用都離不開算力的加工和計算。

那么,不同的算力芯片分別適用于何種應用場景,不同的算力芯片又有哪些區(qū)別?

?01、不同場景需要何種算力芯片

小至耳機、手機、PC,大到汽車、互聯(lián)網、人工智能、數(shù)據中心、超級計算機、航天火箭等,“算力”都在其中發(fā)揮著核心作用,而不同的算力場景,對芯片的要求也各不同。

數(shù)據中心作為數(shù)字時代的核心基礎設施,承載著大量的數(shù)據處理、存儲和傳輸任務。因此,它們需要強大的算力來應對各種復雜的計算需求。數(shù)據中心和超算需要高于1000TOPS的高算力芯片。當前,超算中心算力已經進入E級算力(百億億次運算每秒)時代,并正在向Z(千E)級算力發(fā)展。

數(shù)據中心對于芯片的低功耗、低成本、可靠性以及通用性的要求都極高。智能自動駕駛涉及人機交互、視覺處理、智能決策等眾多方面,車載傳感器激光雷達、攝像頭、毫米波雷達等)的不斷增加,數(shù)據處理的實時性、復雜性和準確性要求不斷提高,都對車載算力提出了更高的要求。

通常,業(yè)內認為實現(xiàn)L2級自動輔助駕駛需要的算力在10TOPS以下,L3級需要30~60TOPS,L4級需要超過300TOPS,L5級需要超過1000TOPS,甚至4000+TOPS。所以自動駕駛領域的車載算力是遠遠大于生活中常見的手機、電腦的計算能力。比如蔚來ET5的處理器算力達1016TOPS、小鵬P7的處理器算力達508TOPS。

智能駕駛中,安全至關重要,因此該場景對算力芯片的可靠性有著極高的要求,對于芯片通用性的要求也較高,對于功耗和成本的要求就相對沒有那么苛刻。為了應對當前視頻處理、人臉識別以及異常檢測等復雜任務的挑戰(zhàn),同時確保系統(tǒng)在未來技術升級和拓展時擁有充足的計算資源。

智能安防系統(tǒng)需要大約4-20TOPS的算力,這一數(shù)值雖然相較數(shù)據中心要小得多,但是也足以保障智能安防系統(tǒng)的高效穩(wěn)定運作。隨著AI安防進入下半場,算力的重要性愈發(fā)凸顯,這一數(shù)值也在不斷上漲。

智能安防對低成本和可靠性的需求比較高,功耗和通用性的要求則相對中等。在智能移動終端中,可穿戴設備等小型產品對算力的需求相對不高,但智能手機筆記本電腦等產品對算力的需求正在大幅提升。比如,前幾年的iPhone12搭載的A14芯片算力約為11TOPS,小米10手機所配備的驍龍865芯片算力則為15TOPS。

然而,隨著AI技術在智能手機中的日益集成和普及,驍龍888的算力已達到26TOPS,之后的8Gen1、8Gen2等芯片更是算力更是做了顯著提升。智能移動終端也是一個對低功耗和低成本有著高要求的應用場景,對可靠性的要求相對較高,對通用性則沒有太多的限制。

?02、主流的算力芯片及其特征

當下的基礎算力主要由基于CPU芯片的服務器提供,面向基礎通用計算。智能算力主要基于GPU、FPGA、ASIC等芯片的加速計算平臺提供,面向人工智能計算。高性能計算算力主要基于融合CPU芯片和GPU芯片打造的計算集群提供,主要面向科學工程計算等應用場景。

CPU是傳統(tǒng)通用計算之王,包含運算器、控制器、存儲器等主要部分。數(shù)據在存儲器中存儲,控制器從存儲器中獲取數(shù)據并交給運算器進行運算,運算完成后再將結果返回存儲器。CPU的特點是通用性強,可處理各種類型的計算任務,但其計算效率不及專門針對特定任務設計的芯片。

GPU最初用于加速圖形渲染,也被稱為圖形處理的利器。近年來,GPU在深度學習等領域表現(xiàn)出色,被廣泛應用于人工智能計算。GPU的特點是具有大量并行計算單元,可同時處理大量數(shù)據,使其在并行計算任務中具有很高的效率。但GPU的通用性不及CPU,僅適用于特定類型計算任務。

ASIC是一種專為特定任務而設計的芯片。它通過硬件實現(xiàn)算法,可在特定任務中實現(xiàn)極高的計算效率和能效。ASIC的特點是針對性強,僅適用于特定任務,但其計算效率和能效遠超CPU和GPU,適用于規(guī)模大或成熟度高的產品。FPGA利用門電路直接運算、速度較快。相比于GPU,F(xiàn)PGA具有更高的處理速度和更低的能耗,但相比相同工藝條件下的ASIC,F(xiàn)PGA仍有不及,不過FPGA可以進行編程,相比ASIC也更加靈活。

FPGA適用于快速迭代或小批量產品,在AI領域,F(xiàn)PGA芯片可作為加速卡加速AI算法的運算速度。GPGPU即通用圖形處理器,其中第一個“GP”通用目的,而第二個“GP”則表示圖形處理,主要目標是利用GPU的并行計算能力來加速通用計算任務??梢酝ㄋ椎膶PGPU理解為一個輔助CPU進行非圖形相關程序的運算的工具。適用于大規(guī)模并行計算場景,比如科學計算、數(shù)據分析、機器學習等場景。

?03、GPU是AI的最優(yōu)解,但未必是唯一解

在ChatGPT引發(fā)的人工智能熱潮下,最受歡迎的莫過于GPU,為了發(fā)展AI,全球領先的科技巨頭都在爭相囤積英偉達的GPU。GPU因何受到AI時代諸多廠商的青睞?原因很簡單,因為AI計算和圖形計算類似,包含大量的高強度并行計算任務。具體解釋為,訓練和推理是AI大模型的基石。

在訓練環(huán)節(jié),通過輸入大量的數(shù)據,訓練出一個復雜的神經網絡模型。在推理環(huán)節(jié),利用訓練好的模型,使用大量數(shù)據推理出各種結論。而神經網絡的訓練和推理過程涉及一系列具體的算法,如矩陣相乘、卷積、循環(huán)層處理以及梯度運算等。這些算法通??梢愿叨炔⑿谢?,也就是說,它們可以被分解為大量可以同時執(zhí)行的小任務。而GPU擁有大量的并行處理單元,可以快速地執(zhí)行深度學習中需要的矩陣運算,從而加速模型的訓練和推理。

目前,大部分企業(yè)的AI訓練,采用的都是英偉達的GPU集群。如果進行合理優(yōu)化,一塊GPU卡,可以提供相當于數(shù)十臺甚至上百臺CPU服務器的算力。AMD、英特爾等企業(yè)也正在積極提升其技術實力,爭取市場份額。中國頭部廠商包括景嘉微、龍芯中科、海光信息、寒武紀、芯原股份等??梢钥吹?,在AI領域,GPU一騎絕塵,正如英偉達將自身定義為人工智能領導者一樣,可以看到業(yè)內目前幾乎所有關于人工智能的應用背后都離不開GPU的身影。

這時候可能會有人發(fā)問,在AI盛行的當下,單憑GPU就足夠了嗎?GPU是否會獨占未來AI市場的鰲頭,成為無可爭議的寵兒?筆者認為,非也。GPU固然是當下的最優(yōu)解,但未必是唯一解。

CPU可以發(fā)揮更多的作用

GPU雖然目前在AI領域占據了主導地位,但是它也面臨著一些挑戰(zhàn)和局限。比如說,GPU的供應鏈問題導致了價格上漲和供應不足,這對于AI開發(fā)者和用戶來說都是一個負擔。而CPU則有著更多的競爭者和合作伙伴,可以促進技術的進步和降低成本。

而且,CPU也有著更多的優(yōu)化技術和創(chuàng)新方向,可以讓CPU在AI領域發(fā)揮出更大的作用。一些更為精簡或小巧的模型,在傳統(tǒng)CPU上同樣能夠展現(xiàn)出卓越的運行效率,而且往往更加經濟實惠、節(jié)能環(huán)保。這證明了在選擇硬件時,需根據具體應用場景和模型復雜度來權衡不同處理器的優(yōu)勢。

比如HuggingFace公司的首席AI布道者JulienSimon演示的一個基于IntelXeon處理器的語言模型Q8-Chat。這個模型有70億個參數(shù),可以在一個32核心的CPU上運行,并提供一個類似于OpenAIChatGPT的聊天界面,可以快速地回答用戶的問題,并且速度比ChatGPT快得多。除了運行超大規(guī)模的語言模型,CPU還可以運行更小更高效的語言模型。

這些語言模型通過一些創(chuàng)新的技術,可以大幅減少計算量和內存占用,從而適應CPU的特點。這也意味著CPU在AI領域并沒有被完全邊緣化,而是有著不容忽視的優(yōu)勢和潛力。全球CPU市場由英特爾、AMD雙寡頭壟斷,合計市場份額超過95%。目前,龍芯、申威、海光、兆芯、鯤鵬、飛騰六大國產CPU廠商快速崛起,加速推動了國產CPU的發(fā)展進程。

CPU+FPGA、CPU+ASIC也富有潛力

不僅如此,由于AI加速服務器異構的特點,市場上除了CPU+GPU的組合方式之外,還有其它多種多樣的架構,例如:CPU+FPGA、CPU+ASIC、CPU+多種加速卡。技術的變革是迅速的,未來確有可能出現(xiàn)更加高效、更加適合AI計算的新技術。

CPU+FPGA、CPU+ASIC便是未來的可能之一。CPU擅長邏輯控制和串行處理,而FPGA則具有并行處理能力和硬件加速特性。通過結合兩者,可以顯著提升系統(tǒng)的整體性能,特別是在處理復雜任務和大規(guī)模數(shù)據時。FPGA的可編程性使得其可以根據具體應用場景進行靈活配置和定制。

這意味著CPU+FPGA架構可以適應各種不同的需求,從通用計算到特定應用的加速,都可以通過調整FPGA的配置來實現(xiàn)。而ASIC是專門為特定應用設計的集成電路,因此它在性能和功耗上通常都經過了高度優(yōu)化。與CPU結合使用時,可以確保系統(tǒng)在處理特定任務時具有出色的性能和效率。此外,ASIC的設計是固定的,一旦制造完成,其功能就不會改變。這使得ASIC在需要長時間穩(wěn)定運行和高可靠性的場景中表現(xiàn)出色。全球FPGA芯片市場主要由賽靈思、英特爾雙寡頭壟斷,合計占有率高達87%。

國內主要廠商包括復旦微電、紫光國微和安路科技。國外谷歌、英特爾、英偉達等巨頭相繼發(fā)布了ASIC芯片。國內寒武紀、華為海思、地平線等廠商也都推出了深度神經網絡加速的ASIC芯片。GPGPU能使用更高級別的編程語言,在性能和通用性上更加強大,也是目前AI加速服務器的主流選擇之一。GPGPUDE核心廠商主要包括NVIDIA、AMD、壁仞科技、沐曦和天數(shù)智芯等。

?04、中國算力,規(guī)模如何?

根據IDC的預測,未來3年全球新增的數(shù)據量將超過過去30年的總和,到2024年,全球數(shù)據總量將以26%的年均復合增長率增長到142.6ZB。這些將使得數(shù)據存儲、數(shù)據傳輸、數(shù)據處理的需求呈現(xiàn)指數(shù)級增長,不斷提升對算力資源的需求。

另外,面向人工智能等場景,大規(guī)模的模型訓練和推理也需要強大的高性能算力供應。近年來,中國算力基礎設施建設取得顯著成效。到2023年底,全國在用數(shù)據中心機架總規(guī)模超過810萬標準機架,算力總規(guī)模達到230百億億次/秒(EFLOPS),算力正加速向政務、工業(yè)、交通、醫(yī)療等各行業(yè)各領域滲透。同時,在“東數(shù)西算”工程與全國一體化算力網的布局下,中國算力網——智算網絡一期已經上線,全國算力“一張網”已具雛形。

政策面,中國陸續(xù)出臺《全國一體化大數(shù)據中心協(xié)同創(chuàng)新體系算力樞紐實施方案》、《算力基礎設施高質量發(fā)展行動計劃》、《“十四五”數(shù)字經濟發(fā)展規(guī)劃》等一系列文件推動算力基礎設施建設。

此外,國家推動多地智算中心建設,由東向西逐步擴展。當前中國超過30個城市正在建設或提出建設智算中心,據科技部出臺政策要求,“混合部署的公共算力平臺中,自主研發(fā)芯片所提供的算力標稱值占比不低于60%,并優(yōu)先使用國產開發(fā)框架,使用率不低于60%”,國產AI芯片滲透率有望快速提升。據IDC數(shù)據,中國智能算力未來將快速增長,2021年到2026年期間中國智能算力規(guī)模年復合增長率達52.3%。

推薦器件

更多器件
器件型號 數(shù)量 器件廠商 器件描述 數(shù)據手冊 ECAD模型 風險等級 參考價格 更多信息
AT91SAM7X512B-AUR 1 Microchip Technology Inc IC MCU 32BIT 512KB FLASH 100LQFP

ECAD模型

下載ECAD模型
$15.51 查看
DS3234S# 1 Maxim Integrated Products Real Time Clock, Non-Volatile, 1 Timer(s), CMOS, PDSO20, 0.300 INCH, ROHS COMPLIANT, SOP-20
$8.75 查看
STM32F407IGT6 1 STMicroelectronics High-performance foundation line, Arm Cortex-M4 core with DSP and FPU, 1 Mbyte of Flash memory, 168 MHz CPU, ART Accelerator, Ethernet, FSMC

ECAD模型

下載ECAD模型
$13.79 查看

相關推薦

登錄即可解鎖
  • 海量技術文章
  • 設計資源下載
  • 產業(yè)鏈客戶資源
  • 寫文章/發(fā)需求
立即登錄

公眾號:半導體產業(yè)縱橫。立足產業(yè)視角,提供及時、專業(yè)、深度的前沿洞見、技術速遞、趨勢解析,鏈接產業(yè)資源,構建IC生態(tài)圈,賦能中國半導體產業(yè),我們一直在路上。