作為人工智能 (AI) 的創(chuàng)新基礎(chǔ),眾多企業(yè)都在使用通用且應(yīng)用廣泛的 Arm 計(jì)算平臺。迄今為止,合作伙伴基于 Arm 架構(gòu)的芯片出貨量已超過 2,900 億顆。如今,Arm 已為各類技術(shù)領(lǐng)域的 AI 應(yīng)用提供支持,這也是為何 AI 的技術(shù)先行者們能夠基于 Arm 平臺快速創(chuàng)新的關(guān)鍵原因。
無論是現(xiàn)在還是未來,Arm 平臺都是 AI 運(yùn)行的基石。若要滿足對 AI 技術(shù)和應(yīng)用的旺盛需求,則必須在計(jì)算領(lǐng)域的方方面面實(shí)現(xiàn)無處不在的 AI 功能。從使用無數(shù)處理器訓(xùn)練大語言模型 (LLM) 的大型數(shù)據(jù)中心,到全球數(shù)字消費(fèi)者每天接觸邊緣 AI 的電子設(shè)備,計(jì)算領(lǐng)域的方方面面都有 AI 的身影。
高效的 AI 計(jì)算
若要滿足 AI 對高算力的需求,則少不了對高效計(jì)算性能的投入。生成式 AI 的發(fā)展推動了對 AI 算力和資源的需求空前增長。一名荷蘭研究人員指出,如果一年內(nèi)每次使用 Google 進(jìn)行搜索都運(yùn)用到 AI,其所需的電力相當(dāng)于愛爾蘭全國一年的用電量。長遠(yuǎn)來看,考慮到地球上資源有限,這種方法是難以為繼的。
Arm 提供了計(jì)算性能和能效的卓越組合,推動了智能手機(jī)領(lǐng)域的技術(shù)革新,而同樣的趨勢也正發(fā)生在 AI 革新中。
數(shù)據(jù)中心中的 AI
頭部超大規(guī)模服務(wù)運(yùn)營商正采用定制芯片戰(zhàn)略,來進(jìn)行數(shù)據(jù)中心轉(zhuǎn)型,以迎接 AI 時(shí)代。
軟銀公司正在與 NVIDIA 合作,建設(shè)全球首座采用基于 Arm 架構(gòu)的 Grace Hopper 超級芯片的 5G AI 數(shù)據(jù)中心。這一突破性的 AI 加速 CPU 專為超大規(guī)模 AI 和高性能計(jì)算應(yīng)用而設(shè)計(jì)。Grace Hopper 基于 72 顆 Arm Neoverse V2 核心打造,在 AI 的高負(fù)荷任務(wù)中實(shí)現(xiàn)了 10 倍的性能飛躍,同時(shí)大幅提高了每瓦性能。微軟則在此前發(fā)布了其首款專為云計(jì)算打造的定制芯片 Azure Cobalt 100 處理器,該處理器基于 Arm Neoverse CSS N2 打造。此外,基于 Arm Neoverse 平臺的 AWS Graviton3 可以使 AI 推理(使用訓(xùn)練后的模型對新的真實(shí)數(shù)據(jù)進(jìn)行預(yù)測的過程)的成本節(jié)約 50%。
在數(shù)據(jù)中心中約有 85% 的 AI 工作負(fù)載用于運(yùn)行推理,其驅(qū)動了各種用例、行業(yè)和設(shè)備的 AI 應(yīng)用,因此企業(yè)有巨大的動力來降低相關(guān)的能源消耗和成本。
邊緣 AI
除了數(shù)據(jù)中心和云服務(wù),許多 AI 工作負(fù)載還需要在設(shè)備上進(jìn)行處理,以便更有效地分布 AI 工作負(fù)載。
在設(shè)備上處理 AI 工作負(fù)載已經(jīng)成為現(xiàn)實(shí),無論是智能手機(jī)、智能家居設(shè)備還是智能汽車,這一趨勢將繼續(xù)增長,特別是隨著大語言模型 (LLM) 變得更加高效,并針對特定任務(wù)、用例或設(shè)備而專門打造。直接在采集數(shù)據(jù)的設(shè)備上處理 AI 計(jì)算,可以帶來更快、更安全的用戶體驗(yàn)并減少延遲,這對于工業(yè)和汽車應(yīng)用等對安全性要求很高的用例來說至關(guān)重要。
開發(fā)者正在編寫更精簡的 AI 模型,以在小型微處理器甚至更小的微控制器上運(yùn)行,從而節(jié)省能源、時(shí)間和成本。例如,Plumerai 提供的軟件解決方案可在基于 Arm Cortex-A 和 Cortex-M 的系統(tǒng)級芯片 (SoC) 上加速神經(jīng)網(wǎng)絡(luò),并在基于 Arm 架構(gòu)的微控制器上運(yùn)行略高于 1MB 的 AI 代碼,其可執(zhí)行面部檢測和識別等功能。
基于處理器技術(shù)的 AI
無論是由 CPU 處理全部 AI 工作負(fù)載,還是由 GPU 或 NPU 等協(xié)處理器提供支持,AI 處理始于 CPU。
過去十年間,Arm 的 CPU 和 GPU 的 AI 處理能力每兩年就實(shí)現(xiàn)翻番,目前 70% 的第三方應(yīng)用中的 AI 都基于 Arm CPU 運(yùn)行,在關(guān)鍵技術(shù)市場中推動了邊緣 AI 的顯著發(fā)展。
基于 Armv9 CPU 和 GPU 技術(shù)打造的高性能 AI 手機(jī)現(xiàn)已問世,其中包括搭載 MediaTek 天璣 9300 的 vivo X100 和 X100 Pro 智能手機(jī),以及 Google Pixel 8,這是首款專為 Google 的 AI 模型 Gemini Nano 進(jìn)行工程研發(fā)的智能手機(jī),可在邊緣執(zhí)行一系列 AI 的任務(wù)。與此同時(shí),超過 200 億個(gè)基于 Arm 架構(gòu)的 SoC 能夠運(yùn)行各種物聯(lián)網(wǎng)設(shè)備上廣泛的 ML 工作負(fù)載,包括基于 Cortex-M 處理器、Arm Ethos-U NPU 和 Cortex-A CPU 打造的設(shè)備。而在汽車領(lǐng)域,如今的車用芯片可實(shí)現(xiàn)基本的 AI 功能,如障礙物檢測、3D 視圖和簡單的傳感器融合,這些功能都在 Arm CPU 上運(yùn)行。下一代基于 AI 的汽車功能,如先進(jìn)駕駛輔助系統(tǒng) (ADAS) 和自動駕駛功能,也基于 Arm CPU 而構(gòu)建。
全球最大的開發(fā)者社區(qū)
Arm 持續(xù)的軟件投入正建立起全球最大的 AI 開發(fā)者社區(qū)。
Arm 致力于以最常見的方式讓開發(fā)者能夠更簡單、更快速、更安全地進(jìn)行編碼,攜手實(shí)現(xiàn)無處不在的 AI。如今,超過一億用戶可以使用 Arm NN 軟件開發(fā)工具包,在 Arm CPU 和 GPU 上優(yōu)化 ML 工作負(fù)載。對于全球 1,500 萬 Arm 架構(gòu)設(shè)備開發(fā)者來說,這使他們能夠運(yùn)行復(fù)雜的 AI 和 ML 工作負(fù)載,確保將應(yīng)用更快地推向市場。
Arm 在其業(yè)界領(lǐng)先的生態(tài)系統(tǒng)中開展了一系列合作,以使其對開發(fā)者的 AI 承諾付諸實(shí)踐。此外,Arm還通過開源框架和庫,為基于 Arm 架構(gòu)的硬件提供強(qiáng)大的 ML 功能,為開發(fā)者提供全方位支持,包括 TensorFlow、PyTorch、Caffe 2、OpenVINO 和 TVM,從而為開源社區(qū)打造 AI 創(chuàng)新基礎(chǔ)。
寫在最后
AI 為下一個(gè)技術(shù)創(chuàng)新奠定了基礎(chǔ),引領(lǐng)社會進(jìn)入一個(gè)潛力非凡的新時(shí)代。而實(shí)現(xiàn)這一切的前提正是讓 AI 無處不在。這不僅意味著要在云端、數(shù)據(jù)中心和超級計(jì)算機(jī)中實(shí)現(xiàn) AI,還要確保復(fù)雜的 AI 工作負(fù)載能夠在更小、更受限的邊緣技術(shù)和設(shè)備上運(yùn)行。能效與性能對于推動邊緣 AI 的發(fā)展同等重要。
Arm 正在促成這一目標(biāo)。Arm提供了應(yīng)用廣泛的通用計(jì)算平臺,賦能邊緣設(shè)備和其他領(lǐng)域的各種可能性。無論是 CPU、GPU、ISP 還是 NPU,Arm 在每一代產(chǎn)品中都增加了更多 AI 性能、效率功能及安全特性,同時(shí)還為合作伙伴提供了多樣的靈活性,使它們能夠集成和開發(fā)自己的創(chuàng)新解決方案。而在軟件、工具和生態(tài)系統(tǒng)方面,IP 與開源軟件和工具乃至廣泛的行業(yè)領(lǐng)先生態(tài)系統(tǒng)相結(jié)合,讓全球上千萬開發(fā)者都可以使用 Arm 計(jì)算平臺作為 AI 創(chuàng)新的基礎(chǔ)。從傳感器、智能手機(jī),到工業(yè)級物聯(lián)網(wǎng)、汽車和數(shù)據(jù)中心,基于 Arm 平臺的 AI 無處不在。