AI話題熱議,2024年將拓展至更多邊緣AI應(yīng)用,或延續(xù)AI server基礎(chǔ),推至AI PC等終端裝置。TrendForce集邦咨詢預(yù)期,2024年全球AI服務(wù)器(包含AI Training及AI Inference)將超過160萬臺,年成長率達(dá)40%,而后續(xù)預(yù)期CSP也將會(huì)更積極投入。
由于嚴(yán)謹(jǐn)?shù)腅dge AI應(yīng)用,將回歸至終端的AI PC,借以落實(shí)分散AI服務(wù)器的工作量能,并且擴(kuò)大AI使用規(guī)模的可能性。據(jù)此,TrendForce集邦咨詢定義AI PC需達(dá)Microsoft要求的40 TOPS算力基礎(chǔ),考量滿足此需求的新品出貨都將落于2024下半年,待CPU產(chǎn)業(yè)龍頭Intel于2024年終推出Lunar Lake后,2025年才可望見證更快速的成長。
目前AI PC市場可大致分為兩大推動(dòng)力量,其一,由終端應(yīng)用需求推動(dòng),主由Microsoft憑借個(gè)人計(jì)算機(jī)Windows操作系統(tǒng)及Office等工具幾近獨(dú)占市場地位,預(yù)期將推新一代Windows整合Copilot,促使Copilot變成硬需求。其二,CPU領(lǐng)先者Intel訴求AI PC為搭配CPU+GPU+NPU架構(gòu),藉此推動(dòng)發(fā)展各種終端AI應(yīng)用。
以Microsoft Copilot對算力的要求來說,Qualcomm于2023年底發(fā)布的Snapdragon X Elite平臺,將于2024年下半年前率先出貨符合Copilot標(biāo)準(zhǔn)的CPU,算力應(yīng)可達(dá)45 TOPS,而AMD隨后將推出的Ryzen 8000系列(Strix Point),估計(jì)也將符合該算力規(guī)格。若以Intel于2023年12月推出的Meteor Lake,其CPU+GPU+NPU算力僅34 TOPS,并不符合Microsoft要求,但預(yù)期今年底所推Lunar Lake則有機(jī)會(huì)超過40 TOPS門檻。
值得注意的是,未來在Qualcomm及Intel、AMD競逐AI PC過程,也將牽動(dòng)x86及Arm兩大CPU陣營在Edge AI市場的競爭。由于Qualcomm有望率先符合Microsoft需求,以PC主要OEMs如Dell、HPE、LENOVO、或ASUS、ACER等在2024年將陸續(xù)開發(fā)搭載Qualcomm CPU機(jī)種,以爭取首波AI PC機(jī)會(huì),將帶給X86陣營一定威脅。
AI PC有望帶動(dòng)PC平均搭載容量提升,并拉高PC DRAM的LPDDR比重
從現(xiàn)有Microsoft針對AI PC的規(guī)格要求來看,DRAM基本需求為16GB起跳,長期來看,TrendForce集邦咨詢認(rèn)為,AI PC將有機(jī)會(huì)帶動(dòng)PC DRAM的位元需求年成長,后續(xù)伴隨著消費(fèi)者的換機(jī)潮,進(jìn)而加大產(chǎn)業(yè)對PC DRAM的位元需求。
再者,以Microsoft定義的滿足NPU 40 TOPS的CPU而言,共有三款且依據(jù)出貨時(shí)間先后分別為Qualcomm Snapdragon X Elite、AMD Strix Point及Intel Lunar Lake。其中,三款CPU的共同點(diǎn)為皆采用LPDDR5x,而非現(xiàn)在主流采用的DDR SO-DIMM模組,主要考量在于傳輸速度的提升;以DDR5規(guī)格而言,目前速度為4800-5600Mbps,而LPDDR5x則是落于7500-8533Mbps,對于需要接受更多語言指令,及縮短反應(yīng)速度的AI PC將有所幫助。因此,TrendForce集邦咨詢預(yù)期,今年LPDDR占PC DRAM需求約30~35%,未來將受到AI PC的CPU廠商的規(guī)格支援,從而拉高LPDDR導(dǎo)入比重再提升。