2024年大型CSPs(云端服務(wù)業(yè)者)及品牌客戶等對于高階AI服務(wù)器的高度需求未歇,加上CoWoS原廠臺積電及HBM(高帶寬內(nèi)存)原廠如SK hynix(SK海力士)、Samsung(三星)及Micron(美光科技)逐步擴(kuò)產(chǎn)下,于今年第2季后短缺狀況大幅緩解,連帶使得NVIDIA(英偉達(dá))主力方案H100的交貨前置時間(Lead Time)從先前動輒40-50周下降至不及16周,因此TrendForce集邦咨詢預(yù)估AI服務(wù)器第2季出貨量將季增近20%,全年出貨量上修至167萬臺,年增率達(dá)41.5%。
TrendForce集邦咨詢表示,今年大型CSPs(云端服務(wù)供應(yīng)商)預(yù)算持續(xù)聚焦于采購AI服務(wù)器,進(jìn)而排擠一般型服務(wù)器成長力道,相較于AI服務(wù)器的高成長率,一般型服務(wù)器出貨量年增率僅有1.9%。而AI服務(wù)器占整體服務(wù)器出貨的比重預(yù)估將達(dá)12.2%,較2023年提升約3.4個百分點。若估算產(chǎn)值,AI服務(wù)器的營收成長貢獻(xiàn)程度較一般型服務(wù)器明顯,預(yù)估2024年AI服務(wù)器產(chǎn)值將達(dá)1,870億美元,成長率達(dá)69%,產(chǎn)值占整體服務(wù)器高達(dá)65%。
從AI服務(wù)器搭配AI芯片類型來看,來自北美CSPs業(yè)者(如AWS、Meta等)持續(xù)擴(kuò)大自研ASIC(專用集成電路),以及中國本土業(yè)者如:阿里巴巴、百度、華為等積極擴(kuò)大自主ASIC 方案,促ASIC服務(wù)器占整體AI服務(wù)器的比重在2024年將提升至26%,而主流搭載GPU的AI服務(wù)器占比則約71%。
就AI服務(wù)器搭載的AI芯片供應(yīng)商分布來看,單看AI服務(wù)器搭載GPU,英偉達(dá)市占率最高、逼近9成,AMD(超威)市占率則僅約8%。但若加計所有AI服務(wù)器用AI芯片包含GPU、ASIC、FPGA(可編程邏輯陣列),英偉達(dá)今年市占率則約64%。
據(jù)TrendForce集邦咨詢的調(diào)查,展望2025年市場對于高階AI服務(wù)器需求仍強(qiáng),尤其以英偉達(dá)新一代Blackwell(包含GB200、B100/B200等)將取代Hopper平臺成為市場主流,此亦將帶動CoWoS及HBM等需求。以英偉達(dá)的B100而言,其芯片尺寸將較H100翻倍,會消耗更多的CoWoS用量,預(yù)估2025年主要供應(yīng)商臺積電的CoWoS生產(chǎn)量規(guī)模至年底總產(chǎn)能可達(dá)550k-600k,成長率逼近8成。另以HBM用量來看,2024年主流H100搭載80GB HBM3,到2025年英偉達(dá)Blackwell Ultra或AMD MI350等主力芯片,將搭載達(dá)288GB的HBM3e,單位用量成長逾3倍,隨AI服務(wù)器市場需求持續(xù)強(qiáng)勁下,有望帶動2025年HBM整體供給量翻倍成長。