來源:雷科技AI硬件組?|?編輯:冬日果醬?|?排版:JINX
就在本周,全球存儲芯片巨頭 SK 海力士宣布了最新一輪超過 1000 億元人民幣的投資,計(jì)劃用于擴(kuò)大包括 HBM(高帶寬內(nèi)存)在內(nèi)的下一代 DRAM 的產(chǎn)能。
一點(diǎn)也不意外。
過去一年半,從 ChatGPT 到 Sora 一次又一次刷新了人們對于人工智能的認(rèn)知。而且從目前來看,Claude 3 的震撼發(fā)布,GPT-5 流出的信息,似乎說明大語言模型(以下簡稱「大模型」)的智力涌現(xiàn)沒有絲毫放緩的跡象。
這讓 GPU「采購戰(zhàn)爭」變得愈演愈烈,連帶著臺積電的 CoWos 以及 HBM 產(chǎn)能也成為了絕對意義的「搶手貨」。但大模型在「爭奪」的其實(shí)不只是 HBM。
隨著手機(jī)、PC 等計(jì)算終端開始積極引入大模型,甚至出現(xiàn)了一系列基于大模型打造的 AI 原生終端,消費(fèi)電子產(chǎn)品對于 DRAM(內(nèi)存)、NAND(閃存)的需求也在變多、變大。
從 GPT-3.5 到 Llama 3,大模型要繼續(xù)帶飛存儲芯片
當(dāng)?shù)貢r間 4 月 18 日,Meta 發(fā)布了最新的開源大模型 Llama 3,再次奪回了開源大模型的「王座」。但值得注意的是,Llama 3 的強(qiáng)大很大程度上離不開 15 萬億 Token 的訓(xùn)練數(shù)據(jù),這不僅是小公司難以企及的規(guī)模,甚至比谷歌之前開源的 Gemma 大模型:
還多出一倍不止。
從 GPT-3.5 到 Llama 3,時至今日,大模型的智力涌現(xiàn)依然依托于 Scaling laws(OpenAI 提出)指導(dǎo)下的大力出奇跡,對算力和數(shù)據(jù)有著近乎沒有上限的需求。這直接孕育了海量的 GPU 需求,也帶動了 HBM 的需求。
根據(jù)國外研究機(jī)構(gòu)的拆解,英偉達(dá)力推的 H100 NVL 版本配備了 12 個 16GB HBM 堆棧,而單顆 16GB HBM 堆棧,成本就高達(dá) 240 美元。也就是說,僅僅 HBM 的成本就逼近 3000 美元,毫無疑問超過了制造和封裝,是 H100 成本中最貴的一項(xiàng)。
即便如此,SK 海力士、美光 2024 年的 HBM 產(chǎn)能,也早被英偉達(dá)、AMD、英特爾、谷歌、微軟等半導(dǎo)體廠商預(yù)訂一空。
高昂的定價(jià)和供不應(yīng)求的訂單,也讓 HBM 廠商賺得盆滿鍋滿。4 月 25 日剛公布的財(cái)報(bào)顯示,SK 海力士今年第一季度營業(yè)利潤為 2.8860 萬億韓元(約合人民幣 151.8 億元),不僅扭虧為盈,而且比起已經(jīng)很樂觀的市場預(yù)期:
還高出 30%。
要知道,這還是產(chǎn)能遠(yuǎn)遠(yuǎn)無法滿足需求的情況。
而另一方面,大模型預(yù)訓(xùn)練最重要的一步就是語料庫的采集。如果企業(yè)需要利用私有數(shù)據(jù)重新訓(xùn)練模型,同樣也要經(jīng)過數(shù)據(jù)收集、清洗等步驟。
不僅如此,涉及數(shù)據(jù)就不可避免要涉及「數(shù)據(jù)怎么存儲、怎么管理、怎么保證數(shù)據(jù)安全,」聯(lián)想凌拓首席執(zhí)行官陸大昕在年初的一次演講中表示,「這些都是后續(xù)大模型建設(shè)中的剛需?!?/p>
所以不難想象,伴隨大模型進(jìn)一步從數(shù)據(jù)中心擴(kuò)散到更多、更分散的服務(wù)器,以及大模型應(yīng)用的擴(kuò)展和普及,需要更大的數(shù)據(jù)存儲容量。這也就不奇怪,已經(jīng)有大量廠商正在面向 AI 需求打造數(shù)據(jù)存儲產(chǎn)品和解決方案。
國內(nèi)知名存儲廠商江波龍董事長蔡華波還在 2024 中國閃存市場峰會上表示:
江波龍要從存儲模組廠向半導(dǎo)體品牌公司做轉(zhuǎn)型,經(jīng)營模式從原有的價(jià)差模式向服務(wù)模式轉(zhuǎn)型。
AI 硬件元年,終端吞噬存儲芯片
都說 2024 年是 AI 硬件元年,其實(shí)并不夸張。不只是很多人都聽過的 AI 手機(jī)、AI PC,還有大量硬件產(chǎn)品,包括智能眼鏡、電視乃至產(chǎn)品形態(tài)更新穎的 AI 原生終端,都在 2024 年集體亮相。
盡管很多產(chǎn)品在擁抱 AI 的過程中含有不少「水分」,比如可能只是接入了類 ChatGPT 的生成式 AI 聊天機(jī)器人,或者只是引入云端大模型的能力。但從「AI 消除」到「AI 通話/閱讀摘要」,我們也要承認(rèn),基于背后的大模型,生成式 AI 的確開始改變我們的數(shù)字體驗(yàn)。
同時,不管是手機(jī)還是 PC 廠商都認(rèn)同端側(cè)大模型的勢在必行,只有結(jié)合端側(cè)和云端大模型,計(jì)算終端的體驗(yàn)才能發(fā)生革命性的演變。但與此相對的是,端側(cè)算力和存儲配置也變得前所未有地重要。
君不見,江波龍上個月就宣布將與西部數(shù)據(jù)「加強(qiáng)合作關(guān)系,積極探索并共同支持下一代基于人工智能的移動終端存儲和應(yīng)用的市場機(jī)遇?!垢唧w地說,江波龍要與西部數(shù)據(jù)聯(lián)手面向手機(jī)市場提供「領(lǐng)先的定制化嵌入式存儲解決方案」——也就是閃存,對應(yīng)到手機(jī)上就是存儲空間。
不僅如此,從財(cái)報(bào)公布的數(shù)據(jù)來看,截止 3 月 31 日,江波龍的存貨賬面金額猛然上升至 76 億元,同比增長了 28%。按照江波龍的說法,存貨增長主要是因?yàn)閼?zhàn)略備貨增加。但顯然,更根本的原因是江波龍看好大模型在手機(jī)和 PC 等主要計(jì)算終端上的落地,必然需要更大的存儲配置。
當(dāng)然也不只是江波龍,前文提到的 SK 海力士以及三星都在向手機(jī)、PC 市場提供更大甚至更高帶寬的內(nèi)存,還計(jì)劃參考 HBM,在 LPDDR 基礎(chǔ)上引入新的堆疊和封裝方式。
從數(shù)據(jù)中心到計(jì)算終端,這一輪席卷全球的 AI 浪潮不僅在助推存儲芯片行業(yè)走出寒冬,也在將行業(yè)引向一個全新的周期。
寫在最后
如果你相信大模型一定是未來,一定會走進(jìn)千行百業(yè),走進(jìn)千家萬戶,那毫無疑問的是,存儲芯片也一定是未來。
說到底,作為推動 AI 進(jìn)化的三個核心要素之一,隨著 AI 的逐步落地和普及,數(shù)據(jù)一定需要更大、更快的內(nèi)存和閃存,也需要更適合 AI 時代的存儲解決方案。
這是挑戰(zhàn),也是機(jī)遇。
盡管 SK 海力士、三星、美光三大存儲芯片巨頭在技術(shù)、資本、人才上的優(yōu)勢不言而喻,也幾乎壟斷了 HBM 供應(yīng)。但對于包括江波龍?jiān)趦?nèi)的國產(chǎn)存儲廠商來說,面向 AI 需求的儲存解決方案依然是一個全新的領(lǐng)域,不管在個人移動終端上,還是在企業(yè)級市場上。
同時,這里也孕育了全新的可能。