作者:湯之上隆,編譯:編輯部
自從2022年11月Open AI發(fā)布了ChatGPT以來,生成式AI(人工智能)在全球范圍內(nèi)迅速普及。這些生成式AI是在搭載了NVIDIA等AI半導(dǎo)體的AI服務(wù)器上運(yùn)行的。
然而,根據(jù)TrendForce于去年2023年12月14日發(fā)布的預(yù)測(cè),AI服務(wù)器的出貨數(shù)量并沒有如人們預(yù)期的那樣增長。AI服務(wù)器在所有服務(wù)器出貨數(shù)量中所占比例預(yù)測(cè)為:2022年為6%,2023年為9%,2024年為13%,2025年為14%,2026年為16%。
關(guān)于這個(gè)原因,筆者在此前的文章中進(jìn)行了如下分析:
這個(gè)原因可以歸結(jié)為AI半導(dǎo)體的供應(yīng)瓶頸。目前,約占AI半導(dǎo)體80%的NVIDIA GPU在臺(tái)積電進(jìn)行前后工藝。后端工藝包括了所謂的CoWoS封裝,而這種CoWoS的產(chǎn)能成為了瓶頸。
此外,在CoWoS中,GPU周圍堆疊了多塊HBM(高帶寬存儲(chǔ)器)DRAM,這種HBM也被認(rèn)為是瓶頸之一。
那么,為什么臺(tái)積電的CoWoS(Chip on Wafer on Substrate)產(chǎn)能一直不足呢?此外,盡管DRAM制造商有三家,即三星、SK海力士和美光,為什么HBM還是不足呢?
本文將對(duì)這些細(xì)節(jié)進(jìn)行討論,并且將闡述為什么NVIDIA等AI半導(dǎo)體短缺將持續(xù)數(shù)年以上。
01、臺(tái)積電的中間工序是什么?
圖 2 顯示了 NVIDIA GPU 在臺(tái)積電的制造方式。首先,在前端過程中,GPU、CPU、內(nèi)存(DRAM)等是單獨(dú)制造的。在這里,由于臺(tái)積電不生產(chǎn)DRAM,因此它很可能從SK海力士等DRAM制造商那里獲得HBM。
圖2 ?2.5D-3D界面的中間工序,如NVIDIA GPU 資料來源:Tadashi Kamewada,“下一代半導(dǎo)體封裝和封裝技術(shù)趨勢(shì)與市場(chǎng)展望”,科技研討會(huì),2024 年 2 月 6 日?幻燈片
接下來,將 GPU、CPU、HBM 等鍵合在“硅中介層”上,其中 12 英寸硅晶圓被切割成方形(晶圓上的芯片,即 CoW)。?硅中介層預(yù)制有連接芯片和硅通電極?(TSV)?的布線層。
這些工序被稱為?"中間工序"。筆者對(duì)其中原因的解釋是,中間工序被歸類為后端工序,但在硅插層上形成的布線層等是使用前端工序的制造設(shè)備制造的?!爸虚g工序”?一詞之所以被使用,可能就是因?yàn)檫@一中間含義。
中間工序完成后,將中介層連接到基板(基板上的晶圓,即WoS),并進(jìn)行各種測(cè)試以完成CoWoS封裝。
圖3顯示了CoWoS的橫截面結(jié)構(gòu)。在形成布線層和 TSV 的硅中介層上,鍵合了兩個(gè)邏輯芯片,例如 GPU 和 CPU,以及堆疊了 DRAM 的 HBM。中介層通過C4(受控塌片連接)銅凸塊與封裝基板連接,基板通過封裝球與電路板連接。
圖3 CoWoS結(jié)構(gòu)與英偉達(dá)GPU等AI半導(dǎo)體的兩大瓶頸?資料來源:WikiChip
在這里,我們認(rèn)為第一個(gè)瓶頸是中間工序中的硅中介層,第二個(gè)瓶頸是HBM。下面將解釋其基本原理。
02、中介層越來越大,HBM的數(shù)量也有所增加
圖 4 顯示了自 2011 年以來 CoWoS 如何經(jīng)歷代際變化。 首先,我們可以看到硅中介層每一代都在變得越來越大,HBM 的搭載數(shù)量也在不斷增加。
圖 4 封裝基板面積和HBM搭載數(shù)量不斷增長? 資料來源:K C Yee(TSMC),“Advanced 3D System Integration Technologies”,IEDM SC1,2020?年 12 月 13 日
圖 5 顯示了從 CoWoS Gen 1 到 Gen 6 的 12 英寸晶圓中安裝的邏輯芯片類型、HBM 標(biāo)準(zhǔn)和安裝數(shù)量、硅中介層面積以及可獲得的中介層數(shù)量。
圖?5?CoWoS?代次、HBM?安裝數(shù)量、12?英寸晶圓中介層數(shù)量
首先,可以看出,自第三代以來,HBM的搭載數(shù)量持續(xù)增長了1.5倍。?此外,HBM 的標(biāo)準(zhǔn)也發(fā)生了變化,性能也得到了提高(稍后會(huì)詳細(xì)介紹)。?此外,隨著中介層面積的增加,可以從 12 英寸晶圓獲得的中介層數(shù)量減少。
但是,該數(shù)值只是"12英寸晶圓的面積除以中介層的面積的值",實(shí)際得到的數(shù)值會(huì)更少。
圖 6 舉例說明了這一點(diǎn):2023 年發(fā)布的第 6 代 CoWoS 中介層面積為 3400?平方毫米,如果是正方形,則為 58 毫米 x 58 毫米(58 毫米正方形)。如果將這個(gè) 58 毫米的正方形鋪設(shè)在 12 英寸的晶圓上,晶圓邊緣的所有中介層都將有缺陷。因此,一個(gè) 12 英寸晶圓上最多只能獲得 9 個(gè) 58 平方毫米的中介層。
圖6 12英寸晶圓能獲得多少個(gè)中介層
資料來源:Tadashi Kamewada,“下一代半導(dǎo)體封裝和封裝技術(shù)趨勢(shì)和市場(chǎng)展望”,科學(xué)與技術(shù)研討會(huì),2024年2月6日
此外,在中介層上形成布線層和TSV,但良率約為60-70%,因此從12英寸晶圓上可以獲得的良好中介層數(shù)量最多為6個(gè)。
順便提一下,采用這種58平方毫米的中介層制造的CoWoS 的代表性 GPU是英偉達(dá)的H100,該產(chǎn)品在市場(chǎng)上備受爭奪,售價(jià)高達(dá) 4 萬美元。
03、臺(tái)積電的CoWoS產(chǎn)能不足
那么,臺(tái)積電在CoWoS中間工序的產(chǎn)能有多大呢?產(chǎn)能足夠嗎?
在 2023 年 11 月 14 日舉行的 DIGITIMES 研討會(huì)“生成式 AI 浪潮中 2024 年全球服務(wù)器市場(chǎng)的機(jī)遇與挑戰(zhàn)”(Jim Hsiao)上,據(jù)估計(jì),其產(chǎn)能將從 2023 年第二季度的每月 1.3 萬至 1.5 萬片晶圓翻番至 2024 年第二季度的每月 3 萬至 3.4 萬片晶圓,從而縮小英偉達(dá)GPU 的供需缺口。
然而,這種前景還很遙遠(yuǎn)。?這是因?yàn)椋刂?2024 年 4 月,NVIDIA 仍然沒有足夠的 GPU。?而TrendForce集邦咨詢?cè)?月16日的新聞中表示,到2024年底,臺(tái)積電的CoWoS產(chǎn)能將達(dá)到每月40K左右,到2025年底將翻一番。畢竟,臺(tái)積電的中間工序產(chǎn)能是不夠的。
此外,TrendForce 的這則消息還提到,繼?"H100?"之后,臺(tái)積電還將推出下一代?"B100?"和?"B200",而這些中介層的尺寸可能比 58 平方毫米的還要大。這意味著,從12英寸晶圓上可以獲得的優(yōu)質(zhì)中介層數(shù)量將進(jìn)一步減少,因此即使臺(tái)積電拼命嘗試增加CoWoS產(chǎn)能,也無法擁有足夠的GPU來滿足需求。可以說,這款GPU CoWoS中介層的巨大需求和臺(tái)積電產(chǎn)能的增加,無論走多遠(yuǎn)都是一場(chǎng)“貓捉老鼠的游戲”,是一場(chǎng)永無止境的比賽。
為了結(jié)束這種“貓捉老鼠的游戲”,有人建議使用515×510毫米的方形基板代替12英寸晶圓作為中介層。此外,英特爾公司還提議使用矩形玻璃基板。當(dāng)然,如果可以使用大型矩形基板,則可以比圓形12英寸晶圓更有效地獲得大量中介層。
然而,要在矩形基板上形成布線層和TSV,需要專門的制造設(shè)備和運(yùn)輸系統(tǒng)??紤]到這些準(zhǔn)備工作耗時(shí)長、成本高、難度大,因此目前看來“貓捉老鼠的游戲”并沒有盡快解決的好辦法。
現(xiàn)在,我想解釋一下HBM的情況,這是另一個(gè)瓶頸。
04、HBM的路線圖和DRAM制造商的命運(yùn)
如圖 4 和圖 5 所示,HBM 的數(shù)量隨著 CoWoS 的產(chǎn)生而增加,這也導(dǎo)致了中介層面積的擴(kuò)張。DRAM 制造商僅僅按照相同的標(biāo)準(zhǔn)制造 HBM 是不夠的:隨著 CoWoS 的發(fā)展,他們必須提高 HBM 各方面的性能。HBM 路線圖如圖 7 所示。
圖 7:HBM 路線圖和 HBM 堆疊的 DRAM 數(shù)量
來源:報(bào)告“HBM 技術(shù)與容量發(fā)展”(2024 年 1 月),DIGI TIMES Research,“HBM 技術(shù)與容量發(fā)展”(2024 年 1 月)
首先,HBM 必須提高每秒交換數(shù)據(jù)的帶寬,以配合 GPU 性能的提高。具體來說,2016 年 HBM1 的帶寬為 128 GB/s,而 HBM3E 的帶寬將擴(kuò)大約 10?倍,達(dá)到 1150 GB/s,將于 2024 年發(fā)布。
接下來,HBM 的內(nèi)存容量?(GB)?必須增加。?為此,有必要將堆疊在 HBM 中的 DRAM 芯片數(shù)量從 4 個(gè)增加到 12 個(gè)。下一代 HBM4 的 DRAM 層數(shù)預(yù)計(jì)將達(dá)到 16 層。
此外,HBM 的 I/O 速度?(GB/s)?也必須提高。為了同時(shí)實(shí)現(xiàn)所有這些目標(biāo),我們必須不惜一切代價(jià)實(shí)現(xiàn)DRAM的小型化。圖8顯示了按技術(shù)節(jié)點(diǎn)劃分的DRAM銷售比例的變化。2024 年將是從 1z (15.6 nm)?切換到 1α?(13.8 nm)?的一年。?之后,小型化將以 1 nm 的增量進(jìn)行,例如 1β?(12.3 nm)、1γ?(11.2 nm)?和 1δ?(10 nm)。?這可能是DRAM廠商的命運(yùn)。
圖8 按技術(shù)節(jié)點(diǎn)劃分的DRAM銷售額百分比(%)?來源:作者根據(jù)Yole Intelligence的數(shù)據(jù)創(chuàng)建
請(qǐng)注意,括號(hào)中的數(shù)值是該代 DRAM 芯片中實(shí)際存在的最小加工尺寸。如今,器件分離的半間距(hp)是最小的,因此該尺寸已成為技術(shù)節(jié)點(diǎn)。?另一方面,例如在邏輯芯片中,即使臺(tái)積電說它正在批量生產(chǎn) 3 納米的芯片,但在芯片的任何地方都找不到 3 納米的證據(jù)。換句話說,邏輯芯片的技術(shù)節(jié)點(diǎn)只是一個(gè)產(chǎn)品名稱。
05、EUV也開始應(yīng)用于DRAM
話題有些偏離,但DRAM制造商為了實(shí)現(xiàn)高度集成和高速化,確實(shí)需要進(jìn)行1納米級(jí)微細(xì)化。因此,為了形成微細(xì)圖案,已經(jīng)開始應(yīng)用EUV(極紫外光)光刻技術(shù)(見圖9)。
圖9 各DRAM制造商應(yīng)用EUV的層數(shù)?來源:基于Yole Intelligence的數(shù)據(jù)創(chuàng)作
最早開始在DRAM中使用EUV技術(shù)的是三星,他們?cè)贕en 1z只應(yīng)用了一層。然而,這只是三星的邏輯芯片廠為了進(jìn)行EUV應(yīng)用的練習(xí)而借用的一個(gè)巨大的DRAM生產(chǎn)線,最大產(chǎn)量為每月1萬塊。因此,三星真正意義上開始在DRAM中使用EUV是從1α開始的,那時(shí)他們使用了5層EUV。
接下來,擁有HBM市場(chǎng)份額領(lǐng)先地位的SK海力士在1α?xí)r期應(yīng)用了一層EUV。而今年2024年,他們計(jì)劃轉(zhuǎn)向1β,似乎打算在3-4層上應(yīng)用EUV。因此,此前只擁有幾臺(tái)EUV的SK海力士計(jì)劃在2024年引入10臺(tái)EUV。值得一提的是,由于三星還有邏輯芯片廠,他們可能擁有30臺(tái)以上的EUV。
最后,美光為了盡快推進(jìn)技術(shù)節(jié)點(diǎn),一直采取盡量不使用EUV的策略。實(shí)際上,他們?cè)?β階段也不使用EUV。此外,在1γ開發(fā)階段,原計(jì)劃也不使用EUV,而是采用ArF液浸+多重曝光技術(shù),但由于技術(shù)上的難度逐漸增加,同時(shí)生產(chǎn)率的提升也變得困難,因此預(yù)計(jì)從1γ開始引入EUV。
這三家DRAM制造商目前使用的(或計(jì)劃使用的)EUV的鏡頭開口數(shù)(NA)為0.33,但預(yù)計(jì)在2027年至2028年后期會(huì)考慮轉(zhuǎn)向High NA。這樣,DRAM制造商的微細(xì)化將持續(xù)不斷。
那么,使用這樣的最先進(jìn)工藝,將能夠生產(chǎn)多少HBM呢?
06、DRAM出貨額和HBM出貨額
在圖10中,顯示了DRAM出貨額、HBM出貨額以及HBM占DRAM出貨額比例。正如前文所述,ChatGPT于2022年11月發(fā)布,并且結(jié)果是,2023年NVIDIA的GPU大獲成功。
圖10 DRAM出貨額、HBM出貨額、HBM比例(%)來源:基于Yole Intelligence數(shù)據(jù),作者制作
與此同時(shí),HBM出貨額也迅速增長。2022年HBM出貨額為27.5億美元(占3.4%),到了2023年增長了近兩倍,達(dá)到54.5億美元(占10.7%),2024年更是急劇增長到140.6億美元(占19.4%)以上(括號(hào)內(nèi)為HBM占DRAM出貨額比例)。
關(guān)注DRAM出貨額,可以看到在2021年因冠狀病毒特需而達(dá)到頂峰,但到了2023年,特需結(jié)束后出貨額大幅下降。之后,出貨額逐漸回升,預(yù)計(jì)到2025年將超過2021年的峰值。而在2026年后,盡管會(huì)有些許波動(dòng),但將持續(xù)增長,預(yù)計(jì)到2029年將超過1500億美元。
另一方面,預(yù)計(jì)HBM出貨額將在2025年后繼續(xù)增長,但HBM占DRAM出貨額比例在2027年后將飽和在24-25%。這是為什么呢?
07、各種HBM的出貨量和HBM的總出貨量
通過查看圖 11 所示的各種 HBM 的出貨量以及HBM出貨總量的變化,可以解開這個(gè)謎團(tuán)。
圖11 各種HBM的出貨量以及HBM的出貨總量來源:基于Yole Intelligence數(shù)據(jù),作者制作
首先,到2022年為止,主要出貨的是HBM2。接著,在NVIDIA的GPU于2023年大熱之后,HBM2E取代HBM2成為主角。然后,在2024年到2025年之間,HBM3將成為主流。再者,到2026年到2027年之間,HBM3E的出貨量最多,而2028年開始則由HBM4主導(dǎo)。
也就是說,HBM大致上以兩年為周期進(jìn)行世代更替。這意味著DRAM制造商不僅需要在微細(xì)化方面以1納米為單位前進(jìn),還需要每兩年更新一次HBM的規(guī)格。
因此,從圖11可以明顯看出,HBM的出貨總量在2025年后幾乎沒有增長。這并不是DRAM制造商懈怠的結(jié)果,而是因?yàn)樗麄冃枰ιa(chǎn)最先進(jìn)的DRAM,同時(shí)還要制造最先進(jìn)的HBM。
此外,導(dǎo)致HBM出貨總量在2025年后增長不大的原因之一是,堆疊在HBM內(nèi)的DRAM芯片數(shù)量增加了(見圖12)。隨著GPU性能的提升,HBM的內(nèi)存容量(GB)也必須增加,因此HBM內(nèi)的DRAM堆疊層數(shù)從HBM2和HBM2E的4至8層增加到HBM3和HBM3E的8至12層,最后到HBM4則為16層。
圖12 各種HBM的內(nèi)存容量(GB)以及HBM內(nèi)的DRAM芯片堆疊層數(shù)?來源:基于Yole Intelligence數(shù)據(jù),作者制作
也就是說,HBM2只需要4至8層DRAM,但到了HBM4則需要2至4倍的16層DRAM。因此,DRAM制造商在HBM4時(shí)代可能會(huì)生產(chǎn)2至4倍于HBM2時(shí)代的DRAM,但HBM的出貨量可能會(huì)保持相同水平。
綜上所述,由于DRAM持續(xù)以1納米為單位進(jìn)行微細(xì)化,HBM大約每兩年進(jìn)行世代更替,以及HBM內(nèi)的DRAM隨著世代增加,預(yù)計(jì)2025年后HBM的出貨總量將達(dá)到飽和。
那么,HBM短缺會(huì)持續(xù)下去嗎?DRAM制造商不能進(jìn)一步增加HBM的出貨量嗎?
08、DRAM制造商迫切希望大規(guī)模生產(chǎn)HBM
雖然已經(jīng)解釋了DRAM制造商無法迅速增加HBM出貨量的原因,但即便如此,DRAM制造商仍將挑戰(zhàn)其極限,全力以赴地量產(chǎn)HBM。這是因?yàn)?strong>HBM的價(jià)格非常高昂。
圖13展示了各種HBM和常規(guī)DRAM每GB平均價(jià)格的對(duì)比圖表。無論是常規(guī)DRAM還是HBM,它們?cè)诎l(fā)布時(shí)的每GB價(jià)格都是最高的。雖然趨勢(shì)相同,但常規(guī)DRAM和HBM每GB的價(jià)格相差20倍以上。需要注意的是,在圖13中,為了比較常規(guī)DRAM和HBM每GB的平均價(jià)格,將常規(guī)DRAM的價(jià)格放大了10倍并標(biāo)記在圖表上。
圖13 各種HBM和常規(guī)DRAM每GB平均價(jià)格的對(duì)比?來源:基于Yole Intelligence數(shù)據(jù),作者制作
直接比較發(fā)布后價(jià)格最高的情況,常規(guī)DRAM每GB的價(jià)格為0.49美元,而HBM2為其約23倍的11.4美元,HBM2E為約28倍的13.6美元,HBM4則為30倍的14.7美元。
此外,圖14展示了各種HBM的平均價(jià)格圖表。在價(jià)格最高的情況下,HBM2為73美元,HBM2E為157美元,HBM3為233美元,HBM3E為372美元,而HBM4則高達(dá)560美元。
圖14 各種HBM和常規(guī)DRAM每GB平均價(jià)格的對(duì)比?來源:基于Yole Intelligence數(shù)據(jù),作者制作
圖15顯示了HBM的價(jià)格有多昂貴。例如,DRAM制造商在1z工藝下生產(chǎn)的DDR5 16GB的DRAM的價(jià)格最多為3至4美元。然而,今年(2024年),SK 海力士發(fā)布的HBM3E卻高達(dá)其90至120倍的361美元。
需要說明的是,DDR(Double Data Rate)是內(nèi)存標(biāo)準(zhǔn)的一種。數(shù)據(jù)傳輸速度越來越快,DDR5比DDR4快2倍,DDR6比DDR5快2倍。2024年是從DDR4轉(zhuǎn)向DDR5的一年,DRAM制造商需要不斷更新DDR標(biāo)準(zhǔn)。
圖15?各種半導(dǎo)體的工藝、芯片尺寸、晶體管數(shù)量(位數(shù))、平均價(jià)格的對(duì)比
回到HBM,HBM3E使用TSMC最先進(jìn)的3nm工藝生產(chǎn),與最新款“iPhone 15”用的“A17 Bionic” AP(應(yīng)用處理器)幾乎相同的芯片尺寸,但價(jià)格高達(dá)其3.6倍。相比于先進(jìn)的邏輯芯片,DRAM的HBM更昂貴,這令人震驚。因此,由于這種高昂的價(jià)格,DRAM制造商將全力以赴增加HBM的出貨量,以奪取HBM的主導(dǎo)地位。
讓我們來看看三家DRAM制造商的路線圖。
09、DRAM制造商爭奪HBM
圖16展示了在2015年至2024年期間,三家DRAM制造商是如何生產(chǎn)HBM的。
圖16 SK 海力士、Samsung、Micron的HBM路線圖?來源:DIGITIMES Research, ”HBM Technology and capacity development”(2024年1月)報(bào)告中的圖表
首先成功量產(chǎn)HBM1的是SK海力士。
然而,在HBM2時(shí)代,三星比SK海力士更早實(shí)現(xiàn)了量產(chǎn)。然后,在2023年NVIDIA的GPU大獲成功時(shí),SK海力士恰巧比其他公司更早實(shí)現(xiàn)了HBM3的量產(chǎn)。這使得SK 海力士獲得了巨大利益。結(jié)果,DRAM冠軍三星落后了。
另一方面,另一家DRAM制造商美光最初開發(fā)的是與HBM不同的HMC(混合內(nèi)存立方體)標(biāo)準(zhǔn)。然而,美國半導(dǎo)體標(biāo)準(zhǔn)化推進(jìn)組織JEDEC(聯(lián)合電子設(shè)備工程委員會(huì))正式認(rèn)證了HBM而非HMC的標(biāo)準(zhǔn)。因此,美光從2018年開始放棄了HMC的開發(fā),并在大幅落后于韓國兩家制造商之后參與了HBM的開發(fā)。
根據(jù)2024年3月20日Bloomberg的報(bào)道,HBM的市場(chǎng)中,SK海力士占54%,三星占41%,美光占5%。
市場(chǎng)份額排名第一的SK海力士于2023年在NAND工廠M15開始生產(chǎn)HBM。此外,他們計(jì)劃在2024年上半年發(fā)布HBM3E。而在2025年,他們計(jì)劃將目前正在建設(shè)中的M15X工廠改造為專用的HBM工廠,用于生產(chǎn)HBM3E和HBM4。
另一方面,希望趕上SK海力士的三星于2023年開始在Samsung Display工廠生產(chǎn)HBM,并計(jì)劃在2024年將HBM產(chǎn)能擴(kuò)大兩倍,在2025年比SK海力士更早開始量產(chǎn)HBM4。
落后的美光則跳過了HBM3,計(jì)劃在2024至2025年通過HBM3E競爭,并在2025年?duì)幦~@得20%的市場(chǎng)份額。此外,在2027至2028年間,他們計(jì)劃通過量產(chǎn)HBM4和HBM4E來趕上領(lǐng)先的韓國兩家制造商。
通過三家DRAM制造商的激烈競爭,可能打破HBM出貨總量飽和的狀態(tài),從而有望解決HBM短缺問題。
10、NVIDIA的GPU短缺會(huì)持續(xù)多久?
本文解釋了全球范圍內(nèi)NVIDIA GPU等AI半導(dǎo)體短缺的原因。這些原因可以總結(jié)為以下兩點(diǎn):
1)NVIDIA的GPU采用臺(tái)積電的CoWoS封裝技術(shù)。然而,CoWoS的產(chǎn)能完全不足。原因在于,GPU、CPU、HBM等芯片所搭載的硅中介層隨著世代更新而變得越來越大。臺(tái)積電正試圖增加這種中間工藝的產(chǎn)能,但隨著GPU世代的更新,中介層也會(huì)變得更大,這可能導(dǎo)致一直處于“你追我趕”的狀態(tài)。
2)搭載在CoWoS中的HBM也存在短缺。原因是,DRAM制造商不僅需要以1nm的微細(xì)度進(jìn)行持續(xù)縮小,還必須每兩年更新一次HBM的規(guī)格,同時(shí)隨著世代的變化,HBM中的DRAM芯片也在增加。DRAM制造商正在全力生產(chǎn)HBM,但據(jù)預(yù)測(cè),到2025年后HBM的供應(yīng)將達(dá)到飽和。然而,由于HBM價(jià)格極高,DRAM制造商正展開激烈的競爭,這可能有助于解決HBM短缺問題。
因此,導(dǎo)致NVIDIA的GPU短缺的瓶頸問題包括臺(tái)積電中間工藝產(chǎn)能不足和HBM短缺這兩點(diǎn),但這些問題短時(shí)間內(nèi)很難解決。因此,預(yù)計(jì)NVIDIA的GPU短缺將持續(xù)數(shù)年(甚至更長時(shí)間?)。