加入星計(jì)劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴(kuò)散
  • 作品版權(quán)保護(hù)
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • 01、臺(tái)積電的中間工序是什么?
    • 02、中介層越來越大,HBM的數(shù)量也有所增加
    • 03、臺(tái)積電的CoWoS產(chǎn)能不足
    • 04、HBM的路線圖和DRAM制造商的命運(yùn)
    • 05、EUV也開始應(yīng)用于DRAM
    • 06、DRAM出貨額和HBM出貨額
    • 07、各種HBM的出貨量和HBM的總出貨量
    • 08、DRAM制造商迫切希望大規(guī)模生產(chǎn)HBM
    • 09、DRAM制造商爭奪HBM
    • 10、NVIDIA的GPU短缺會(huì)持續(xù)多久?
  • 推薦器件
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請(qǐng)入駐 產(chǎn)業(yè)圖譜

英偉達(dá)GPU要缺到什么時(shí)候?

05/08 10:30
2402
閱讀需 26 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

作者:湯之上隆,編譯:編輯部

自從2022年11月Open AI發(fā)布了ChatGPT以來,生成式AI(人工智能)在全球范圍內(nèi)迅速普及。這些生成式AI是在搭載了NVIDIA等AI半導(dǎo)體的AI服務(wù)器上運(yùn)行的。

然而,根據(jù)TrendForce于去年2023年12月14日發(fā)布的預(yù)測(cè),AI服務(wù)器的出貨數(shù)量并沒有如人們預(yù)期的那樣增長。AI服務(wù)器在所有服務(wù)器出貨數(shù)量中所占比例預(yù)測(cè)為:2022年為6%,2023年為9%,2024年為13%,2025年為14%,2026年為16%。

關(guān)于這個(gè)原因,筆者在此前的文章中進(jìn)行了如下分析:

這個(gè)原因可以歸結(jié)為AI半導(dǎo)體的供應(yīng)瓶頸。目前,約占AI半導(dǎo)體80%的NVIDIA GPU在臺(tái)積電進(jìn)行前后工藝。后端工藝包括了所謂的CoWoS封裝,而這種CoWoS的產(chǎn)能成為了瓶頸。

此外,在CoWoS中,GPU周圍堆疊了多塊HBM(高帶寬存儲(chǔ)器)DRAM,這種HBM也被認(rèn)為是瓶頸之一。

那么,為什么臺(tái)積電的CoWoS(Chip on Wafer on Substrate)產(chǎn)能一直不足呢?此外,盡管DRAM制造商有三家,即三星、SK海力士美光,為什么HBM還是不足呢?

本文將對(duì)這些細(xì)節(jié)進(jìn)行討論,并且將闡述為什么NVIDIA等AI半導(dǎo)體短缺將持續(xù)數(shù)年以上。

01、臺(tái)積電的中間工序是什么?

圖 2 顯示了 NVIDIA GPU 在臺(tái)積電的制造方式。首先,在前端過程中,GPU、CPU、內(nèi)存(DRAM)等是單獨(dú)制造的。在這里,由于臺(tái)積電不生產(chǎn)DRAM,因此它很可能從SK海力士等DRAM制造商那里獲得HBM。

圖2 ?2.5D-3D界面的中間工序,如NVIDIA GPU 資料來源:Tadashi Kamewada,“下一代半導(dǎo)體封裝和封裝技術(shù)趨勢(shì)與市場(chǎng)展望”,科技研討會(huì),2024 年 2 月 6 日?幻燈片

接下來,將 GPU、CPU、HBM 等鍵合在“硅中介層”上,其中 12 英寸硅晶圓被切割成方形(晶圓上的芯片,即 CoW)。?硅中介層預(yù)制有連接芯片和硅通電極?(TSV)?的布線層。

這些工序被稱為?"中間工序"。筆者對(duì)其中原因的解釋是,中間工序被歸類為后端工序,但在硅插層上形成的布線層等是使用前端工序的制造設(shè)備制造的?!爸虚g工序”?一詞之所以被使用,可能就是因?yàn)檫@一中間含義。

中間工序完成后,將中介層連接到基板(基板上的晶圓,即WoS),并進(jìn)行各種測(cè)試以完成CoWoS封裝。

圖3顯示了CoWoS的橫截面結(jié)構(gòu)。在形成布線層和 TSV 的硅中介層上,鍵合了兩個(gè)邏輯芯片,例如 GPU 和 CPU,以及堆疊了 DRAM 的 HBM。中介層通過C4(受控塌片連接)銅凸塊與封裝基板連接,基板通過封裝球與電路板連接。

圖3 CoWoS結(jié)構(gòu)與英偉達(dá)GPU等AI半導(dǎo)體的兩大瓶頸?資料來源:WikiChip

在這里,我們認(rèn)為第一個(gè)瓶頸是中間工序中的硅中介層,第二個(gè)瓶頸是HBM。下面將解釋其基本原理。

02、中介層越來越大,HBM的數(shù)量也有所增加

圖 4 顯示了自 2011 年以來 CoWoS 如何經(jīng)歷代際變化。 首先,我們可以看到硅中介層每一代都在變得越來越大,HBM 的搭載數(shù)量也在不斷增加。

圖 4 封裝基板面積和HBM搭載數(shù)量不斷增長? 資料來源:K C Yee(TSMC),“Advanced 3D System Integration Technologies”,IEDM SC1,2020?年 12 月 13 日

圖 5 顯示了從 CoWoS Gen 1 到 Gen 6 的 12 英寸晶圓中安裝的邏輯芯片類型、HBM 標(biāo)準(zhǔn)和安裝數(shù)量、硅中介層面積以及可獲得的中介層數(shù)量。

圖?5?CoWoS?代次、HBM?安裝數(shù)量、12?英寸晶圓中介層數(shù)量

首先,可以看出,自第三代以來,HBM的搭載數(shù)量持續(xù)增長了1.5倍。?此外,HBM 的標(biāo)準(zhǔn)也發(fā)生了變化,性能也得到了提高(稍后會(huì)詳細(xì)介紹)。?此外,隨著中介層面積的增加,可以從 12 英寸晶圓獲得的中介層數(shù)量減少。

但是,該數(shù)值只是"12英寸晶圓的面積除以中介層的面積的值",實(shí)際得到的數(shù)值會(huì)更少。

圖 6 舉例說明了這一點(diǎn):2023 年發(fā)布的第 6 代 CoWoS 中介層面積為 3400?平方毫米,如果是正方形,則為 58 毫米 x 58 毫米(58 毫米正方形)。如果將這個(gè) 58 毫米的正方形鋪設(shè)在 12 英寸的晶圓上,晶圓邊緣的所有中介層都將有缺陷。因此,一個(gè) 12 英寸晶圓上最多只能獲得 9 個(gè) 58 平方毫米的中介層

圖6 12英寸晶圓能獲得多少個(gè)中介層

資料來源:Tadashi Kamewada,“下一代半導(dǎo)體封裝和封裝技術(shù)趨勢(shì)和市場(chǎng)展望”,科學(xué)與技術(shù)研討會(huì),2024年2月6日

此外,在中介層上形成布線層和TSV,但良率約為60-70%,因此從12英寸晶圓上可以獲得的良好中介層數(shù)量最多為6個(gè)。

順便提一下,采用這種58平方毫米的中介層制造的CoWoS 的代表性 GPU是英偉達(dá)的H100,該產(chǎn)品在市場(chǎng)上備受爭奪,售價(jià)高達(dá) 4 萬美元。

03、臺(tái)積電的CoWoS產(chǎn)能不足

那么,臺(tái)積電在CoWoS中間工序的產(chǎn)能有多大呢?產(chǎn)能足夠嗎?

在 2023 年 11 月 14 日舉行的 DIGITIMES 研討會(huì)“生成式 AI 浪潮中 2024 年全球服務(wù)器市場(chǎng)的機(jī)遇與挑戰(zhàn)”(Jim Hsiao)上,據(jù)估計(jì),其產(chǎn)能將從 2023 年第二季度的每月 1.3 萬至 1.5 萬片晶圓翻番至 2024 年第二季度的每月 3 萬至 3.4 萬片晶圓,從而縮小英偉達(dá)GPU 的供需缺口。

然而,這種前景還很遙遠(yuǎn)。?這是因?yàn)椋刂?2024 年 4 月,NVIDIA 仍然沒有足夠的 GPU。?而TrendForce集邦咨詢?cè)?月16日的新聞中表示,到2024年底,臺(tái)積電的CoWoS產(chǎn)能將達(dá)到每月40K左右,到2025年底將翻一番。畢竟,臺(tái)積電的中間工序產(chǎn)能是不夠的。

此外,TrendForce 的這則消息還提到,繼?"H100?"之后,臺(tái)積電還將推出下一代?"B100?"和?"B200",而這些中介層的尺寸可能比 58 平方毫米的還要大。這意味著,從12英寸晶圓上可以獲得的優(yōu)質(zhì)中介層數(shù)量將進(jìn)一步減少,因此即使臺(tái)積電拼命嘗試增加CoWoS產(chǎn)能,也無法擁有足夠的GPU來滿足需求。可以說,這款GPU CoWoS中介層的巨大需求和臺(tái)積電產(chǎn)能的增加,無論走多遠(yuǎn)都是一場(chǎng)“貓捉老鼠的游戲”,是一場(chǎng)永無止境的比賽。

為了結(jié)束這種“貓捉老鼠的游戲”,有人建議使用515×510毫米的方形基板代替12英寸晶圓作為中介層。此外,英特爾公司還提議使用矩形玻璃基板。當(dāng)然,如果可以使用大型矩形基板,則可以比圓形12英寸晶圓更有效地獲得大量中介層。

然而,要在矩形基板上形成布線層和TSV,需要專門的制造設(shè)備和運(yùn)輸系統(tǒng)??紤]到這些準(zhǔn)備工作耗時(shí)長、成本高、難度大,因此目前看來“貓捉老鼠的游戲”并沒有盡快解決的好辦法。

現(xiàn)在,我想解釋一下HBM的情況,這是另一個(gè)瓶頸。

04、HBM的路線圖和DRAM制造商的命運(yùn)

如圖 4 和圖 5 所示,HBM 的數(shù)量隨著 CoWoS 的產(chǎn)生而增加,這也導(dǎo)致了中介層面積的擴(kuò)張。DRAM 制造商僅僅按照相同的標(biāo)準(zhǔn)制造 HBM 是不夠的:隨著 CoWoS 的發(fā)展,他們必須提高 HBM 各方面的性能。HBM 路線圖如圖 7 所示。

圖 7:HBM 路線圖和 HBM 堆疊的 DRAM 數(shù)量

來源:報(bào)告“HBM 技術(shù)與容量發(fā)展”(2024 年 1 月),DIGI TIMES Research,“HBM 技術(shù)與容量發(fā)展”(2024 年 1 月)

首先,HBM 必須提高每秒交換數(shù)據(jù)的帶寬,以配合 GPU 性能的提高。具體來說,2016 年 HBM1 的帶寬為 128 GB/s,而 HBM3E 的帶寬將擴(kuò)大約 10?倍,達(dá)到 1150 GB/s,將于 2024 年發(fā)布。

接下來,HBM 的內(nèi)存容量?(GB)?必須增加。?為此,有必要將堆疊在 HBM 中的 DRAM 芯片數(shù)量從 4 個(gè)增加到 12 個(gè)。下一代 HBM4 的 DRAM 層數(shù)預(yù)計(jì)將達(dá)到 16 層。

此外,HBM 的 I/O 速度?(GB/s)?也必須提高。為了同時(shí)實(shí)現(xiàn)所有這些目標(biāo),我們必須不惜一切代價(jià)實(shí)現(xiàn)DRAM的小型化。圖8顯示了按技術(shù)節(jié)點(diǎn)劃分的DRAM銷售比例的變化。2024 年將是從 1z (15.6 nm)?切換到 1α?(13.8 nm)?的一年。?之后,小型化將以 1 nm 的增量進(jìn)行,例如 1β?(12.3 nm)、1γ?(11.2 nm)?和 1δ?(10 nm)。?這可能是DRAM廠商的命運(yùn)。

圖8 按技術(shù)節(jié)點(diǎn)劃分的DRAM銷售額百分比(%)?來源:作者根據(jù)Yole Intelligence的數(shù)據(jù)創(chuàng)建

請(qǐng)注意,括號(hào)中的數(shù)值是該代 DRAM 芯片中實(shí)際存在的最小加工尺寸。如今,器件分離的半間距(hp)是最小的,因此該尺寸已成為技術(shù)節(jié)點(diǎn)。?另一方面,例如在邏輯芯片中,即使臺(tái)積電說它正在批量生產(chǎn) 3 納米的芯片,但在芯片的任何地方都找不到 3 納米的證據(jù)。換句話說,邏輯芯片的技術(shù)節(jié)點(diǎn)只是一個(gè)產(chǎn)品名稱。

05、EUV也開始應(yīng)用于DRAM

話題有些偏離,但DRAM制造商為了實(shí)現(xiàn)高度集成和高速化,確實(shí)需要進(jìn)行1納米級(jí)微細(xì)化。因此,為了形成微細(xì)圖案,已經(jīng)開始應(yīng)用EUV(極紫外光)光刻技術(shù)(見圖9)。

圖9 各DRAM制造商應(yīng)用EUV的層數(shù)?來源:基于Yole Intelligence的數(shù)據(jù)創(chuàng)作

最早開始在DRAM中使用EUV技術(shù)的是三星,他們?cè)贕en 1z只應(yīng)用了一層。然而,這只是三星的邏輯芯片廠為了進(jìn)行EUV應(yīng)用的練習(xí)而借用的一個(gè)巨大的DRAM生產(chǎn)線,最大產(chǎn)量為每月1萬塊。因此,三星真正意義上開始在DRAM中使用EUV是從1α開始的,那時(shí)他們使用了5層EUV。

接下來,擁有HBM市場(chǎng)份額領(lǐng)先地位的SK海力士在1α?xí)r期應(yīng)用了一層EUV。而今年2024年,他們計(jì)劃轉(zhuǎn)向1β,似乎打算在3-4層上應(yīng)用EUV。因此,此前只擁有幾臺(tái)EUV的SK海力士計(jì)劃在2024年引入10臺(tái)EUV。值得一提的是,由于三星還有邏輯芯片廠,他們可能擁有30臺(tái)以上的EUV。

最后,美光為了盡快推進(jìn)技術(shù)節(jié)點(diǎn),一直采取盡量不使用EUV的策略。實(shí)際上,他們?cè)?β階段也不使用EUV。此外,在1γ開發(fā)階段,原計(jì)劃也不使用EUV,而是采用ArF液浸+多重曝光技術(shù),但由于技術(shù)上的難度逐漸增加,同時(shí)生產(chǎn)率的提升也變得困難,因此預(yù)計(jì)從1γ開始引入EUV。

這三家DRAM制造商目前使用的(或計(jì)劃使用的)EUV的鏡頭開口數(shù)(NA)為0.33,但預(yù)計(jì)在2027年至2028年后期會(huì)考慮轉(zhuǎn)向High NA。這樣,DRAM制造商的微細(xì)化將持續(xù)不斷。

那么,使用這樣的最先進(jìn)工藝,將能夠生產(chǎn)多少HBM呢?

06、DRAM出貨額和HBM出貨額

在圖10中,顯示了DRAM出貨額、HBM出貨額以及HBM占DRAM出貨額比例。正如前文所述,ChatGPT于2022年11月發(fā)布,并且結(jié)果是,2023年NVIDIA的GPU大獲成功。

圖10 DRAM出貨額、HBM出貨額、HBM比例(%)來源:基于Yole Intelligence數(shù)據(jù),作者制作

與此同時(shí),HBM出貨額也迅速增長。2022年HBM出貨額為27.5億美元(占3.4%),到了2023年增長了近兩倍,達(dá)到54.5億美元(占10.7%),2024年更是急劇增長到140.6億美元(占19.4%)以上(括號(hào)內(nèi)為HBM占DRAM出貨額比例)。

關(guān)注DRAM出貨額,可以看到在2021年因冠狀病毒特需而達(dá)到頂峰,但到了2023年,特需結(jié)束后出貨額大幅下降。之后,出貨額逐漸回升,預(yù)計(jì)到2025年將超過2021年的峰值。而在2026年后,盡管會(huì)有些許波動(dòng),但將持續(xù)增長,預(yù)計(jì)到2029年將超過1500億美元。

另一方面,預(yù)計(jì)HBM出貨額將在2025年后繼續(xù)增長,但HBM占DRAM出貨額比例在2027年后將飽和在24-25%。這是為什么呢?

07、各種HBM的出貨量和HBM的總出貨量

通過查看圖 11 所示的各種 HBM 的出貨量以及HBM出貨總量的變化,可以解開這個(gè)謎團(tuán)。

圖11 各種HBM的出貨量以及HBM的出貨總量來源:基于Yole Intelligence數(shù)據(jù),作者制作

首先,到2022年為止,主要出貨的是HBM2。接著,在NVIDIA的GPU于2023年大熱之后,HBM2E取代HBM2成為主角。然后,在2024年到2025年之間,HBM3將成為主流。再者,到2026年到2027年之間,HBM3E的出貨量最多,而2028年開始則由HBM4主導(dǎo)。

也就是說,HBM大致上以兩年為周期進(jìn)行世代更替。這意味著DRAM制造商不僅需要在微細(xì)化方面以1納米為單位前進(jìn),還需要每兩年更新一次HBM的規(guī)格。

因此,從圖11可以明顯看出,HBM的出貨總量在2025年后幾乎沒有增長。這并不是DRAM制造商懈怠的結(jié)果,而是因?yàn)樗麄冃枰ιa(chǎn)最先進(jìn)的DRAM,同時(shí)還要制造最先進(jìn)的HBM。

此外,導(dǎo)致HBM出貨總量在2025年后增長不大的原因之一是,堆疊在HBM內(nèi)的DRAM芯片數(shù)量增加了(見圖12)。隨著GPU性能的提升,HBM的內(nèi)存容量(GB)也必須增加,因此HBM內(nèi)的DRAM堆疊層數(shù)從HBM2和HBM2E的4至8層增加到HBM3和HBM3E的8至12層,最后到HBM4則為16層。

圖12 各種HBM的內(nèi)存容量(GB)以及HBM內(nèi)的DRAM芯片堆疊層數(shù)?來源:基于Yole Intelligence數(shù)據(jù),作者制作

也就是說,HBM2只需要4至8層DRAM,但到了HBM4則需要2至4倍的16層DRAM。因此,DRAM制造商在HBM4時(shí)代可能會(huì)生產(chǎn)2至4倍于HBM2時(shí)代的DRAM,但HBM的出貨量可能會(huì)保持相同水平。

綜上所述,由于DRAM持續(xù)以1納米為單位進(jìn)行微細(xì)化,HBM大約每兩年進(jìn)行世代更替,以及HBM內(nèi)的DRAM隨著世代增加,預(yù)計(jì)2025年后HBM的出貨總量將達(dá)到飽和。

那么,HBM短缺會(huì)持續(xù)下去嗎?DRAM制造商不能進(jìn)一步增加HBM的出貨量嗎?

08、DRAM制造商迫切希望大規(guī)模生產(chǎn)HBM

雖然已經(jīng)解釋了DRAM制造商無法迅速增加HBM出貨量的原因,但即便如此,DRAM制造商仍將挑戰(zhàn)其極限,全力以赴地量產(chǎn)HBM。這是因?yàn)?strong>HBM的價(jià)格非常高昂。

圖13展示了各種HBM和常規(guī)DRAM每GB平均價(jià)格的對(duì)比圖表。無論是常規(guī)DRAM還是HBM,它們?cè)诎l(fā)布時(shí)的每GB價(jià)格都是最高的。雖然趨勢(shì)相同,但常規(guī)DRAM和HBM每GB的價(jià)格相差20倍以上。需要注意的是,在圖13中,為了比較常規(guī)DRAM和HBM每GB的平均價(jià)格,將常規(guī)DRAM的價(jià)格放大了10倍并標(biāo)記在圖表上。

圖13 各種HBM和常規(guī)DRAM每GB平均價(jià)格的對(duì)比?來源:基于Yole Intelligence數(shù)據(jù),作者制作

直接比較發(fā)布后價(jià)格最高的情況,常規(guī)DRAM每GB的價(jià)格為0.49美元,而HBM2為其約23倍的11.4美元,HBM2E為約28倍的13.6美元,HBM4則為30倍的14.7美元。

此外,圖14展示了各種HBM的平均價(jià)格圖表。在價(jià)格最高的情況下,HBM2為73美元,HBM2E為157美元,HBM3為233美元,HBM3E為372美元,而HBM4則高達(dá)560美元。

圖14 各種HBM和常規(guī)DRAM每GB平均價(jià)格的對(duì)比?來源:基于Yole Intelligence數(shù)據(jù),作者制作

圖15顯示了HBM的價(jià)格有多昂貴。例如,DRAM制造商在1z工藝下生產(chǎn)的DDR5 16GB的DRAM的價(jià)格最多為3至4美元。然而,今年(2024年),SK 海力士發(fā)布的HBM3E卻高達(dá)其90至120倍的361美元。

需要說明的是,DDR(Double Data Rate)是內(nèi)存標(biāo)準(zhǔn)的一種。數(shù)據(jù)傳輸速度越來越快,DDR5比DDR4快2倍,DDR6比DDR5快2倍。2024年是從DDR4轉(zhuǎn)向DDR5的一年,DRAM制造商需要不斷更新DDR標(biāo)準(zhǔn)。

圖15?各種半導(dǎo)體的工藝、芯片尺寸、晶體管數(shù)量(位數(shù))、平均價(jià)格的對(duì)比

回到HBM,HBM3E使用TSMC最先進(jìn)的3nm工藝生產(chǎn),與最新款“iPhone 15”用的“A17 Bionic” AP(應(yīng)用處理器)幾乎相同的芯片尺寸,但價(jià)格高達(dá)其3.6倍。相比于先進(jìn)的邏輯芯片,DRAM的HBM更昂貴,這令人震驚。因此,由于這種高昂的價(jià)格,DRAM制造商將全力以赴增加HBM的出貨量,以奪取HBM的主導(dǎo)地位。

讓我們來看看三家DRAM制造商的路線圖。

09、DRAM制造商爭奪HBM

圖16展示了在2015年至2024年期間,三家DRAM制造商是如何生產(chǎn)HBM的。
圖16 SK 海力士、Samsung、Micron的HBM路線圖?來源:DIGITIMES Research, ”HBM Technology and capacity development”(2024年1月)報(bào)告中的圖表
首先成功量產(chǎn)HBM1的是SK海力士。

然而,在HBM2時(shí)代,三星比SK海力士更早實(shí)現(xiàn)了量產(chǎn)。然后,在2023年NVIDIA的GPU大獲成功時(shí),SK海力士恰巧比其他公司更早實(shí)現(xiàn)了HBM3的量產(chǎn)。這使得SK 海力士獲得了巨大利益。結(jié)果,DRAM冠軍三星落后了。

另一方面,另一家DRAM制造商美光最初開發(fā)的是與HBM不同的HMC(混合內(nèi)存立方體)標(biāo)準(zhǔn)。然而,美國半導(dǎo)體標(biāo)準(zhǔn)化推進(jìn)組織JEDEC(聯(lián)合電子設(shè)備工程委員會(huì))正式認(rèn)證了HBM而非HMC的標(biāo)準(zhǔn)。因此,美光從2018年開始放棄了HMC的開發(fā),并在大幅落后于韓國兩家制造商之后參與了HBM的開發(fā)。

根據(jù)2024年3月20日Bloomberg的報(bào)道,HBM的市場(chǎng)中,SK海力士占54%,三星占41%,美光占5%。

市場(chǎng)份額排名第一的SK海力士于2023年在NAND工廠M15開始生產(chǎn)HBM。此外,他們計(jì)劃在2024年上半年發(fā)布HBM3E。而在2025年,他們計(jì)劃將目前正在建設(shè)中的M15X工廠改造為專用的HBM工廠,用于生產(chǎn)HBM3E和HBM4。

另一方面,希望趕上SK海力士的三星于2023年開始在Samsung Display工廠生產(chǎn)HBM,并計(jì)劃在2024年將HBM產(chǎn)能擴(kuò)大兩倍,在2025年比SK海力士更早開始量產(chǎn)HBM4。

落后的美光則跳過了HBM3,計(jì)劃在2024至2025年通過HBM3E競爭,并在2025年?duì)幦~@得20%的市場(chǎng)份額。此外,在2027至2028年間,他們計(jì)劃通過量產(chǎn)HBM4和HBM4E來趕上領(lǐng)先的韓國兩家制造商。

通過三家DRAM制造商的激烈競爭,可能打破HBM出貨總量飽和的狀態(tài),從而有望解決HBM短缺問題。

10、NVIDIA的GPU短缺會(huì)持續(xù)多久?

本文解釋了全球范圍內(nèi)NVIDIA GPU等AI半導(dǎo)體短缺的原因。這些原因可以總結(jié)為以下兩點(diǎn):

1)NVIDIA的GPU采用臺(tái)積電的CoWoS封裝技術(shù)。然而,CoWoS的產(chǎn)能完全不足。原因在于,GPU、CPU、HBM等芯片所搭載的硅中介層隨著世代更新而變得越來越大。臺(tái)積電正試圖增加這種中間工藝的產(chǎn)能,但隨著GPU世代的更新,中介層也會(huì)變得更大,這可能導(dǎo)致一直處于“你追我趕”的狀態(tài)。

2)搭載在CoWoS中的HBM也存在短缺。原因是,DRAM制造商不僅需要以1nm的微細(xì)度進(jìn)行持續(xù)縮小,還必須每兩年更新一次HBM的規(guī)格,同時(shí)隨著世代的變化,HBM中的DRAM芯片也在增加。DRAM制造商正在全力生產(chǎn)HBM,但據(jù)預(yù)測(cè),到2025年后HBM的供應(yīng)將達(dá)到飽和。然而,由于HBM價(jià)格極高,DRAM制造商正展開激烈的競爭,這可能有助于解決HBM短缺問題。

因此,導(dǎo)致NVIDIA的GPU短缺的瓶頸問題包括臺(tái)積電中間工藝產(chǎn)能不足和HBM短缺這兩點(diǎn),但這些問題短時(shí)間內(nèi)很難解決。因此,預(yù)計(jì)NVIDIA的GPU短缺將持續(xù)數(shù)年(甚至更長時(shí)間?)。

推薦器件

更多器件
器件型號(hào) 數(shù)量 器件廠商 器件描述 數(shù)據(jù)手冊(cè) ECAD模型 風(fēng)險(xiǎn)等級(jí) 參考價(jià)格 更多信息
ATXMEGA128D4-MH 1 Atmel Corporation RISC Microcontroller, 16-Bit, FLASH, AVR RISC CPU, 32MHz, CMOS, PQCC44, 7 X 7 MM, 1 MM HEIGHT, 0.50 MM PITCH, GREEN, PLASTIC, MO-220VKKD-3, VQFN-44
$5.3 查看
STM32F429ZIT6 1 STMicroelectronics High-performance advanced line, Arm Cortex-M4 core with DSP and FPU, 2 Mbytes of Flash memory, 180 MHz CPU, ART Accelerator, Chrom-ARTAccelerator, FMC with SDRAM, TFT

ECAD模型

下載ECAD模型
$24.77 查看
ATXMEGA128A1-CUR 1 Atmel Corporation RISC Microcontroller, 16-Bit, FLASH, AVR RISC CPU, 32MHz, CMOS, PBGA100, 9 X 9 MM, 1.20 MM HEIGHT, 0.80 MM PITCH, GREEN, CBGA-100
$10.58 查看
英偉達(dá)

英偉達(dá)

NVIDIA(中國大陸譯名:英偉達(dá),港臺(tái)譯名:輝達(dá)),成立于1993年,是一家美國跨國科技公司,總部位于加利福尼亞州圣克拉拉市,由黃仁勛、克里斯·馬拉科夫斯基(Chris Malachowsky)和柯蒂斯·普里姆(Curtis Priem)共同創(chuàng)立。公司早期專注于圖形芯片設(shè)計(jì)業(yè)務(wù),隨著公司技術(shù)與業(yè)務(wù)發(fā)展,已成長為一家提供全棧計(jì)算的人工智能公司,致力于開發(fā)CPU、DPU、GPU和AI軟件,為建筑工程、金融服務(wù)、科學(xué)研究、制造業(yè)、汽車等領(lǐng)域的計(jì)算解決方案提供支持。

NVIDIA(中國大陸譯名:英偉達(dá),港臺(tái)譯名:輝達(dá)),成立于1993年,是一家美國跨國科技公司,總部位于加利福尼亞州圣克拉拉市,由黃仁勛、克里斯·馬拉科夫斯基(Chris Malachowsky)和柯蒂斯·普里姆(Curtis Priem)共同創(chuàng)立。公司早期專注于圖形芯片設(shè)計(jì)業(yè)務(wù),隨著公司技術(shù)與業(yè)務(wù)發(fā)展,已成長為一家提供全棧計(jì)算的人工智能公司,致力于開發(fā)CPU、DPU、GPU和AI軟件,為建筑工程、金融服務(wù)、科學(xué)研究、制造業(yè)、汽車等領(lǐng)域的計(jì)算解決方案提供支持。收起

查看更多

相關(guān)推薦

電子產(chǎn)業(yè)圖譜

芯片電子元器件IC半導(dǎo)體分銷教科書式必讀公眾號(hào)【芯世相】;國產(chǎn)替換,供應(yīng)鏈配套,借展出海,方案買賣就找芯片超人。