雖然NVIDIA目前仍是AI芯片市場(chǎng)的霸主,,不過(guò)年中開始,挑戰(zhàn)者AMD的最強(qiáng)AI芯片MI300X也即將大批量出貨,,可能將會(huì)搶下部分NVIDIA的市場(chǎng),,并再次影響從晶圓代工到服務(wù)器的AI產(chǎn)品供應(yīng)鏈,。
根據(jù)日本瑞穗證券報(bào)告,,在目前的AI芯片市場(chǎng),NVIDIA的市占率高達(dá)95%,,“遠(yuǎn)比AMD和英特爾的份額相加還要高”,。
NVIDIA在2023年第四季僅數(shù)據(jù)中心業(yè)務(wù)的營(yíng)收就高達(dá)184億美元,較前一年同期增加了409%,。
但隨著AMD的最強(qiáng)AI芯片MI300X的出貨,,或?qū)屜翹VIDIA的部分市場(chǎng)份額。
據(jù)業(yè)內(nèi)人士透露,,AMD MI300X芯片目前已小量出貨,,微軟等正在測(cè)試。這款芯片下半年預(yù)計(jì)會(huì)有大量出貨,,主要買家是微軟等有大型數(shù)據(jù)中心的公司,,“5或6月開始,就會(huì)有一批拉貨潮”,。
據(jù)悉,,微軟、Meta,、甲骨文、OpenAI等大廠都會(huì)采購(gòu)這款芯片,,美超威,、華碩、技嘉,、鴻佰科技,、英業(yè)達(dá)、云達(dá)等服務(wù)器廠也在設(shè)計(jì)解決方案,。
在去年的第三財(cái)季會(huì)議上,,AMD CEO蘇姿豐表示,數(shù)據(jù)中心收入2024年可達(dá)20億美元,這代表MI300會(huì)是AMD史上最快營(yíng)收達(dá)10億美元的產(chǎn)品,。
AMD反擊NVIDIA的武器,,是利用更高容量的高帶寬內(nèi)存(HBM)和先進(jìn)封裝提高AI運(yùn)算效率。
AI芯片挑戰(zhàn)在于,,要在內(nèi)存和處理器間搬動(dòng)大量數(shù)據(jù),,因此AMD采用臺(tái)積電的先進(jìn)封裝技術(shù),將原本放在芯片外的內(nèi)存直接搬進(jìn)芯片,,讓大量數(shù)據(jù)直接在芯片內(nèi)就能從內(nèi)存搬到處理器計(jì)算。
在此前的發(fā)布會(huì)上,,AMD CEO蘇姿豐就表示,,只用一顆芯片,就能執(zhí)行數(shù)據(jù)量高達(dá)40GB的AI模型,,而這顆芯片最高可執(zhí)行80GB 的AI模型,。
根據(jù)官方公布的數(shù)據(jù)顯示,MI300X的HBM容量高達(dá)192GB,,比NVIDIAH100 SXM芯片的80GB高了一倍多,多項(xiàng)算力測(cè)試性能也高于NVIDIAH100 SXM芯片,。
不過(guò),,隨后NVIDIA也拿出數(shù)據(jù)來(lái)表示,輝達(dá)H100芯片性能比MI300X明顯更快,,并公布測(cè)試細(xì)節(jié),,讓使用者自行比較兩顆芯片性能。
雙方之間競(jìng)爭(zhēng)的火藥味明顯上升,。
對(duì)于AMD來(lái)說(shuō),,除了MI300X的產(chǎn)品優(yōu)勢(shì)之外,它還有著另一大優(yōu)勢(shì),,那就是客戶不希望AI芯片市場(chǎng)被NVIDIA獨(dú)占。
據(jù)業(yè)界人士觀察,,“AI芯片問題不是產(chǎn)能不夠,,是NVIDIA賣的很貴”。
微軟等大客戶不希望市場(chǎng)只有一家供應(yīng)商很正常,,但自研芯片又無(wú)法像專業(yè)的半導(dǎo)體公司,,在性能上保持領(lǐng)先,,自然希望有新的供應(yīng)商出現(xiàn),,不僅性能能和NVIDIA匹敵,,價(jià)格還更具優(yōu)勢(shì)。
根據(jù)富國(guó)銀行此前的預(yù)測(cè),,AMD雖然在2023年的AI芯片的營(yíng)收僅為4.61億美元,,但是2024年將有望增長(zhǎng)到21億美元,將有望拿到4.2%的市場(chǎng)份額,。Intel也可能拿到將近2%的市場(chǎng)份額,。
這將導(dǎo)致NVIDIA的市場(chǎng)份額可能將小幅下滑到94%。
不過(guò),,根據(jù)AMD CEO蘇姿豐在1月30日的電話會(huì)議上公布的數(shù)據(jù)顯示,,AMD在2023年四季度的AI芯片營(yíng)收已經(jīng)超越此前預(yù)測(cè)的4億美元,同時(shí)2024年AMD的AI芯片營(yíng)收預(yù)計(jì)也將達(dá)到35億美元,,高于先前預(yù)測(cè)的20億美元,。
如果AMD的預(yù)測(cè)數(shù)據(jù)準(zhǔn)確的話,那么其2024年在AI芯片市場(chǎng)的份額有望進(jìn)一步提高到7%左右,。
然而NVIDIA也不會(huì)坐等競(jìng)爭(zhēng)對(duì)手壯大,。
3月18日,,NVIDIA即將召開GTC2024大會(huì),,屆時(shí)將會(huì)正式發(fā)布全新的AI芯片H200,將會(huì)把HMB內(nèi)存從上一代的80GB提升至141GB,,并且采用的是速率更快的HBM3E規(guī)格,。
此外,NVIDIA今年還將提出更強(qiáng)的B100芯片,,其性能將會(huì)達(dá)到H200的兩倍,。AMD明年也會(huì)推出新一代的采用HBM3E內(nèi)存的AI芯片MI350進(jìn)行應(yīng)對(duì)。
供應(yīng)鏈方面,,隨著NVIDIA和AMD對(duì)于HBM容量及規(guī)格的需求提升,,HBM的供應(yīng)也將持續(xù)供不應(yīng)求。目前兩大HBM供應(yīng)商——SK海力士和美光的今年的HBM產(chǎn)能都已經(jīng)銷售一空,。
與此同時(shí),,臺(tái)積電的先進(jìn)封裝產(chǎn)能也仍面臨供應(yīng)緊張的局面,因?yàn)椴粌HAI芯片需要先進(jìn)封裝產(chǎn)能,,HBM芯片的制造也需要先進(jìn)封裝產(chǎn)能,。
對(duì)此,臺(tái)積電在2023年啟動(dòng)了其CoWoS先進(jìn)封裝產(chǎn)能大擴(kuò)產(chǎn)計(jì)劃,。
近日業(yè)內(nèi)傳出,,臺(tái)積電本月對(duì)臺(tái)系設(shè)備廠再度追單,,交機(jī)時(shí)間預(yù)計(jì)將在今年第四季,,因此,,今年年底臺(tái)積電CoWoS月產(chǎn)能將有機(jī)會(huì)比其原定的倍增目標(biāo)的3.5萬(wàn)片進(jìn)一步提高到4萬(wàn)片以上。
臺(tái)積電更是和SK海力士結(jié)盟,,大力布局HBM,。
業(yè)界人士預(yù)測(cè),接下來(lái)AI芯片會(huì)越來(lái)越多元,,從高階一路到中低階,,配合從模型訓(xùn)練到AI邊緣計(jì)算需求。
比如,,上個(gè)月美國(guó)人工智能初創(chuàng)公司Groq最新推出的面向云端大模型的推理芯片引發(fā)了業(yè)內(nèi)的廣泛關(guān)注,,該芯片采用了全新的Tensor Streaming Architecture (TSA) 架構(gòu),以及擁有超高帶寬的SRAM,,從而使得其對(duì)于大模型的推理速度提高了10倍以上,,甚至超越了NVIDIA的GPU。這也使得一些客戶對(duì)于Groq的AI芯片產(chǎn)生的興趣,。
近日,,新創(chuàng)AI芯片公司Cerebras Systems近日推出了其第三代的晶圓級(jí)AI芯片WSE-3,具有125 FP16 PetaFLOPS的峰值性能,,相比上一代的WSE-2提升了1倍,,將用于訓(xùn)練業(yè)內(nèi)一些最大的人工智能模型。
與此同時(shí),,Cerebras還推出了基于WSE-3的CS-3超級(jí)計(jì)算機(jī),,可用于訓(xùn)練參數(shù)高達(dá)24萬(wàn)億的人工智能模型,這比相比基于WSE-2和其他現(xiàn)代人工智能處理器的超級(jí)計(jì)算機(jī)有了重大飛躍,。
另外,,如果只是用來(lái)推理,X86和Arm處理器也有機(jī)會(huì)拿到一定的市場(chǎng),。