《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 2024年全球AI服務器出貨量將同比大漲42%

2024年全球AI服務器出貨量將同比大漲42%

2024-10-17
來源:芯智訊
關鍵詞: AI服務器 GPU FPGA ASIC

10月16日,,在市場調研機構TrendForce舉行的“AI時代半導體全局展開2025科技產(chǎn)業(yè)大預測”研討會上,,TrendForce資深分析師龔明德表示,,受益于云端服務供應商(CSP)及品牌客戶對建設AI基礎設施需求強勁,,2024年全球AI服務器(含搭載GPU,、FPGA,、ASIC等)出貨量將同比增長42%,。2025年受云端業(yè)者及主權云等需求帶動,,出貨量有望再增長約28%,,推動AI服務器占整體服務器市場出貨量比例提高至近15%,。中長期來看,預期在各種云端AI訓練及推理應用服務推進下,,2027年AI服務器占比有機會逼近19%,。

觀察主要AI服務器芯片供應商,龔明德認為,,英偉達(NVIDIA)表現(xiàn)一枝獨秀,,其高階GPU 出貨量同比增長率將超過150%,其中以H200等H系列GPU為出貨主力產(chǎn)品,。推動英偉達在2024年的AI GPU市場的市占率接近90%,。至于Blackwell GPU平臺將于明年上半年放量并成為主流,明年占比從4% 拉高至84%,。

其他AI芯片供應商如AMD,、英特爾以及云端服務供應商也在積極推動自家的AI服務器芯片,將推升2025年AI芯片出貨增長動能,,進一步帶動AI芯片所需的先進封裝(CoWoS),、高帶寬內(nèi)存(HBM)出貨量翻倍增長。先進封裝技術也將從CoWoS-S 往CoWoS-L 邁進,,HBM也將由HBM3 轉向HBM3e,,也將明顯提升液冷散熱方案滲透率,。

TrendForce 分析師邱珮雯認為,隨著運算能力提升,,液態(tài)冷卻解決方案在數(shù)據(jù)中心逐步重要,。在英偉達Blackwell GPU新平臺帶動下,GB200 NVL72 機柜方案的熱設計功耗(TDP)高達約140kW,,須采用液冷方案才可有效解決散熱問題,,預計初期將以水對氣(Liquid-to-Air,L2A)方式為主流,。

除了英偉達之外,,近年來谷歌、亞馬遜網(wǎng)絡服務公司(AWS)和微軟(Microsoft)等大型美系云端業(yè)者,,也在布局液冷方案,。其中CSP 自研高階ASIC 以谷歌最積極采用液冷方案,其TPU 芯片同時使用氣冷與液冷解決方案,,其他CSP 仍以氣冷為主要散熱方案,。中國產(chǎn)生方面,則以阿里巴巴采用液冷散熱解決方案最為積極,。長期來看,,全球對ESG 逐漸重視,將加速帶動散熱方案由氣冷轉液冷形式,。

隨著頭部廠商的積極推動,,預計AI 芯片的液冷散熱滲透率將從2024 年的11% 提升至2025 年的24%。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點。轉載的所有的文章,、圖片,、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者,。如涉及作品內(nèi)容,、版權和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。