電子發燒友網報道(文 / 吳子鵬)當地時間 7 月 3 日,人工智能芯片龍頭英偉達股價表現亮眼,盤中一度漲超 2%,觸及 160.98 美元的歷史新高,市值隨之突破 3.92 萬億美元。雖然當天未突破 4 萬億美元市值,但 3.92 萬億美元已是有史以來全球科技公司的最高市值。有分析人士認為,英偉達必將正式加冕為歷史上市值最高的公司。
除了股市表現亮眼,英偉達 GB300 服務器也傳來新消息。同樣在 7 月 3 日,美國 CoreWeave 公司在官網宣布,已收到市場上首個基于英偉達最新高端芯片的人工智能服務器系統。
隨后,戴爾公司專門發布新聞稿對此事進行說明,英偉達公司也在社交媒體上確認了這一事件。
AI 服務器發展的里程碑
據介紹,CoreWeave 此次部署的是基于 PowerEdge XE9712 服務器的戴爾集成機架可擴展系統,因此戴爾公司在 GB300 服務器出貨方面拔得頭籌。
PowerEdge XE9712 服務器是戴爾公司基于 Nvidia GB300 NVL72、專門為推理任務設計的 AI 服務器,具備高效能、高密度加速技術,能提供 50 倍的 AI 推理輸出并提升 5 倍的吞吐量,適用于大規模 AI 部署的 LLM 訓練和即時推論。戴爾公司總結了 PowerEdge XE9712 服務器的幾大優勢:
·通過 NVIDIA GB300 NVL72 GPU,為 AI 部署提供高性能、高密度加速。
·采用液冷技術,實現節能運行。
·具備實時萬億參數 LLM 推理能力,增強大規模 AI 模型訓練。
由此可見,PowerEdge XE9712 服務器包含三大關鍵技術:GB300 芯片、NVL72 系統和液冷技術。其中,GB300 芯片是英偉達于 2025 年 3 月 18 日 GTC 大會上發布的新一代 AI 芯片,基于 Blackwell Ultra 架構,定位為高性能計算與 AI 推理的旗艦產品。作為前沿架構,NVIDIA Blackwell 架構 GPU 擁有 2080 億個晶體管,采用專門定制的臺積電 4NP 工藝制造。所有 NVIDIA Blackwell 產品均采用雙倍光刻極限尺寸的裸片,通過 10TB/s 的片間互聯技術連接成一塊統一的 GPU。
NVIDIA NVLink 交換機芯片可在包含 72 個 GPU 的 NVLink 域(NVL72)中實現 130TB/s 的 GPU 帶寬,并通過 NVIDIA SHARP?技術對 FP8 的支持,實現 4 倍于原來的帶寬效率。此外,NVIDIA NVLink 交換機芯片能以 1.8TB/s 的驚人互連速度為多服務器集群提供支持。采用 NVLink 的多服務器集群可在計算量增加時同步擴展 GPU 通信,因此 NVL72 支持的 GPU 吞吐量是單個 8 卡 GPU 系統的 9 倍。GB300 NVL72 集成了 72 個 Blackwell Ultra GPU 和 36 個基于 Arm Neoverse 架構的 NVIDIA Grace CPU,理論算力可達 1 萬億次浮點運算 / 秒。GB300 NVL72 還計劃在 DGX Cloud 上推出,將通過軟件、服務和 AI 專業知識優化性能,以應對不斷變化的工作負載。與英偉達上一代 Hopper 架構相比,GB300 NVL72 的用戶響應速度提升 10 倍,每瓦吞吐量提高 5 倍,推理模型的推理輸出增加 50 倍。
戴爾在介紹 PowerEdge 服務器時表示,其液冷服務器采用創新的直接芯片冷卻技術,最多可支持 192 個 Nvidia Blackwell Ultra GPU。
除 PowerEdge XE9712 服務器外,戴爾與英偉達的合作還涵蓋風冷 PowerEdge XE9780 和 XE9785 服務器,以及液冷版本的 XE9780L 和 XE9785L 服務器。分析人士認為,首發設備交付給 CoreWeave 這一情況,凸顯出英偉達愈發專注于向企業出租強大計算能力的戰略,這些企業需要高性能的英偉達芯片來訓練和運行 AI 軟件。
綜上,GB300 服務器出貨具有諸多重要意義,是 AI 服務器行業發展的里程碑事件。作為行業首款達到 ExaFLOPS 級別的算力設備,它將超算級算力帶入企業級應用場景,重新定義了 AI 推理的效率標準,賦能代理式 AI 的工業化落地、物理模擬的實時化突破以及多模型推理的規模化協同等核心場景。
GB200 放量,GB300 接班
去年 12 月,摩根士丹利(MS)在研究簡報中指出,供應鏈調查顯示,銅纜連接器的問題已通過機柜重新設計解決,首批 GB200 已進入最終測試階段,并于 12 月正常發貨。目前,各大服務器廠商多次提及 GB200 服務器已實現規模化放量。以鴻海精密為例,根據該公司一季度財報,2025 年一季度其 AI 服務器收入占比提升至 50%,這主要得益于 3 月底 GB200 的大規模量產。管理層預計二季度 AI 服務器收入環比翻倍,全年目標機柜出貨超 3 萬臺,其中 GB200/GB300 NVL72 約 1 萬臺。
據統計數據顯示,得益于 AIGC 技術的快速迭代,2024 年全球加大了對 AI 算力基礎設施的投資,全球服務器市場規模達到 2164.0 億美元。預計 2023-2028 年,該市場將以 18.8% 的年復合增長率保持高速增長,2028 年市場規模將達 3328.7 億美元,其中 AI 服務器將占據近 7 成市場份額。
從采購額來看,2024 年超大規模云服務提供商和企業客戶均在加大對 AI 服務器的資源投入,成為服務器市場增長的主力。美系四大 CSP 業者(Microsoft、Google、AWS、Meta)在全球需求中的占比分別達 20.2%、16.6%、16% 及 10.8%,合計超過 6 成,處于全球領先位置。而這些廠商均對英偉達 GB200 服務器和 GB300 服務器有著濃厚興趣和廣泛需求。
TrendForce 集邦咨詢此前表示,目前供應鏈對 NVIDIA GB200 寄予厚望,預估 2025 年其出貨量有望突破百萬顆,占 NVIDIA 高端 GPU 的近 4-5 成。在 GB200 服務器的客戶群中,微軟表現最為活躍。2024 年第四季度,微軟采購 GB200 服務器的訂單激增 3-4 倍,超過所有其他云服務商(CSP)的總和。此外,為全面提升 AI 工具的性能,微軟將 GB200 訂單從之前的 300-500 個機架增至約 1400-1500 個機架,其中約 70% 為 NVL72 型號。
GB300 預計將在第四季度開始真正放量。除戴爾外,其他服務器廠商也在抓緊推動 GB300 服務器出貨。廣達電腦資深副總暨云達總經理楊麒令表示,GB300 目前按計劃推進,正在測試并與客戶進行驗證,預計 9 月出貨。此前有傳聞稱,GB300 服務器可能會讓 GB200 服務器成為 “短命版” 旗艦級服務器,但從目前廠商的規劃來看,兩者之間的升級仍按部就班地進行。
值得注意的是,GB300 服務器正式出貨后,將帶動 1.6T 光模塊上量。GB300 的超級芯片集群設計對跨機柜數據傳輸提出嚴苛要求,因此跨機柜互聯需依賴 1.6T 光模塊實現 TB 級數據傳輸。另外,1.6T 光模塊不僅傳輸速率較 800G 提升 2 倍,功耗也降低 40%,能適配 AI 訓練與推理需求。有分析人士稱,GB300 服務器將加速 1.6T 光模塊的滲透率,2025 年全球需求或達百萬只級,頭部廠商正通過擴產來應對這一需求。
結語
GB300 服務器的正式出貨,不僅標志著英偉達在 AI 算力領域的又一次突破,更掀開了全球 AI 基礎設施升級的新篇章。作為行業首款達到 ExaFLOPS 級別的企業級算力設備,GB300 NVL72 系統通過 72 顆 Blackwell Ultra GPU 與 36 顆 Grace CPU 的超大規模集成,將單機架算力推向 1 萬億次浮點運算 / 秒的巔峰。
-
服務器
+關注
關注
13文章
9768瀏覽量
87741 -
英偉達
+關注
關注
22文章
3937瀏覽量
93483
發布評論請先 登錄
評論