英偉達在3月18日GTC 2024年盛會上推出了搭載自家創新結構Blackwell的B200 GPU芯片,選用了臺積電最先進的N4P制程工藝,性能較之前翻番。然而,Meta公司在次日披露稱,預計今年無法獲得這款最新的AI芯片,至少在2025年后才能用上。
英偉達宣稱,B200在性能上比以往最好的GPU快30倍不止。由它構成的服務器集群相比上一代,運算能力飛躍性提升,甚至能使大語言模型的訓練速度翻番。
財務長科萊特?克雷斯于同日向財經分析人士保證,“我們確信新款GPU產品將在今年內面世。”新款GPU的規模生產預計需等到2025年。
臉書(即Meta)作為英偉達的主要買家之一,已經購買了數十萬塊英偉達AI芯片,用以訓練生成式AI和強化內容推薦功能。首席執行官馬克?扎克伯格曾在年初表示,今年底將擁有約35萬個H100芯片。這些芯片與其他型號GPU結合使用,總共將提供60萬個H100所代表的運算力。
在英偉達發布B200后不久,Meta宣布將利用該芯片訓練公司的LIama大型模型。據悉,Meta正在動用兩個包含約2.4萬個H100GPU的GPU集群來訓練第三代LIama模型。Meta公司發言人表示,他們打算繼續使用這兩座集群訓練LIama 3,并期待未來用Blackwell硬件訓練更多世代的大型模型。
-
服務器
+關注
關注
13文章
9759瀏覽量
87651 -
語言模型
+關注
關注
0文章
561瀏覽量
10746 -
英偉達
+關注
關注
22文章
3935瀏覽量
93428
發布評論請先 登錄
AMD最強AI芯片,性能強過英偉達H200,但市場仍不買賬,生態是最大短板?

新思科技攜手英偉達加速芯片設計,提升芯片電子設計自動化效率
英偉達將重新命名其Blackwell Ultra產品線為B300系列
NVIDIA DGX B200首次面向零售市場:配備8塊B200 GPU
英偉達或明年將革新AI GPU設計,采用插槽設計
英偉達發布AI模型 Llama-3.1-Nemotron-51B AI模型
亞馬遜云科技宣布Amazon EC2 P5e實例正式可用 由英偉達H200 GPU提供支持
英偉達2025年計劃發布Blackwell Ultra與B200A,或大幅提升HBM消耗量
英偉達或取消B100轉用B200A代替
3萬-4萬美元/顆,英偉達最新AI芯片曝設計缺陷、延遲出貨
科技看點:摩根大通詳解“英偉達芯片問題”馬斯克560億薪酬方案引爭議

評論