NVIDIA 和谷歌云宣布開展一項新的合作,以幫助全球初創(chuàng)企業(yè)加速創(chuàng)建生成式 AI 應(yīng)用和服務(wù)。
雙方于今日在拉斯維加斯舉行的 Google Cloud Next '24 大會上宣布這一消息,將把針對初創(chuàng)企業(yè)的NVIDIA 初創(chuàng)加速計劃與 Google for Startups Cloud 計劃相結(jié)合。此舉將擴大云積分、產(chǎn)品上市支持和技術(shù)專業(yè)知識的受眾面,幫助初創(chuàng)企業(yè)更快地為客戶創(chuàng)造價值。
NVIDIA 初創(chuàng)加速計劃是一項為 18,000 多家初創(chuàng)企業(yè)提供助力的全球性計劃,符合資格的會員將能夠通過加速途徑使用谷歌云基礎(chǔ)設(shè)施,并獲得谷歌云積分,將為專注于 AI 的初創(chuàng)企業(yè)提供高達 35 萬美元的積分。
Google for Startups Cloud 計劃成員可加入 NVIDIA 初創(chuàng)加速計劃并獲得技術(shù)專業(yè)知識、NVIDIA 深度學(xué)習(xí)培訓(xùn)中心(DLI)課程學(xué)分、NVIDIA 硬件和軟件等。符合條件的 Google for Startups Cloud 計劃成員還可以參加 NVIDIA Inception Capital Connect,該平臺讓初創(chuàng)企業(yè)能夠接觸到對該領(lǐng)域感興趣的風(fēng)投公司。
參加這兩項計劃的高增長新興軟件制造商還可以快速入駐谷歌云 Marketplace,獲得聯(lián)合營銷和產(chǎn)品加速支持。
此次合作是兩家公司發(fā)布一系列公告的最新成果,旨在幫助各種規(guī)模的企業(yè)減少生成式 AI 應(yīng)用開發(fā)成本和障礙。其中,AI 投資所產(chǎn)生的高額成本對初創(chuàng)企業(yè)有一定的制約。
需要一個全棧式 AI 平臺
今年 2 月,谷歌 DeepMind 推出了先進的開放模型系列 Gemma。NVIDIA 最近與谷歌合作,在所有適用于 Gemma 的 NVIDIA AI 平臺上推出了優(yōu)化方案,幫助降低客戶成本,并加快針對特定領(lǐng)域用例的創(chuàng)新工作。
兩家公司的團隊進行了密切合作,利用NVIDIA TensorRT-LLM(一個開源庫,用于優(yōu)化在NVIDIA GPU上運行的大語言模型的推理性能)加速 Gemma 的性能。創(chuàng)建 Gemma 所采用的研究和技術(shù),與創(chuàng)建谷歌 DeepMind 功能強大的 Gemini 模型完全相同。
包含在NVIDIA AI Enterprise 軟件平臺中的NVIDIA NIM 微服務(wù)將與 Google Kubernetes Engine(GKE)共同為 AI 應(yīng)用開發(fā)以及將優(yōu)化的 AI 模型部署到生產(chǎn)中提供簡化的途徑。NIM 是基于NVIDIA Triton 推理服務(wù)器、TensorRT-LLM 等推理引擎所構(gòu)建,其支持各種領(lǐng)先的 AI 模型,并提供無縫銜接、可擴展的 AI 推理,以加速企業(yè)中的生成式 AI 部署。
Gemma 系列模型包括 Gemma 7B、RecurrentGemma 和 CodeGemma 等,這些模型均可從 NVIDIA API 目錄中獲取。用戶可在瀏覽器、帶有 API 端點的原型和 NIM 的自托管中進行試用。
通過 GKE 和 Google Cloud HPC Toolkit,在谷歌云平臺上部署NVIDIA NeMo框架變得更加輕松。這使開發(fā)者能夠自動化與擴展生成式 AI 模型的訓(xùn)練和服務(wù),并通過可定制藍圖來快速部署一站式環(huán)境,從而快速啟動開發(fā)流程。
NVIDIA AI Enterprise 中的 NVIDIA NeMo 也可以在谷歌云 Marketplace 上獲得,這為客戶提供了另一種輕松訪問 NeMo 和其他框架的方式,以加速 AI 開發(fā)。
為進一步擴大由 NVIDIA 提供加速的生成式 AI 計算的供應(yīng)范圍,谷歌云還宣布 A3 Mega 將于下月全面上市。這些實例是其 A3 虛擬機系列的擴展,搭載了 NVIDIA H100 Tensor Core GPU。新實例將使 A3 虛擬機的 GPU 到 GPU 網(wǎng)絡(luò)帶寬增加一倍。
A3 上的谷歌云全新機密虛擬機還將加入對機密計算的支持,以便幫助客戶保護其敏感數(shù)據(jù)的機密性和完整性,并在訓(xùn)練和推理過程中確保應(yīng)用和 AI 工作負載的安全(在使用 H100 GPU 加速時無需更改代碼)。這些 GPU 驅(qū)動的機密虛擬機將在今年推出預(yù)覽版。
下一個主角:
NVIDIA Blackwell 架構(gòu) GPU
采用NVIDIA Blackwell 平臺的 NVIDIA 最新 GPU 將于明年初登陸谷歌云,推出NVIDIA HGX B200和NVIDIA GB200 NVL72兩種版本。
HGX B200 專門用于要求最高的 AI、數(shù)據(jù)分析和高性能計算工作負載;GB200 NVL72 專門用于下一代大規(guī)模萬億參數(shù)模型的訓(xùn)練和實時推理。
NVIDIA GB200 NVL72 通過 900GB/s 的片間互聯(lián)連接 36 個 Grace Blackwell 超級芯片,每個超級芯片上有 2 個NVIDIA Blackwell GPU和 1 個NVIDIA Grace CPU,一個 NVIDIA NVLink 域最高支持 72 個 Blackwell GPU 和 130TB/s 的帶寬。與上一代產(chǎn)品相比,它克服了通信瓶頸并且能夠作為單顆 GPU 運行,其實時 LLM 推理和訓(xùn)練速度分別提高了 30 倍和 4 倍。
NVIDIA GB200 NVL72 是一套多節(jié)點機架級擴展系統(tǒng),它將使用谷歌云的第四代先進液冷系統(tǒng)。
NVIDIA 于 3 月宣布,NVIDIA DGX Cloud已在搭載 H100 GPU 的 A3 虛擬機上全面推出,該 AI 平臺是面向企業(yè)開發(fā)者的 AI 平臺,針對生成式 AI 的需求進行了優(yōu)化。搭載 GB200 NVL72 的 DGX Cloud 也將于 2025 年在谷歌云上推出。
審核編輯:劉清
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5292瀏覽量
106154 -
LLM
+關(guān)注
關(guān)注
1文章
325瀏覽量
801 -
生成式AI
+關(guān)注
關(guān)注
0文章
531瀏覽量
773 -
AI大模型
+關(guān)注
關(guān)注
0文章
372瀏覽量
566
原文標題:引擎全開:NVIDIA 與谷歌云共同加速 AI 開發(fā)
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
NVIDIA計劃打造全球首個工業(yè)AI云平臺
NVIDIA攜手諾和諾德借助AI加速藥物研發(fā)
NVIDIA攜手微軟加速代理式AI發(fā)展
NVIDIA攜手谷歌云助力企業(yè)引入代理式AI
英偉達GTC2025亮點:NVIDIA、Alphabet 和谷歌攜手開啟代理式與物理AI的未來

英偉達GTC2025亮點:Oracle與NVIDIA合作助力企業(yè)加速代理式AI推理

通用汽車和NVIDIA合作構(gòu)建定制化AI系統(tǒng)
Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

評論