女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用OpenUSD構(gòu)建支持生成式AI的合成數(shù)據(jù)工作流

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-11-20 09:50 ? 次閱讀

訓(xùn)練用于驅(qū)動自主機(jī)器(例如機(jī)器人自動駕駛汽車)的物理 AI 模型需要大量數(shù)據(jù)。獲取大量多樣化的訓(xùn)練數(shù)據(jù)可能很困難、耗時且昂貴。數(shù)據(jù)通常因隱私限制或擔(dān)憂而受到限制,或者對于新穎的用例來說可能根本不存在。此外,可用數(shù)據(jù)可能不適用于各種潛在情況的全部范圍,從而限制了模型準(zhǔn)確預(yù)測和響應(yīng)各種場景的能力。

合成數(shù)據(jù),通過計算機(jī)模擬從數(shù)字孿生中生成,可替代真實數(shù)據(jù),使開發(fā)者能夠啟動物理 AI 模型訓(xùn)練。您可以快速生成大量多樣化的數(shù)據(jù)集,通過改變許多不同的參數(shù),如布局、資產(chǎn)放置、位置、顏色、物體大小和光照條件。然后,利用這些數(shù)據(jù)幫助創(chuàng)建通用模型。

實現(xiàn)逼真度對縮小模擬與現(xiàn)實領(lǐng)域的差距至關(guān)重要。該過程旨在使用正確的屬性(例如材質(zhì)和紋理)表示虛擬環(huán)境中的每個對象,以準(zhǔn)確地模仿其真實世界的表示。如果沒有 AI 的幫助,這是一個耗時的手動過程。生成式 AI 可以幫助加速從資產(chǎn)創(chuàng)建到代碼生成等過程的許多方面,支持開發(fā)者構(gòu)建穩(wěn)健且多樣化的訓(xùn)練數(shù)據(jù)集。

本文介紹了如何使用適用于通用場景描述的 NVIDIA NIM 微服務(wù)以及 NVIDIA Omniverse Replicator 構(gòu)建自定義合成數(shù)據(jù)生成(SDG)管線。NVIDIA NIM 是一套加速推理微服務(wù),允許組織在任何位置——云、數(shù)據(jù)中心、工作站和 PC 上——在 NVIDIA GPU上運行 AI 模型。Omniverse Replicator 是基于通用場景描述(OpenUSD)和 NVIDIA RTX 構(gòu)建的 SDK。

本文還將介紹如何獲取生成的圖像,并使用示例 ComfyUI 工作流程作為參考管線的一部分進(jìn)一步增強(qiáng)這些圖像。然后,生成的圖像可用于預(yù)訓(xùn)練模型和工具,例如 TAO、PyTorch 或 TensorFlow

參考工作流程概述

該工作流程從現(xiàn)有倉庫的 3D 場景開始,該場景包含所有必要的 3D 資產(chǎn),例如貨架、箱子、托盤等。如需了解有關(guān)創(chuàng)建工廠數(shù)字孿生的更多信息,請參閱工作流程示例。為了進(jìn)一步增強(qiáng) 3D 場景,可以使用 3D NIM 微服務(wù)添加更多資產(chǎn),并更改 360 HDRI 背景圖像以實現(xiàn)更多隨機(jī)化。

7559dcf2-a016-11ef-93f3-92fbcf53809c.png

圖 1. NVIDIA Isaac Sim 中的機(jī)器人基礎(chǔ)模型端到端參考工作流

下一步是使用 USD Code NIM 生成域隨機(jī)化所需的代碼,USD Code NIM 是一種先進(jìn)的大型語言模型(LLM),可回答 OpenUSD 知識查詢并生成 USD-Python 代碼。域隨機(jī)化是創(chuàng)建合成數(shù)據(jù)的強(qiáng)大且必要的步驟。在 Omniverse Replicator 中,許多場景參數(shù)可以以編程方式進(jìn)行更改。

生成帶注釋的合成數(shù)據(jù)后,我們將執(zhí)行生成式 AI 增強(qiáng),使用簡單的提示進(jìn)一步分散和擴(kuò)展數(shù)據(jù)集。

使用 USD NIM 微服務(wù)生成場景

USD Code 使您能夠在現(xiàn)有的 3D 開發(fā)工作流程中更高效地學(xué)習(xí)和開發(fā) OpenUSD,只需通過輸入提示并獲得回復(fù)。USD Code 既可以回答問題,也可以編寫自定義的 OpenUSD Python 代碼。

您可以在 NVIDIA NIM API 目錄中或通過 Visual Studio Code 試用 USD Code,在 Omniverse Kit 中將其用作修改 OpenUSD 階段的示例擴(kuò)展程序。有關(guān)詳細(xì)信息,請參閱USD Code NIM 文檔。

請參閱下面的示例提示以生成代碼:

編寫一個 Python 函數(shù),在給定的 stage 中,在 x 和 y 軸上的 6×5 網(wǎng)格中添加矩形 lights,尺寸為 x:5 和 y:10。每個矩形 lights 的強(qiáng)度應(yīng)為 5000,曝光值應(yīng)為 1,大小為 (10,3)。lights 應(yīng)在 z 軸上對齊,并嵌入在名為 Lights 的 xform 中。

生成的代碼如下所示:

from pxr import Sdf, Usd, UsdGeom, UsdLux


def create_rect_lights(stage: Usd.Stage) -> None:
    """Create a 6x5 grid of rect lights on the x and y axis."""
    lights_xform = UsdGeom.Xform.Define(stage, Sdf.Path("/Lights"))


    for i in range(6):
        for j in range(5):
            light_path = Sdf.Path(f"/Lights/Light_{i}_{j}")
            rect_light = UsdLux.RectLight.Define(stage, light_path)
            rect_light.CreateIntensityAttr().Set(5000)
            rect_light.CreateExposureAttr().Set(1)
            rect_light.CreateSizeAttr().Set((10, 3))
            rect_light.AddTranslateOp().Set((i * 5, j * 10, 0))
lights_xform.AddChild(rect_light.GetPrim())

執(zhí)行后生成的代碼會在倉庫中按照規(guī)定的間距創(chuàng)建并填充 30 個新 lights (圖 2)。此過程可用于添加更多資產(chǎn) (如 shelves、boxes 和 forklifts),以完成場景。

7581fd86-a016-11ef-93f3-92fbcf53809c.png

圖 2. 使用 USD Code NIM 從代碼生成的倉庫場景

如果需要其他資產(chǎn)或背景來增強(qiáng)場景,還可以使用使用 NVIDIA Edify 構(gòu)建的服務(wù)。NVIDIA Edify 是一種功能強(qiáng)大的多模態(tài)架構(gòu),用于構(gòu)建 AI 模型,生成視覺內(nèi)容,例如 4K 圖像、詳細(xì)的 3D 網(wǎng)格、16K 360 HDRi、PBR 材質(zhì)和視頻。然后,我們會對 AI 模型進(jìn)行優(yōu)化和打包,以通過 NVIDIA NIM 實現(xiàn)最大性能。這將加速內(nèi)容創(chuàng)作過程。

借助 NVIDIA Edify 提供支持的 Shutterstock Generative 3D,您可以在 10 秒內(nèi)通過文本提示或參考圖像生成網(wǎng)格預(yù)覽。然后在幾分鐘內(nèi)使用 PBR 材質(zhì)生成可隨時編輯的網(wǎng)格,從而實現(xiàn)快速的布景、概念或原型設(shè)計。此外,360 HDRi 生成功能也由 NVIDIA Edify 提供支持,使用戶能夠使用文本或圖像提示生成 16K 360 HDRi,以生成背景并匹配 3D 場景的照明。

Shutterstock Generative 3D API 已進(jìn)入商業(yè)測試階段,可通過 TurboSquid by Shutterstock 進(jìn)行訪問。

此外,fVDB 是一個開源深度學(xué)習(xí)框架,可用于生成大規(guī)模場景,利用真實世界的 3D 數(shù)據(jù)訓(xùn)練空間智能。它基于 OpenVDB 構(gòu)建 AI 運算符,以創(chuàng)建真實環(huán)境的高保真虛擬表示,包括神經(jīng)輻射場神經(jīng)輻射場(NeRF)、點云表面重建,甚至大規(guī)模生成式 AI。這些豐富的 3D 數(shù)據(jù)集都是 AI-ready 的,支持高效的模型訓(xùn)練和推理。

生成域隨機(jī)化代碼

域隨機(jī)化是向數(shù)據(jù)集添加多樣性的一項重要技術(shù)。它是 Omniverse Replicator 的核心功能之一。您可以通過編程更改給定場景中的任意數(shù)量的變量,包括照明、對象位置、材質(zhì)和紋理等。創(chuàng)建多樣化的數(shù)據(jù)集有助于感知模型在許多不同的場景中執(zhí)行操作。

但是,為大規(guī)模域隨機(jī)化編寫代碼可能會很繁瑣,并且會拖慢數(shù)據(jù)生成的迭代過程。解決方案是什么?利用 USD Code NIM 的強(qiáng)大功能充當(dāng) copilot。

本節(jié)介紹如何使用 USD Code NIM 生成代碼,以此作為域隨機(jī)化的起點。您可以選擇在 Visual Studio Code 中激活 USD Code,也可以直接在任何基于 Omniverse Kit 的應(yīng)用程序中激活 USD Code,其中 ChatUSD 代理擴(kuò)展程序可以打開 USD Code 窗口,以便輸入提示。

75bf9ac4-a016-11ef-93f3-92fbcf53809c.png

圖 3. Omniverse 中可以激活 ChatUSD 代理擴(kuò)展程序

首先,輸入以下提示:

在開放舞臺中,我想使用一個函數(shù),僅在 x 軸上隨機(jī)移動名為 “/Root/RectLight_03” 的光線,距離在 0 到 -20 米之間。

import omni.replicator.core as rep
from omni.replicator.core.distribution import uniform
import asyncio
import omni.kit


stage = omni.usd.get_context().get_stage()
camera = '/OmniverseKit_Persp'
render_product = rep.create.render_product(camera, (1024, 1024))


def move_light() -> None:
    pass


# Initialize and attach writer
writer = rep.writers.get("BasicWriter")
writer.initialize(output_dir="_output", rgb=True)
writer.attach([render_product])


async def go(num_frames=10):
    for _ in range(num_frames):
         move_light()
         await rep.orchestrator.step_async()


asyncio.ensure_future(go())”

75e51380-a016-11ef-93f3-92fbcf53809c.png

圖 4. USD Code NIM 的初始響應(yīng),用于將倉庫照明設(shè)備填充到倉庫中

用戶可以通過限制光線的 Y 和 Z 位置、檢查光線是否具有正確的變換等方法進(jìn)一步改進(jìn)。需要注意的是,雖然這是一個迭代過程,但使用 USD Code 作為 copilot 會比自己編寫代碼更快地實現(xiàn)無差錯代碼。

最終代碼如下所示:

import omni.replicator.core as rep
from omni.replicator.core.distribution import uniform
from pxr import Usd, UsdGeom, Gf
import asyncio
import omni.kit


stage = omni.usd.get_context().get_stage()
camera = '/OmniverseKit_Persp'
render_product = rep.create.render_product(camera, (1024, 1024))


import random


def move_light() -> None:
    """Randomly move the light named "/Root/RectLight_03" between 0 and -20 meters on only the x-axis."""
    light_prim = stage.GetPrimAtPath("/Root/RectLight_03")
    translate_attr = light_prim.GetAttribute("xformOp:translate")
    if translate_attr:
        current_translation = translate_attr.Get()
        new_x = random.uniform(-20, 0)  # random x value between -20 and 0
        new_translation = Gf.Vec3d(new_x, current_translation[1], current_translation[2])
        translate_attr.Set(new_translation)
    else:
        new_x = random.uniform(-20, 0)  # random x value between -20 and 0
        light_prim.AddAttribute("xformOp:translate", Sdf.ValueTypeNames.Float3).Set(Gf.Vec3d(new_x, 0, 0))


# Initialize and attach writer
writer = rep.writers.get("BasicWriter")
writer.initialize(output_dir="_output", rgb=True, normals=True, distance_to_image_plane=True, semantic_segmentation=True)
writer.attach([render_product])


async def go(num_frames=10):
    for _ in range(num_frames):
         move_light()
         await rep.orchestrator.step_async()


asyncio.ensure_future(go())

在 Replicator 腳本編輯器中執(zhí)行代碼將實現(xiàn)倉庫中的燈光隨機(jī)地打開和關(guān)閉(圖 5)。

76060900-a016-11ef-93f3-92fbcf53809c.gif

圖 5. 作為場景隨機(jī)化的一部分,倉庫燈在 Replicator 代碼的指導(dǎo)下開啟和關(guān)閉

此示例代碼只是使用 USD Code NIM進(jìn)行域隨機(jī)化的眾多示例之一。您可以通過在場景中添加隨機(jī)化并增加數(shù)據(jù)集的多樣性來繼續(xù)迭代。您還可以指定 Python 編寫以支持開發(fā)可在不同場景中輕松重復(fù)使用的輔助函數(shù),從而提高未來運行的效率。

導(dǎo)出帶注釋的圖像

通過在 Replicator 中設(shè)置域隨機(jī)化,就可以導(dǎo)出第一批帶注釋的圖像。Replicator 具有許多開箱即用的注釋器,例如二維邊界框、語義分割、深度、法線等。輸出類型 (例如邊界框或分割) 取決于模型類型或用例。數(shù)據(jù)可以使用 BasicWriter 輸出為基本數(shù)據(jù),使用 KittiWriter 輸出為 KITTI 數(shù)據(jù),或使用自定義寫入器輸出為 COCO 數(shù)據(jù)。

更重要的是,Replicator 生成的數(shù)據(jù)可捕捉各種物理交互,如剛體動力學(xué)(例如運動和碰撞)或光在環(huán)境中的交互。圖 6 顯示了可以從 Replicator 導(dǎo)出的帶注釋數(shù)據(jù)類型示例。

76427f98-a016-11ef-93f3-92fbcf53809c.png

圖 6. Replicator 可以生成各種帶注釋的數(shù)據(jù),包括(從左上角順時針開始) Normals, RGB, Depth, 和 Semantic Segmentation。

使用 ComfyUI 增強(qiáng)合成數(shù)據(jù)集

進(jìn)一步增強(qiáng)合成數(shù)據(jù)集可以創(chuàng)建新的變體,例如更改背景以及添加額外的紋理和材質(zhì)細(xì)節(jié),所有這些操作都使用文本提示。這樣可以生成廣泛的變體,不僅有益,還可以縮小外觀領(lǐng)域差距,獲得高度逼真的結(jié)果。總體而言,在數(shù)據(jù)集上花費的時間、大型高質(zhì)量數(shù)字資產(chǎn)的負(fù)擔(dān),以及在增強(qiáng)階段重新生成新變體的靈活性可節(jié)省大量時間。

ComfyUI 是一個基于 Web 的后端和 GUI,用于使用擴(kuò)散模型構(gòu)建和執(zhí)行管線。這是一個功能強(qiáng)大的開源工具,可在 GitHub 上下載。它可以與 SDXL、其他擴(kuò)散模型或您選擇的微調(diào)模型一起使用。更廣泛的社區(qū)為 ComfyUI 創(chuàng)建了一個包含額外技術(shù)和功能的生態(tài)系統(tǒng),作為 ComfyUI 的節(jié)點,您可以將其集成到您的圖表中。

有關(guān) ComfyUI 圖形的入門參考,請參閱Generative AI for Digital Twins Guide:https://docs.omniverse.nvidia.com/genai-nim-digitaltwin.html

767e3e0c-a016-11ef-93f3-92fbcf53809c.png

圖 7. 使用擴(kuò)散模型增強(qiáng)合成生成圖像的 ComfyUI 工作流程示例

從高層次上講,該圖形可被視為“基于模型的編程”。區(qū)域提示用于引導(dǎo)數(shù)據(jù)集圖像中的擴(kuò)散生成輸出。ControlNet 節(jié)點接收從法線和分割創(chuàng)建的輪廓圖像。ControlNet 與區(qū)域提示相結(jié)合,是控制變化的關(guān)鍵因素,同時也保留了此數(shù)據(jù)集一致性的重要結(jié)構(gòu)。

啟動‘queue prompt’后,在圖 7 的最右側(cè)可以看到增強(qiáng)輸出。這些輸出是傳統(tǒng)渲染的合成數(shù)據(jù)和增強(qiáng)區(qū)域的組合。模型通常能夠從更廣泛的圖像中獲取照明線索和上下文,并對增強(qiáng)區(qū)域進(jìn)行適當(dāng)?shù)恼彰骰蜿幱疤幚怼?/p>

地板類型和物體顏色等細(xì)節(jié)可以在現(xiàn)有圖像中進(jìn)行更改。以下四個提示的結(jié)果圖像如圖 8 所示。

提示 1

白色平鋪油氈地板
綠色閃亮的新平衡重叉車

木托盤淺色松木、軟木
垃圾容器

提示 2

深色開裂的臟混凝土地板
黃色平衡重叉車
木托盤淺色松木、軟木
和黑色垃圾桶

提示 3

開裂的混凝土地板
白色平衡重叉車
木托盤淺色松木、軟木
垃圾容器

提示 4

綠色切口油氈地板
藍(lán)色生銹平衡重叉車
木托盤淺色松木、軟木
垃圾容器

訓(xùn)練模型

雖然本文并未明確介紹,但下一步邏輯上應(yīng)該是訓(xùn)練計算機(jī)視覺模型。您可以啟動 NVIDIA 預(yù)訓(xùn)練計算機(jī)視覺模型或選擇您自己的模型。然后,可以使用 NVIDIA TAO 等訓(xùn)練框架對預(yù)訓(xùn)練模型進(jìn)行微調(diào)。TAO 基于 TensorFlow 和 PyTorch 構(gòu)建,并使用遷移學(xué)習(xí)來加速模型訓(xùn)練過程。與使用真實數(shù)據(jù)一樣,您可能必須經(jīng)過多次迭代才能對模型 KPI 感到滿意。

如果您已經(jīng)設(shè)置了管線,就可以返回 3D 仿真環(huán)境,通過更改附加參數(shù)和使用 ComfyUI 工作流增強(qiáng)參數(shù)來生成新數(shù)據(jù)。自動化管線減少了生成和標(biāo)注新數(shù)據(jù)所需的時間,而這通常是訓(xùn)練模型時的瓶頸。

總結(jié)

正如本文所述,您可以使用 NVIDIA NIM 微服務(wù)和 NVIDIA Omniverse Replicator 快速輕松地構(gòu)建自定義合成數(shù)據(jù)生成管線。然后,您可以使用 ComfyUI 進(jìn)一步增強(qiáng)生成的圖像。這些生成的圖像隨后可以與預(yù)訓(xùn)練模型和工具,如 NVIDIA TAO、PyTorch 或 TensorFlow 等一起使用。

我們很期待看到您如何使用這一工作流程來開發(fā)自己的 SDG 管道。要開始使用,請查看詳細(xì)的端到端工作流。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29547

    瀏覽量

    211822
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5267

    瀏覽量

    105878
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    528

    瀏覽量

    716

原文標(biāo)題:如何使用 OpenUSD 構(gòu)建支持生成式 AI 的合成數(shù)據(jù)工作流

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    基于工作流的動態(tài)Web服務(wù)合成模型的研究

    本文提出基于工作流的動態(tài)Web 服務(wù)合成模型DSC-WF,給出了DSC-WF 的分層模型和應(yīng)用流程。
    發(fā)表于 12-22 13:25 ?14次下載

    動態(tài)工作流技術(shù)的應(yīng)用研究

    在基于工作流的應(yīng)用系統(tǒng)中,業(yè)務(wù)過程的不可預(yù)見性往往會要求工作流能夠適應(yīng)不斷改變的業(yè)務(wù)環(huán)境,而傳統(tǒng)的工作流技術(shù)通常對業(yè)務(wù)動態(tài)可變的支持度不夠。本文在傳統(tǒng)
    發(fā)表于 01-15 14:08 ?7次下載

    利用合成數(shù)據(jù)和NVIDIA ISAAC Sim加速機(jī)器人訓(xùn)練

      在模擬器中, ISAAC Sim 強(qiáng)大的合成數(shù)據(jù)功能使生成所需數(shù)據(jù)集變得簡單。您可以提供合成數(shù)據(jù),以實現(xiàn)更高效的培訓(xùn)工作流和更安全的自主
    的頭像 發(fā)表于 04-19 09:45 ?2219次閱讀
    利用<b class='flag-5'>合成數(shù)據(jù)</b>和NVIDIA ISAAC Sim加速機(jī)器人訓(xùn)練

    NVIDIA提供用于AI訓(xùn)練的合成數(shù)據(jù)生成工具

    提供合成數(shù)據(jù)生成工具和服務(wù)的企業(yè)以及開發(fā)者現(xiàn)在可以使用 Omniverse Replicator SDK 構(gòu)建自定義、物理級精確的合成數(shù)據(jù)生成
    的頭像 發(fā)表于 07-03 10:06 ?2021次閱讀

    使用Omniverse Replicator SDK構(gòu)建自定義、物理級精確的合成數(shù)據(jù)生成管線

    Omniverse Replicator 為開發(fā)者提供了一個可以根據(jù)他們的神經(jīng)網(wǎng)絡(luò)要求構(gòu)建特定合成數(shù)據(jù)生成應(yīng)用的特殊平臺。它建立在通用場景描述(USD)、PhysX 和材質(zhì)定義語言(MDL)等開放標(biāo)準(zhǔn)之上并帶有易于使用的 pyt
    的頭像 發(fā)表于 07-11 11:49 ?1367次閱讀

    用于對象檢測的合成數(shù)據(jù)生成

    電子發(fā)燒友網(wǎng)站提供《用于對象檢測的合成數(shù)據(jù)生成.zip》資料免費下載
    發(fā)表于 06-25 11:00 ?0次下載
    用于對象檢測的<b class='flag-5'>合成數(shù)據(jù)</b><b class='flag-5'>生成</b>

    Rendered.ai 將 NVIDIA Omniverse 集成到其合成數(shù)據(jù)生成平臺

    NVIDIA 初創(chuàng)加速計劃成員 Rendered.ai 將 Omniverse Replicator 集成到其合成數(shù)據(jù)生成平臺,使 AI 訓(xùn)練變得更加簡單易用。 Rendered.
    的頭像 發(fā)表于 07-12 19:10 ?809次閱讀
    Rendered.<b class='flag-5'>ai</b> 將 NVIDIA Omniverse 集成到其<b class='flag-5'>合成數(shù)據(jù)</b><b class='flag-5'>生成</b>平臺

    SIGGRAPH 2023 | NVIDIA 發(fā)布支持生成 AIOpenUSD 的重大 Omniverse 升級

    使用 OpenUSD 框架和生成 AI 來優(yōu)化并強(qiáng)化其 3D 工作流程。 Omniverse 是一個
    的頭像 發(fā)表于 08-09 19:10 ?605次閱讀

    SIGGRAPH 2023 | 生成 AI 開啟汽車行業(yè)新時代,為設(shè)計、工程、生產(chǎn)和銷售帶來改進(jìn)

    AI 技術(shù)的進(jìn)步將改變汽車生命周期,大大提高生產(chǎn)力,并激發(fā)創(chuàng)新。 生成內(nèi)容和代碼、創(chuàng)建圖像和視頻、使用合成數(shù)據(jù)測試算法等生成
    的頭像 發(fā)表于 08-14 17:20 ?927次閱讀
    SIGGRAPH 2023 | <b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 開啟汽車行業(yè)新時代,為設(shè)計、工程、生產(chǎn)和銷售帶來改進(jìn)

    洞悉 Omniverse:Marmoset 帶來渲染方面的突破,通過擴(kuò)展對 OpenUSD支持改進(jìn) 3D 藝術(shù)創(chuàng)作

    的情況下構(gòu)建復(fù)雜的 3D 模型,改進(jìn)他們的創(chuàng)意工作流。 最新發(fā)布的 Marmoset Toolbag 4.06 版本增加了對? OpenUSD(通用場景描述) 的支持,實
    的頭像 發(fā)表于 10-27 19:55 ?813次閱讀
    洞悉 Omniverse:Marmoset 帶來渲染方面的突破,通過擴(kuò)展對 <b class='flag-5'>OpenUSD</b> 的<b class='flag-5'>支持</b>改進(jìn) 3D 藝術(shù)創(chuàng)作<b class='flag-5'>流</b>

    洞悉 Omniverse:Autodesk Maya 的 OpenUSD 增強(qiáng)功能讓 3D 工作流變得簡單高效

    藝術(shù)家提高了生成 AI 內(nèi)容創(chuàng)作工作流的生產(chǎn)力和效率。 在 3D 藝術(shù)和設(shè)計領(lǐng)域,高效率的工作流對于快速實現(xiàn)創(chuàng)意構(gòu)想至關(guān)重要。 通用場景
    的頭像 發(fā)表于 11-30 19:35 ?915次閱讀
    洞悉 Omniverse:Autodesk Maya 的 <b class='flag-5'>OpenUSD</b> 增強(qiáng)功能讓 3D <b class='flag-5'>工作流</b>變得簡單高效

    NVIDIA發(fā)布適用于OpenUSD語言、幾何體、物理學(xué)和材質(zhì)的生成AI模型與NIM微服務(wù)

    )的重大成果。這將擴(kuò)大這一通用3D數(shù)據(jù)交換框架在機(jī)器人、工業(yè)設(shè)計和工程領(lǐng)域的應(yīng)用,提高開發(fā)者為AI新一輪發(fā)展構(gòu)建高精度虛擬世界的能力。 ? 通過基于OpenUSD的全新
    發(fā)表于 07-30 09:20 ?270次閱讀
    NVIDIA發(fā)布適用于<b class='flag-5'>OpenUSD</b>語言、幾何體、物理學(xué)和材質(zhì)的<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>模型與NIM微服務(wù)

    NVIDIA發(fā)布全新AI和仿真工具以及工作流

    NVIDIA 在本周于德國慕尼黑舉行的機(jī)器人學(xué)習(xí)大會(CoRL)上發(fā)布了全新 AI 和仿真工具以及工作流。機(jī)器人開發(fā)者可以使用這些工具和工作流,大大加快 AI 機(jī)器人(包括人形機(jī)器人)
    的頭像 發(fā)表于 11-09 11:52 ?797次閱讀

    寶馬集團(tuán)將OpenUSD用于合成數(shù)據(jù)生成

    通?場景描述,又稱為OpenUSD,是?個開放且可擴(kuò)展的?態(tài)系統(tǒng),?于在 3D 世界中描述、合成、模擬和協(xié)作。
    的頭像 發(fā)表于 11-20 10:22 ?591次閱讀

    AI工作流自動化是做什么的

    AI工作流自動化是指利用人工智能技術(shù),對工作流程中的重復(fù)性、規(guī)則明確的任務(wù)進(jìn)行自動化處理的過程。那么,AI工作流自動化是做什么的呢?接下來,
    的頭像 發(fā)表于 01-06 17:57 ?640次閱讀
    主站蜘蛛池模板: 莒南县| 白城市| 武定县| 封丘县| 杭锦后旗| 西吉县| 岑巩县| 安新县| 五指山市| 乐亭县| 连城县| 宜州市| 柯坪县| 梨树县| 宝丰县| 琼海市| 绿春县| 台北市| 海林市| 诏安县| 义马市| 老河口市| 米脂县| 香港| 鄂温| 镶黄旗| 普陀区| 伊春市| 无极县| 金平| 陵川县| 航空| 交口县| 林芝县| 云龙县| 峡江县| 公主岭市| 康保县| 通江县| 蒙山县| 明溪县|