女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2025-07-04 14:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

TensorRT-LLM作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。TensorRT-LLM 提供了一個(gè)全面的開源 SDK,用于加速和優(yōu)化 LLM 推理,包含了最新極致優(yōu)化的計(jì)算 Kernel、高性能 Attention 實(shí)現(xiàn)、多機(jī)多卡通信分布式支持、豐富的并行和量化策略等,從而在 NVIDIA GPU 上實(shí)現(xiàn)突破性的 LLM 推理性能。此外,TensorRT-LLM 采用了 PyTorch 的全新架構(gòu),提供了直觀簡潔的模型定義 API,便于定義和構(gòu)建新模型,顯著減少了代碼量,同時(shí)大幅降低了 debugging 難度,進(jìn)一步優(yōu)化了模型部署流程,提升了開發(fā)者的使用體驗(yàn)。

本文將介紹如何在魔搭社區(qū)使用 TensorRT-LLM 加速優(yōu)化 Qwen3 系列模型推理部署。

Qwen3 模型

通義千問 Qwen3 是阿里巴巴開發(fā)并開源的混合推理大語言模型 (LLM),Qwen3 開源模型系列包含兩款混合專家模型 (MoE) 235B-A22B(總參數(shù) 2,350 億,激活參數(shù) 220 億)和 30B-A3B,以及六款稠密 (Dense) 模型 0.6B、1.7B、4B、8B、14B、32B。作為中國首個(gè)混合推理模型,Qwen3 在 AIME、LiveCodeBench、ArenaHard、BFCL 等權(quán)威評測集上均獲得出色的表現(xiàn)(信息來源于阿里巴巴官方微信公眾號(hào)),在推理、指令遵循、Agent 能力、多語言支持等方面均大幅增強(qiáng),是全球領(lǐng)先的開源模型。

Qwen 系列開源模型因其突出的模型能力、豐富的模型尺寸和持續(xù)更新的生態(tài),在開源社區(qū)直接使用、二次開發(fā)和落地應(yīng)用上都有著極其深刻的影響力。

近期 Qwen3 還進(jìn)一步補(bǔ)齊了開源序列中的 Embedding 和 Rerank 模型,強(qiáng)大的模型矩陣全面覆蓋從復(fù)雜推理、Agent 任務(wù)到輕量級(jí)部署的需求,進(jìn)一步鞏固和加強(qiáng)了整個(gè) Qwen 開源生態(tài)。

ModelScope 魔搭社區(qū)

ModelScope 魔搭作為中國最大最活躍的開源模型社區(qū),旨在打造下一代開源的模型即服務(wù)共享平臺(tái),為泛 AI 開發(fā)者提供靈活、易用、低成本的一站式模型服務(wù)產(chǎn)品,讓模型應(yīng)用更簡單。

超過 1,600 萬開發(fā)者可以在 ModelScope 輕松下載和部署模型,快速體驗(yàn)?zāi)P托Ч⑼ㄟ^云端 AI 環(huán)境實(shí)現(xiàn)在線推理與訓(xùn)練,無需復(fù)雜的本地配置。同時(shí),ModelScope 支持多種靈活的部署方式,包括云端、本地及設(shè)備端部署,助力開發(fā)者以更低的成本和更高的效率推動(dòng) AI 技術(shù)的應(yīng)用落地。

除了模型和數(shù)據(jù)集的托管和靈活調(diào)用部署,ModelScope 還提供特色功能社區(qū)。比如在ModelScope MCP 廣場中上線將近 4,000 多個(gè) MCP server,能夠幫助廣大開發(fā)者更好的通過標(biāo)準(zhǔn)化工具接口,實(shí)現(xiàn)模型智能邊界的外拓,讓魔搭的開源模型生態(tài)能更好的與 MCP 生態(tài)產(chǎn)生更多的碰撞與化學(xué)效應(yīng)(介紹來源于魔搭社區(qū))。

利用 TensorRT-LLM 加速優(yōu)化Qwen3 模型推理部署

在 Qwen3 開源發(fā)布的同時(shí),TensorRT-LLM 便已實(shí)現(xiàn)支持相關(guān)系列模型的推理加速優(yōu)化部署。針對 Qwen3 推理加速優(yōu)化,TensorRT-LLM 支持的重要特性包括:

模型并行:支持 TP (Tensor Parallelism),EP (Expert Parallelism) 和 Attention DP (Data Parallelism) 等多機(jī)多卡并行方式,滿足大尺寸模型的并行切分以及高服務(wù)級(jí)別目標(biāo)的需求。

量化:除了原生 BF16 數(shù)據(jù)類型之外,現(xiàn)已支持 per-tensor FP8 量化與 blockwise FP8 量化的支持。通過低精度量化顯著降低顯存和算力需求,在保證模型整體精度的同時(shí)進(jìn)一步提升推理部署的延遲和整體吞吐。其中,BF16 模型和 FP8 blockwise 量化模型的 checkpoint 可直接通過 ModelScope 相關(guān)頁面進(jìn)行訪問和下載(例如:Qwen3-235B-A22B-FP8),F(xiàn)P8 per-tensor 量化模型 checkpoint 可通過NVIDIA TensorRT-Model-Optimizer工具進(jìn)行量化處理得到。

Prefill-Decode 分離式部署:通過將 LLM 的 prefill 和 decode 階段解耦在不同的 executors 執(zhí)行,可以自由調(diào)整 PD 比例、并行方式乃至異構(gòu) GPU 型號(hào),以進(jìn)一步提升推理系統(tǒng)整體的靈活性和性價(jià)比,并綜合調(diào)整 TTFT 及 TPOT 等 SLO 級(jí)別。

下面將快速介紹如何通過 TensorRT-LLM 快速部署并拉起由 ModelScope 托管的 Qwen3 模型推理服務(wù)(以 Qwen3-235B-A22B 在單機(jī) 8 卡 GPU 上推理為例)。

1. 安裝 TensorRT-LLM

當(dāng)前可通過多種方式來進(jìn)行 TensorRT-LLM 的安裝。

pip 安裝

(Optional) pip3 install torch==2.7.0torchvision torchaudio--index-url https://download.pytorch.org/whl/cu128
sudo apt-get-y install libopenmpi-dev&&pip3 install--upgrade pip setuptools && pip3 install tensorrt_llm

使用預(yù)編譯好的 NGC 容器鏡像

源碼編譯容器鏡像:下載 TensorRT-LLM github 源代碼后,在代碼主目錄運(yùn)行編譯命令

make-C docker release_build

2. 從 ModelScope 下載模型 checkpoint

# Using modelscope cmd tool to download
pipinstall modelscope
modelscopedownload --model Qwen/Qwen3-235B-A22B
# or using git clone
gitlfs install
gitclone https://www.modelscope.cn/Qwen/Qwen3-235B-A22B.git

3. 使用 trtllm-serve 命令進(jìn)行推理服務(wù)部署

# Setup LLM API configuration file
cat>./extra-llm-api-config.yml<

4. 請求服務(wù)測試:部署完成后便可通過標(biāo)準(zhǔn) OpenAI API 進(jìn)行推理服務(wù)請求發(fā)送,例如如下 curl 命令

curl http://localhost:8000/v1/completions 
 -H "Content-Type: application/json" 
 -d '{
  "model":"Qwen3-235B-A22B/",
  "prompt":"Please describe what is Qwen.",
  "max_tokens":128,
  "temperature":0
 }'

在上述已實(shí)現(xiàn)的各項(xiàng)優(yōu)化特性之外,針對 Qwen3 系列模型,TensorRT-LLM 還在不斷研發(fā)和探索新的優(yōu)化方法,包括 kernel 層面的持續(xù)優(yōu)化、算子融合、基于 sparse attention 的超長文本支持、基于 Eagle-3 的投機(jī)性采樣、MoE 模型的 expert 負(fù)載均衡、新的量化精度 (W4AFP8 / NVFP4) 等等,期待您緊密關(guān)注 TensorRT-LLM 最新進(jìn)展。

總結(jié)

除了 Qwen3 系列模型,TensorRT-LLM 現(xiàn)已支持 ModelScope 社區(qū)主流的生成式 AI 大模型,模型列表請參考 TensorRT-LLM Support Matrix 和 ModelScope 社區(qū) TensorRT-LLM 專題頁。

通過雙方在生成式 AI 模型軟件加速庫層面的技術(shù)合作,使用性能強(qiáng)大、敏捷靈活的軟件棧,能夠大大簡化開發(fā)者快速進(jìn)行大模型的原型驗(yàn)證與產(chǎn)品研發(fā)部署的工作流,并獲得極致推理部署性能,進(jìn)一步加快大模型的廣泛落地和應(yīng)用生態(tài)。

作者

金國強(qiáng)

NVIDIA 資深解決方案架構(gòu)師,主要負(fù)責(zé)深度學(xué)習(xí)生成式 AI 領(lǐng)域模型訓(xùn)練、推理優(yōu)化以及大模型開發(fā)與應(yīng)用云端落地等技術(shù)方向合作。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5292

    瀏覽量

    106152
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3657

    瀏覽量

    43731
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3511

    瀏覽量

    50282

原文標(biāo)題:在魔搭社區(qū)使用 NVIDIA TensorRT-LLM PyTorch 新架構(gòu)優(yōu)化 Qwen3 系列模型推理

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    在openEuler上基于vLLM Ascend部署Qwen3

    近日,阿里巴巴正式發(fā)布新一代Qwen大語言模型系列Qwen3Qwen3-MoE),在模型規(guī)模
    的頭像 發(fā)表于 05-07 14:44 ?565次閱讀
    在openEuler上基于vLLM Ascend<b class='flag-5'>部署</b><b class='flag-5'>Qwen3</b>

    NVIDIA使用Qwen3系列模型的最佳實(shí)踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源
    的頭像 發(fā)表于 05-08 11:45 ?1096次閱讀
    NVIDIA使用<b class='flag-5'>Qwen3</b><b class='flag-5'>系列</b><b class='flag-5'>模型</b>的最佳實(shí)踐

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?501次閱讀
    使用NVIDIA Triton和<b class='flag-5'>TensorRT-LLM</b><b class='flag-5'>部署</b>TTS應(yīng)用的最佳實(shí)踐

    現(xiàn)已公開發(fā)布!歡迎使用 NVIDIA TensorRT-LLM 優(yōu)化大語言模型推理

    NVIDIA 于 2023 年 10 月 19 日公開發(fā)布 TensorRT-LLM ,可在 NVIDIA GPU 上加速優(yōu)化最新的大語言模型(Large Language Mode
    的頭像 發(fā)表于 10-27 20:05 ?1489次閱讀
    現(xiàn)已公開發(fā)布!歡迎使用 NVIDIA <b class='flag-5'>TensorRT-LLM</b> <b class='flag-5'>優(yōu)化</b>大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    何在 NVIDIA TensorRT-LLM 中支持 Qwen 模型

    背景介紹 大語言模型正以其驚人的新能力推動(dòng)人工智能的發(fā)展,擴(kuò)大其應(yīng)用范圍。然而,由于這類模型具有龐大的參數(shù)規(guī)模,部署推理的難度和成本極高,這一挑戰(zhàn)一直困擾著 AI 領(lǐng)域。此外,當(dāng)前存
    的頭像 發(fā)表于 12-04 20:25 ?1423次閱讀
    如<b class='flag-5'>何在</b> NVIDIA <b class='flag-5'>TensorRT-LLM</b> 中支持 <b class='flag-5'>Qwen</b> <b class='flag-5'>模型</b>

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型TensorRT-LLM
    的頭像 發(fā)表于 04-28 10:36 ?979次閱讀

    社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗(yàn)。
    的頭像 發(fā)表于 08-23 15:48 ?1089次閱讀

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT Model
    的頭像 發(fā)表于 11-19 14:29 ?1194次閱讀
    <b class='flag-5'>TensorRT-LLM</b>低精度<b class='flag-5'>推理</b><b class='flag-5'>優(yōu)化</b>

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個(gè)專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計(jì)的庫。它提供了多種先進(jìn)的
    的頭像 發(fā)表于 12-17 17:47 ?795次閱讀

    在NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-L
    的頭像 發(fā)表于 12-25 17:31 ?702次閱讀
    在NVIDIA <b class='flag-5'>TensorRT-LLM</b>中啟用ReDrafter的一些變化

    壁仞科技完成阿里巴巴通義千問Qwen3系列模型支持

    4月29日,阿里巴巴通義千問發(fā)布并開源8款新版Qwen3系列“混合推理模型”(簡稱“Qwen3”)。Qwen3發(fā)布后數(shù)小時(shí)內(nèi),壁仞科技完成全
    的頭像 發(fā)表于 04-30 15:19 ?691次閱讀

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式發(fā)布并全部開源8款混合推理模型。作為Qwen系列中的最新一代大型語言模型Qwen3
    的頭像 發(fā)表于 05-06 15:17 ?511次閱讀

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時(shí)不到1天,后摩智能自研NPU迅速實(shí)現(xiàn)Qwen3 系列
    的頭像 發(fā)表于 05-07 16:46 ?496次閱讀

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型
    的頭像 發(fā)表于 05-16 16:23 ?373次閱讀

    廣和通加速通義千問Qwen3在端側(cè)全面落地

    6月,廣和通宣布:率先完成通義千問Qwen3系列混合推理模型在高通QCS8550平臺(tái)端側(cè)的適配部署。廣和通通過定制化混合精度量化方案與創(chuàng)新硬件加速
    的頭像 發(fā)表于 06-25 15:35 ?245次閱讀
    主站蜘蛛池模板: 商水县| 新建县| 广州市| 改则县| 邢台县| 上林县| 信阳市| 浏阳市| 墨脱县| 峡江县| 阳山县| 隆回县| 资中县| 乐昌市| 乌兰浩特市| 汕头市| 杭州市| 阜城县| 太白县| 太康县| 涞水县| 文山县| 邵武市| 阿拉善左旗| 盱眙县| 连南| 隆回县| 台北县| 宁乡县| 祁连县| 南乐县| 昌都县| 密山市| 平南县| 安西县| 松江区| 盖州市| 手游| 南郑县| 玉环县| 辽宁省|