女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Optimum Intel三步完成Llama3在算力魔方的本地量化和部署

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 2024-05-10 10:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

01

Llama3簡(jiǎn)介

Llama3 是Meta最新發(fā)布的開(kāi)源大語(yǔ)言模型(LLM), 當(dāng)前已開(kāi)源8B和70B參數(shù)量的預(yù)訓(xùn)練模型權(quán)重,并支持指令微調(diào)。詳情參見(jiàn):

https://ai.meta.com/blog/meta-llama-3/

Llama3性能優(yōu)異,8B和70B參數(shù)模型的性能在chatbot-arena-leaderboard中皆進(jìn)入前十;LLama-3-70b-Instruct僅次于閉源的GPT-4系列模型。

排行榜鏈接:

https://chat.lmsys.org/?leaderboard

b3bd5d62-0dfd-11ef-a297-92fbcf53809c.png

魔搭社區(qū)已提供Llama3 8B和70B模型的預(yù)訓(xùn)練權(quán)重下載,實(shí)測(cè)下載速度平均34MB/s。

b3d29b8c-0dfd-11ef-a297-92fbcf53809c.png

請(qǐng)讀者用下面的命令把Meta-Llama-3-8B模型的預(yù)訓(xùn)練權(quán)重下載到本地待用。

git clone https://www.modelscope.cn/LLM-Research/Meta-Llama-3-8B.git
git clone https://www.modelscope.cn/LLM-Research/Meta-Llama-3-70B.git

算力魔方是一款可以DIY的迷你主機(jī),采用了抽屜式設(shè)計(jì),后續(xù)組裝、升級(jí)、維護(hù)只需要拔插模塊。通過(guò)選擇不同算力的計(jì)算模塊,再搭配不同的 IO 模塊可以組成豐富的配置,適應(yīng)不同場(chǎng)景。

性能不夠時(shí),可以升級(jí)計(jì)算模塊提升算力;IO 接口不匹配時(shí),可以更換 IO 模塊調(diào)整功能,而無(wú)需重構(gòu)整個(gè)系統(tǒng)。

本文以下所有步驟將在帶有英特爾i7-1265U處理器的算力魔方上完成驗(yàn)證。

02

三步完成Llama3的INT4量化和本地部署

把Meta-Llama-3-8B模型的預(yù)訓(xùn)練權(quán)重下載到本地后,接下來(lái)本文將依次介紹基于Optimum Intel工具將Llama進(jìn)行INT4量化,并完成本地部署。

Optimum Intel作為T(mén)ransformers和Diffusers庫(kù)與Intel提供的各種優(yōu)化工具之間的接口層,它給開(kāi)發(fā)者提供了一種簡(jiǎn)便的使用方式,讓這兩個(gè)庫(kù)能夠利用Intel針對(duì)硬件優(yōu)化的技術(shù),例如:OpenVINO、IPEX等,加速基于Transformer或Diffusion構(gòu)架的AI大模型在英特爾硬件上的推理計(jì)算性能。

Optimum Intel代碼倉(cāng)連接:

https://github.com/huggingface/optimum-intel。

01

第一步,搭建開(kāi)發(fā)環(huán)境

請(qǐng)下載并安裝Anaconda,然后用下面的命令創(chuàng)建并激活名為optimum_intel的虛擬環(huán)境:

conda create -n optimum_intel python=3.11 #創(chuàng)建虛擬環(huán)境
conda activate optimum_intel        #激活虛擬環(huán)境
python -m pip install --upgrade pip     #升級(jí)pip到最新版本

由于Optimum Intel代碼迭代速度很快,請(qǐng)用從源代碼安裝的方式,安裝Optimum Intel和其依賴(lài)項(xiàng)openvino與nncf。

python -m pip install "optimum-intel[openvino,nncf]"@git+https://github.com/huggingface/optimum-intel.git

02

第二步,用optimum-cli對(duì)Llama3模型進(jìn)行INT4量化

optimum-cli是Optimum Intel自帶的跨平臺(tái)命令行工具,可以不用編寫(xiě)量化代碼,實(shí)現(xiàn)對(duì)Llama3模型的量化。

執(zhí)行命令將Llama3-8B模型量化為INT4 OpenVINO格式模型:

optimum-cli export openvino --model D:llama3Meta-Llama-3-8B --task text-generation-with-past --weight-format int4 --group-size 128 --ratio 0.8 --sym llama3_int4_ov_model

b40612c8-0dfd-11ef-a297-92fbcf53809c.png

03

第三步:編寫(xiě)推理程序llama3_int4_ov_infer.py

基于Optimum Intel工具包的API函數(shù)編寫(xiě)Llama3的推理程序,非常簡(jiǎn)單,只需要調(diào)用六個(gè)API函數(shù):

1.

初始化OpenVINO Core對(duì)象:ov.Core()

2.

編譯并載入Llama3模型到指定DEVICE:OVModelForCausalLM.from_pretrained()

3.

實(shí)例化Llama3模型的Tokenizer:tok=AutoTokenizer.from_pretrained()

4.

將自然語(yǔ)言轉(zhuǎn)換為T(mén)oken序列:tok(question, return_tensors="pt", **{})

5.

生成答案的Token序列:ov_model.generate()

6.

將答案Token序列解碼為自然語(yǔ)言:tok.batch_decode()

完整范例程序如下所示,下載鏈接:

import openvino as ov
from transformers import AutoConfig, AutoTokenizer
from optimum.intel.openvino import OVModelForCausalLM


# 初始化OpenVINO Core對(duì)象
core = ov.Core()
ov_config = {"PERFORMANCE_HINT": "LATENCY", "NUM_STREAMS": "1", "CACHE_DIR": ""}
model_dir = "d:\llama3_int4_ov_model" #llama3 int4模型路徑
DEVICE = "CPU" #可更換為"GPU", "AUTO"...
# 編譯并載入Llama3模型到DEVICE
ov_model = OVModelForCausalLM.from_pretrained(
  model_dir,
  device=DEVICE,
  ov_config=ov_config,
  config=AutoConfig.from_pretrained(model_dir, trust_remote_code=True),
  trust_remote_code=True,
)
# 載入Llama3模型的Tokenizer
tok = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
# 設(shè)置問(wèn)題
question = "What's the OpenVINO?" 
# 將自然語(yǔ)言轉(zhuǎn)換為T(mén)oken序列
input_tokens = tok(question, return_tensors="pt", **{})
# 生成答案的Token序列
answer = ov_model.generate(**input_tokens, max_new_tokens=128)
# 將答案Token序列解碼為自然語(yǔ)言并顯示
print(tok.batch_decode(answer, skip_special_tokens=True)[0])

運(yùn)行l(wèi)lama3_int4_ov_infer.py:

python llama3_int4_ov_infer.py

運(yùn)行結(jié)果,如下所示:

b41a8794-0dfd-11ef-a297-92fbcf53809c.png

03

構(gòu)建圖形化的Llama3 demo

請(qǐng)先安裝依賴(lài)軟件包:

pip install gradio mdtex2html streamlit -i https://mirrors.aliyun.com/pypi/simple/

下載范例程序:

然后運(yùn)行:

python llama3_webui.py

運(yùn)行結(jié)果如下:

b5465e9a-0dfd-11ef-a297-92fbcf53809c.png

b574c000-0dfd-11ef-a297-92fbcf53809c.jpg

04

總結(jié)

Optimum Intel工具包簡(jiǎn)單易用,僅需三步即可完成開(kāi)發(fā)環(huán)境搭建、LLama模型INT4量化和推理程序開(kāi)發(fā)。基于Optimum Intel工具包開(kāi)發(fā)Llama3推理程序僅需調(diào)用六個(gè)API函數(shù),方便快捷的實(shí)現(xiàn)將Llama3本地化部署在基于英特爾處理器的算力魔方上。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19858

    瀏覽量

    234310
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4825

    瀏覽量

    86490
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    323

    瀏覽量

    779
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    114

    瀏覽量

    451
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    370

    瀏覽量

    555

原文標(biāo)題:Optimum Intel三步完成Llama3在算力魔方的本地量化和部署 | 開(kāi)發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    能RADXA微服務(wù)器試用體驗(yàn)】+ GPT語(yǔ)音與視覺(jué)交互:1,LLM部署

    。環(huán)境變量的配置,未來(lái)具體項(xiàng)目中我們會(huì)再次提到。 下面我們正式開(kāi)始項(xiàng)目。項(xiàng)目從輸入到輸出分別涉及了語(yǔ)音識(shí)別,圖像識(shí)別,LLM,TTS這幾個(gè)與AI相關(guān)的模塊。先從最核心的LLM開(kāi)始。 由于LLAMA3
    發(fā)表于 06-25 15:02

    使用 NPU 插件對(duì)量化Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    菱FX3U接入MQTT平臺(tái)的三步

    菱FX3U接入MQTT平臺(tái)的三步第一:PLC網(wǎng)關(guān)通過(guò)串口采集菱FX3U的數(shù)據(jù) 第二
    發(fā)表于 11-11 16:01 ?1314次閱讀
    <b class='flag-5'>三</b>菱FX<b class='flag-5'>3</b>U接入MQTT平臺(tái)的<b class='flag-5'>三步</b>

    Llama 3 王者歸來(lái),Airbox 率先支持部署

    前天,智領(lǐng)域迎來(lái)一則令人振奮的消息:Meta正式發(fā)布了備受期待的開(kāi)源大模型——Llama3Llama3的卓越性能Meta表示,Llama3
    的頭像 發(fā)表于 04-22 08:33 ?955次閱讀
    <b class='flag-5'>Llama</b> <b class='flag-5'>3</b> 王者歸來(lái),Airbox 率先支持<b class='flag-5'>部署</b>

    使用OpenVINO?在你的本地設(shè)備上離線(xiàn)運(yùn)行Llama3之快手指南

    人工智能領(lǐng)域,大型語(yǔ)言模型(LLMs)的發(fā)展速度令人震驚。2024年4月18日,Meta正式開(kāi)源了LLama系列的新一代大模型Llama3,在這一領(lǐng)域中樹(shù)立了新的里程碑。
    的頭像 發(fā)表于 04-26 09:42 ?1138次閱讀
    使用OpenVINO?在你的<b class='flag-5'>本地</b>設(shè)備上離線(xiàn)運(yùn)行<b class='flag-5'>Llama3</b>之快手指南

    【AIBOX上手指南】快速部署Llama3

    Firefly開(kāi)源團(tuán)隊(duì)推出了Llama3部署包,提供簡(jiǎn)易且完善的部署教程,過(guò)程無(wú)需聯(lián)網(wǎng),簡(jiǎn)單快捷完成本地部署。點(diǎn)擊觀看
    的頭像 發(fā)表于 06-06 08:02 ?1207次閱讀
    【AIBOX上手指南】快速<b class='flag-5'>部署</b><b class='flag-5'>Llama3</b>

    源2.0-M32大模型發(fā)布量化版 運(yùn)行顯存僅需23GB 性能可媲美LLaMA3

    北京2024年8月23日?/美通社/ -- 近日,浪潮信息發(fā)布源2.0-M32大模型4bit和8bit量化版,性能比肩700億參數(shù)的LLaMA3開(kāi)源大模型。4bit量化版推理運(yùn)行顯存僅需
    的頭像 發(fā)表于 08-25 22:06 ?639次閱讀
    源2.0-M32大模型發(fā)布<b class='flag-5'>量化</b>版 運(yùn)行顯存僅需23GB 性能可媲美<b class='flag-5'>LLaMA3</b>

    使用OpenVINO 2024.4魔方部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3魔方
    的頭像 發(fā)表于 10-12 09:39 ?1417次閱讀
    使用OpenVINO 2024.4<b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>上<b class='flag-5'>部署</b><b class='flag-5'>Llama</b>-3.2-1B-Instruct模型

    從零開(kāi)始訓(xùn)練一個(gè)大語(yǔ)言模型需要投資多少錢(qián)?

    關(guān)于訓(xùn)練技巧和模型評(píng)估的文章,但很少有直接告訴你如何估算訓(xùn)練時(shí)間和成本的。前面分享了一些關(guān)于大模型/本地知識(shí)庫(kù)的安裝部署方法,無(wú)需編寫(xiě)代碼,即可使用 Ollama+AnythingLLM搭建企業(yè)私有知識(shí)庫(kù) ,或者, 三步
    的頭像 發(fā)表于 11-08 14:15 ?755次閱讀
    從零開(kāi)始訓(xùn)練一個(gè)大語(yǔ)言模型需要投資多少錢(qián)?

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個(gè)開(kāi)源的大語(yǔ)言模型服務(wù)工具,它的核心目的是簡(jiǎn)化大語(yǔ)言模型(LLMs)的本地部署和運(yùn)行過(guò)程,請(qǐng)參考《Gemma 2+Ollama
    的頭像 發(fā)表于 11-23 17:22 ?3685次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> 3.2 Vision模型<b class='flag-5'>本地</b><b class='flag-5'>部署</b>

    魔方本地部署Phi-4模型

    ?作者:魔方創(chuàng)始人/英特爾邊緣計(jì)算創(chuàng)新大使 劉 前面我們分享了《Meta重磅發(fā)布Llama 3.3 70B:開(kāi)源AI模型的新里程碑》,
    的頭像 發(fā)表于 01-15 11:05 ?479次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>上<b class='flag-5'>本地</b><b class='flag-5'>部署</b>Phi-4模型

    如何在邊緣端獲得GPT4-V的能力:魔方+MiniCPM-V 2.6

    作者:魔方創(chuàng)始人/英特爾邊緣計(jì)算創(chuàng)新大使 劉 前面我們分享了《
    的頭像 發(fā)表于 01-20 13:40 ?591次閱讀
    如何在邊緣端獲得GPT4-V的能力:<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>+MiniCPM-V 2.6

    魔方IO擴(kuò)展模塊介紹 網(wǎng)絡(luò)篇1

    不同的總線(xiàn)接口功能。不同場(chǎng)景中,有采用串口、網(wǎng)絡(luò)或者是CAN總線(xiàn)通信,魔方?都可以通過(guò)模塊的選型提供支持;并且可以根據(jù)場(chǎng)景需要,提供微定制服務(wù)。 以上
    的頭像 發(fā)表于 04-09 14:33 ?288次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>IO擴(kuò)展模塊介紹 網(wǎng)絡(luò)篇1

    基于魔方的智能文檔信息提取方案

    ?作者:魔方創(chuàng)始人/英特爾創(chuàng)新大使劉 一,引言 大數(shù)據(jù)時(shí)代,文檔數(shù)據(jù)量急劇增加,傳統(tǒng)的手工方式已無(wú)法滿(mǎn)足快速獲取有效信息的需求。深度
    的頭像 發(fā)表于 05-15 10:37 ?177次閱讀
    基于<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>的智能文檔信息提取方案

    基于魔方與PP-OCRv5的OpenVINO智能文檔識(shí)別方案

    )團(tuán)隊(duì)最新推出的PP-OCRv5模型精度和效率上實(shí)現(xiàn)了顯著突破,結(jié)合Intel OpenVINO工具套件的硬件加速能力,能夠?yàn)楦黝?lèi)文檔處理場(chǎng)景提供更強(qiáng)大的支持。 二,
    的頭像 發(fā)表于 06-12 21:19 ?351次閱讀
    基于<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>與PP-OCRv5的OpenVINO智能文檔識(shí)別方案
    主站蜘蛛池模板: 永州市| 蒲城县| 阳新县| 丰原市| 赤水市| 锡林郭勒盟| 五家渠市| 淮阳县| 波密县| 宁化县| 平果县| 巴林左旗| 武冈市| 安岳县| 八宿县| 射洪县| 陆良县| 陇南市| 湾仔区| 太谷县| 二连浩特市| 五大连池市| 南阳市| 渑池县| 临泉县| 克山县| 伊金霍洛旗| 通许县| 茌平县| 沭阳县| 湖州市| 北京市| 岳普湖县| 独山县| 祁东县| 额尔古纳市| 洪洞县| 桃园县| 汶川县| 长泰县| 视频|