1. Yolo11簡介
YOLO11 系列是 YOLO 家族中最先進的 (SOTA)、最輕量級、最高效的模型,其表現(xiàn)優(yōu)于其前輩。它由 Ultralytics 創(chuàng)建,該組織發(fā)布了 YOLOv8,這是迄今為止最穩(wěn)定、使用最廣泛的 YOLO 變體。YOLO11 將延續(xù) YOLO 系列的傳奇。
本教程針對目標檢測算法yolo11的訓(xùn)練和部署到EASY-EAI-Orin-nano(RK3576)進行說明,而數(shù)據(jù)標注方法可以參考我們往期的文章。
2. Yolo11模型訓(xùn)練
Yolov11訓(xùn)練代碼在導(dǎo)出部分對比原版會有一些修改,建議下載我們的訓(xùn)練代碼。
2.1 數(shù)據(jù)集準備
在開始yolo11訓(xùn)練前,先準備好待訓(xùn)練數(shù)據(jù),如VOC2007,下載鏈接:
http://host.robots.ox.ac.uk/pascal/VOC/voc2007/index.html
然后將VOC2007數(shù)據(jù)分成訓(xùn)練集和測試集兩個目錄,如下圖示意:
2.2 Voc轉(zhuǎn)Yolo
數(shù)據(jù)準備好后,使用data/voc_2_yolo.py腳本將Voc數(shù)據(jù)格式轉(zhuǎn)成Yolo數(shù)據(jù)格式。轉(zhuǎn)換完成后的數(shù)據(jù)存儲在原數(shù)據(jù)同級目錄的yolo_data下,如下圖示意:
2.3 訓(xùn)練參數(shù)配置
數(shù)據(jù)轉(zhuǎn)換完成后,在配置模型的訓(xùn)練參數(shù):data.yaml,default.yaml,yolo11.yaml.
其中:
data.yaml:為待訓(xùn)練數(shù)據(jù)和驗證數(shù)據(jù)的路徑,以及類別數(shù)和類別名稱;
default.yaml:為yolo11訓(xùn)練參數(shù),可自行調(diào)整模型訓(xùn)練的參數(shù);
Yolo11.yaml:為yolo11模型結(jié)構(gòu),在模型訓(xùn)練時,你需要修改類別數(shù)。
更多關(guān)于yolo11信息可參考:
https://blog.csdn.net/qq_45972324/article/details/143892222
2.4 模型訓(xùn)練
完成上述步驟后,就可以開始訓(xùn)練模型了,打開train.py腳本,輸入data.yaml,default.yaml,yolo11.yaml路徑,如下代碼段所示:
fromultralyticsimportYOLO importos os.environ["KMP_DUPLICATE_LIB_OK"] ="TRUE"# 程序報OMP: Hint This means...錯誤時使用 if__name__ =='__main__': cfg ="./demo/voc2007/cfg/default.yaml" data ='./demo/voc2007/cfg/data.yaml' weight ="./demo/voc2007/cfg/yolo11.yaml"# pt 或 yolovx.yaml model = YOLO(weight) results = model.train( data=data, cfg=cfg )
執(zhí)行train.py訓(xùn)練腳本,開始模型訓(xùn)練,如下示意圖:
pythontrain.py

注意:訓(xùn)練過程僅是為了演示流程,接下來模型預(yù)測和模型轉(zhuǎn)換的都是yolov11默認的80類的模型。
2.5 PC端預(yù)測模型預(yù)測
訓(xùn)練完畢后,在default.yaml文件配置的project目錄下保存訓(xùn)練過程,經(jīng)驗證集測試的最好結(jié)果的模型。同時可以執(zhí)行模型預(yù)測,初步評估模型的效果。打開predict.py腳本,配置好模型地址和待檢測圖片,如下代碼段所示:
if__name__ =='__main__': random.seed(0) device_ ="cpu" imgsz = (640,640) model_path ="./demo/weights/yolo11s.pt" img_path ="./demo/images/bus.jpg" is_dir = os.path.isdir(img_path) device = select_device(device_) model = YOLO(model_path) # 圖片預(yù)處理 ifis_dir: filenames = os.listdir(img_path) foridx, fileinenumerate(filenames): img_file = os.path.join(img_path, file) im = cv2.imread(img_file) # uint8 numpy array pre_img, ratio, padding = preprocess(im, device, imgsz) # 模型預(yù)測 # pred = model.predict(pre_img, augment=False)[0] # im = draw_result(im, pred, ratio, padding) pred = model.predict(im, augment=False)[0] im = draw_result(im, pred) cv2.imshow("dst", im) cv2.waitKey() else: im = cv2.imread(img_path) # uint8 numpy array pre_img, ratio, padding = preprocess(im, device, imgsz) # 模型預(yù)測 # pred = model.predict(pre_img, augment=False)[0] # im = draw_result(im, pred, ratio, padding) pred = model.predict(im, augment=False)[0] im = draw_result(im, pred) cv2.imshow("dst", im) cv2.waitKey()
執(zhí)行腳本:
pythonpredict.py
運行腳本結(jié)果:
2.6 PT模型轉(zhuǎn)ONNX
在PC端執(zhí)行export.py將pt模型轉(zhuǎn)成onnx,如下代碼段所示:
from ultralytics import YOLO if__name__ =='__main__': format ='rknn'#'torchscript','onnx','openvino','engine','coreml','saved_model','pb','tflite','edgetpu','tfjs','paddle','ncnn' weight ="./demo/weights/yolo11s.pt"# pt 或 yolovx.yaml model = YOLO(weight) results = model.export(format = format)
3. rknn-toolkit模型轉(zhuǎn)換
3.1 rknn-toolkit模型轉(zhuǎn)換環(huán)境搭建
onnx模型需要轉(zhuǎn)換為rknn模型才能在EASY-EAI-Orin-nano運行,所以需要先搭建rknn-toolkit模型轉(zhuǎn)換工具的環(huán)境。當(dāng)然tensorflow、tensroflow lite、caffe、darknet等也是通過類似的方法進行模型轉(zhuǎn)換,只是本教程onnx為例。
3.1.1 概述
模型轉(zhuǎn)換環(huán)境搭建流程如下所示:
3.1.2 下載模型轉(zhuǎn)換工具
為了保證模型轉(zhuǎn)換工具順利運行,請下載網(wǎng)盤里“06.AI算法開發(fā)/01.rknn-toolkit2模型轉(zhuǎn)換工具/rknn-toolkit2-v2.3.0/docker/rknn-toolkit2-v2.3.0-cp38-docker.tar.gz”。
3.1.3 把工具移到ubuntu20.04
把下載完成的docker鏡像移到我司的虛擬機ubuntu20.04的rknn-toolkit2目錄,如下圖所示:
3.1.4 運行模型轉(zhuǎn)換工具環(huán)境
在該目錄打開終端:
執(zhí)行以下指令加載模型轉(zhuǎn)換工具docker鏡像:
dockerload --input rknn-toolkit2-v2.3.0-cp38-docker.tar.gz
執(zhí)行以下指令進入鏡像bash環(huán)境:
docker run-t-i--privileged-v/dev/bus/usb:/dev/bus/usb rknn-toolkit2:2.3.0-cp38/bin/bash
現(xiàn)象如下圖所示:
輸入“python”加載python相關(guān)庫,嘗試加載rknn庫,如下圖環(huán)境測試成功:
至此,模型轉(zhuǎn)換工具環(huán)境搭建完成。
4. 模型轉(zhuǎn)換為RKNN
EASY EAI Orin-nano支持.rknn后綴的模型的評估及運行,對于常見的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通過我們提供的 toolkit 工具將其轉(zhuǎn)換至 rknn 模型,而對于其他框架訓(xùn)練出來的模型,也可以先將其轉(zhuǎn)至 onnx 模型再轉(zhuǎn)換為 rknn 模型。模型轉(zhuǎn)換操作流程如下圖所示:
4.1 模型轉(zhuǎn)換Demo下載
把 yolov11_model_convert.tar.bz2和quant_dataset.zip解壓到虛擬機,如下圖所示:
4.2 進入模型轉(zhuǎn)換工具docker環(huán)境
執(zhí)行以下指令把工作區(qū)域映射進docker鏡像,其中/home/developer/rknn-toolkit2/model_convert為工作區(qū)域,/test為映射到docker鏡像,/dev/bus/usb:/dev/bus/usb為映射usb到docker鏡像:
docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit2/model_convert:/test rknn-toolkit2:2.3.0-cp38 /bin/bash
執(zhí)行成功如下圖所示:
4.3 模型轉(zhuǎn)換操作說明
4.3.1 模型轉(zhuǎn)換Demo目錄結(jié)構(gòu)
模型轉(zhuǎn)換測試Demo由yolov11_model_convert和quant_dataset組成。yolov11_model_convert存放軟件腳本,quant_dataset存放量化模型所需的數(shù)據(jù)。如下圖所示:
Yolov11_model_convert文件夾存放以下內(nèi)容,如下圖所示:
4.3.2 生成量化圖片列表
在docker環(huán)境切換到模型轉(zhuǎn)換工作目錄:
cd/test/yolov11_model_convert
如下圖所示:
執(zhí)行g(shù)en_list.py生成量化圖片列表:
pythongen_list.py
命令行現(xiàn)象如下圖所示:
生成“量化圖片列表”如下文件夾所示:
4.3.3 onnx模型轉(zhuǎn)換為rknn模型
rknn_convert.py腳本默認進行int8量化操作,腳本代碼清單如下所示:
importsys fromrknn.apiimportRKNN ONNX_MODEL ='yolov11s.onnx' DATASET ='./pic_path.txt' RKNN_MODEL ='./yolov11s_rk3576.rknn' QUANTIZE_ON =True if__name__ =='__main__': # Create RKNN object rknn = RKNN(verbose=False) # Pre-process config print('--> Config model') rknn.config(mean_values=[[0,0,0]], std_values=[ [255,255,255]], target_platform='rk3576') print('done') # Load model print('--> Loading model') ret = rknn.load_onnx(model=ONNX_MODEL) ifret !=0: print('Load model failed!') exit(ret) print('done') # Build model print('--> Building model') ret = rknn.build(do_quantization=QUANTIZE_ON, dataset=DATASET) ifret !=0: print('Build model failed!') exit(ret) print('done') # Export rknn model print('--> Export rknn model') ret = rknn.export_rknn(RKNN_MODEL) ifret !=0: print('Export rknn model failed!') exit(ret) print('done') # Release rknn.release()
把onnx模型yolov11s.onnx放到y(tǒng)olov11_model_convert目錄(后續(xù)用戶使用自己的模型的時候,替換掉對應(yīng)的onnx即可),并執(zhí)行rknn_convert.py腳本進行模型轉(zhuǎn)換:
pythonrknn_convert.py
生成模型如下圖所示,此模型可以在rknn環(huán)境和EASY EAI Orin-nano環(huán)境運行:
5. 模型部署示例
5.1 模型部署示例介紹
本小節(jié)展示yolo11模型的在EASY EAI Orin-nano的部署過程,本章章節(jié)使用的yolo11s.rknn模型的是由Ultralytics 官方提供的yolo11s.pt轉(zhuǎn)換而來。
5.2 源碼下載以及例程編譯
下載yolo11 C Demo示例文件。
下載程序包移至ubuntu環(huán)境后,執(zhí)行以下指令解壓:
tar-xvf yolov11_detect_C_demo.tar.bz2
下載解壓后如下圖所示:
通過adb接口連接EASY-EAI-Orin-nano,,連接方式如下圖所示:
接下來需要通過adb把源碼傳輸?shù)桨蹇ㄉ希惹袚Q目錄然后執(zhí)行以下指令:
cd~/rknn-toolkit2 adb push yolov11_detect_C_demo/ /userdata

登錄到板子切換到例程目錄執(zhí)行編譯操作:
adb shell cd/userdata/yolov11_detect_C_demo chmod777 build.sh ./build.sh

5.3 開發(fā)板執(zhí)行yolov11目標檢測算法
編譯成功后切換到可執(zhí)行程序目錄,如下所示:
cd/userdata/yolov11_detect_C_demo/yolov11_detect_demo_release
運行例程命令如下所示:
chmod777 yolov11_detect_demo ./yolov11_detect_demo yolov11s_rk3576.rknn bus.jpg
執(zhí)行結(jié)果如下圖所示,yolov11s算法執(zhí)行時間為47ms:
退出板卡環(huán)境,取回測試圖片:
exit adb pull /userdata/yolov11_detect_C_demo/yolov11_detect_demo_release/results.jpg .
至此,yolov11目標檢測例程已成功在板卡運行。
-
算法
+關(guān)注
關(guān)注
23文章
4701瀏覽量
94893 -
模型
+關(guān)注
關(guān)注
1文章
3499瀏覽量
50085 -
代碼
+關(guān)注
關(guān)注
30文章
4891瀏覽量
70321 -
目標檢測
+關(guān)注
關(guān)注
0文章
223瀏覽量
15927 -
rk3576
+關(guān)注
關(guān)注
1文章
153瀏覽量
602
原文標題:RK3576 Yolov11訓(xùn)練部署教程
文章出處:【微信號:easy-eai-AIoT,微信公眾號:EASY EAI靈眸科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
米爾RK3576和RK3588怎么選?-看這篇就夠了
【米爾RK3576開發(fā)板評測】+項目名稱YOLOV5目標檢測
【米爾RK3576開發(fā)板評測】+項目名稱百度飛槳PP-YOLOE
RK3576 vs RK3588:為何越來越多的開發(fā)者轉(zhuǎn)向RK3576?
Mpp支持RK3576么
新品體驗 | RK3576開發(fā)板

RK3576單板發(fā)布倒計時:RK3399與RK3576對比

RK3588與RK3576區(qū)別解析

想學(xué)人工智能AI?我建議RK3576!

RK3576 yolov11-seg訓(xùn)練部署教程

評論