探索 Ultralytics YOLO11 計(jì)算機(jī)視覺(jué)領(lǐng)域的關(guān)鍵突破 精華
在計(jì)算機(jī)視覺(jué)領(lǐng)域,目標(biāo)檢測(cè)、實(shí)例分割、圖像分類(lèi)等任務(wù)一直是研究和應(yīng)用的熱點(diǎn)。Ultralytics YOLO系列以其高效、準(zhǔn)確的特點(diǎn)在該領(lǐng)域占據(jù)重要地位。YOLO11作為該系列的最新迭代版本,帶來(lái)了一系列的改進(jìn)和創(chuàng)新,進(jìn)一步提升了模型在各種計(jì)算機(jī)視覺(jué)任務(wù)中的性能。
一、概述
YOLO11是Ultralytics YOLO系列實(shí)時(shí)目標(biāo)檢測(cè)器的最新版本,它基于之前YOLO版本的顯著進(jìn)步進(jìn)行構(gòu)建,在架構(gòu)和訓(xùn)練方法上引入了重大改進(jìn),從而成為了廣泛計(jì)算機(jī)視覺(jué)任務(wù)的通用選擇。
二、關(guān)鍵特性
1、增強(qiáng)的特征提取
YOLO11采用了改進(jìn)的骨干網(wǎng)絡(luò)和頸部架構(gòu),這極大地增強(qiáng)了特征提取能力,從而實(shí)現(xiàn)更精確的目標(biāo)檢測(cè)以及復(fù)雜任務(wù)的執(zhí)行。例如,在處理包含多個(gè)小目標(biāo)的圖像時(shí),能夠更清晰地捕捉到目標(biāo)的特征,提高檢測(cè)的準(zhǔn)確率。
2、效率和速度的優(yōu)化
- 其引入了精細(xì)的架構(gòu)設(shè)計(jì)和優(yōu)化的訓(xùn)練流程,不僅能夠提供更快的處理速度,還在準(zhǔn)確性和性能之間保持了最佳平衡。這使得它在實(shí)時(shí)性要求較高的應(yīng)用場(chǎng)景中表現(xiàn)出色,如視頻監(jiān)控中的目標(biāo)實(shí)時(shí)檢測(cè)。
- 通過(guò)對(duì)比不同模型在不同硬件上的運(yùn)行速度數(shù)據(jù)可以清晰地看到這種優(yōu)勢(shì)。例如,在CPU ONNX環(huán)境下,YOLO11n的檢測(cè)速度為56.1 ± 0.8 ms,而在T4 TensorRT10環(huán)境下,速度更是達(dá)到了1.5 ± 0.0 ms。
3、更少參數(shù)實(shí)現(xiàn)更高精度
隨著模型設(shè)計(jì)的進(jìn)步,YOLO11m在COCO數(shù)據(jù)集上實(shí)現(xiàn)了更高的平均精度(mAP),同時(shí)相比YOLOv8m使用的參數(shù)減少了22%。這不僅提高了計(jì)算效率,而且沒(méi)有犧牲準(zhǔn)確性,使得它在資源受限的設(shè)備上也能有出色的表現(xiàn)。
4、環(huán)境適應(yīng)性強(qiáng)
YOLO11可以無(wú)縫地部署在各種環(huán)境中,包括邊緣設(shè)備、云平臺(tái)以及支持NVIDIA GPU的系統(tǒng)。這種靈活性確保了它能在不同的應(yīng)用場(chǎng)景中發(fā)揮作用,從移動(dòng)設(shè)備上的實(shí)時(shí)檢測(cè)到云環(huán)境中的復(fù)雜分割任務(wù)都能勝任。
5、廣泛的任務(wù)支持
無(wú)論是目標(biāo)檢測(cè)、實(shí)例分割、圖像分類(lèi)、姿態(tài)估計(jì)還是有向目標(biāo)檢測(cè)(OBB),YOLO11都能應(yīng)對(duì)各種計(jì)算機(jī)視覺(jué)挑戰(zhàn)。例如,在姿態(tài)估計(jì)任務(wù)中,可以準(zhǔn)確地檢測(cè)和跟蹤人體的關(guān)鍵點(diǎn)。
三、支持的任務(wù)和模式
1、目標(biāo)檢測(cè)
YOLO11系列中的YOLO11模型(包括yolo11n.pt、yolo11s.pt、yolo11m.pt、yolo11l.pt、yolo11x.pt等變體)可用于目標(biāo)檢測(cè)任務(wù),在推理、驗(yàn)證、訓(xùn)練和導(dǎo)出等操作模式上都具有良好的兼容性。
2、實(shí)例分割
YOLO11 - seg系列模型用于實(shí)例分割任務(wù),同樣涵蓋多種變體,能夠準(zhǔn)確地檢測(cè)物體并描繪出它們的邊界。
3、圖像分類(lèi)
YOLO11 - cls系列模型可對(duì)圖像進(jìn)行分類(lèi),將其歸入預(yù)定義的類(lèi)別中。
4、姿態(tài)估計(jì)
YOLO11 - pose系列模型用于姿態(tài)估計(jì),能夠檢測(cè)和跟蹤人體的關(guān)鍵點(diǎn)。
5、有向目標(biāo)檢測(cè)
YOLO11 - obb系列模型用于有向目標(biāo)檢測(cè),可以檢測(cè)帶有旋轉(zhuǎn)角度的物體,以提高檢測(cè)精度。
四、性能指標(biāo)
- 目標(biāo)檢測(cè)(COCO數(shù)據(jù)集):不同變體的模型在尺寸為640像素時(shí),mAP ^{val 50 - 95}的值有所不同。例如,YOLO11n為39.5,YOLO11s為47.0,YOLO11m為51.5等。同時(shí),不同硬件環(huán)境下的速度和參數(shù)數(shù)量也各有差異。
- 實(shí)例分割(COCO數(shù)據(jù)集):以640像素為例,各模型在box50 - 95和mask50 - 95的mAP值以及速度、參數(shù)和FLOPs等方面都有詳細(xì)的數(shù)據(jù)體現(xiàn)。
- 圖像分類(lèi)(ImageNet數(shù)據(jù)集):在224像素尺寸下,不同模型的top1和top5準(zhǔn)確率以及速度、參數(shù)和FLOPs等指標(biāo)也各不相同。
- 姿態(tài)估計(jì)(COCO數(shù)據(jù)集):同樣在640像素時(shí),各模型在pose50 - 95和pose50的mAP值以及速度、參數(shù)和FLOPs等方面有相應(yīng)的數(shù)據(jù)。
- 有向目標(biāo)檢測(cè)(DOTAv1數(shù)據(jù)集):在1024像素尺寸下,各模型的mAP ^{test50}以及速度、參數(shù)和FLOPs等指標(biāo)也有明確的數(shù)據(jù)展示。
五、使用示例
1、Python示例
可以使用如下代碼進(jìn)行模型加載、訓(xùn)練和推理:
from ultralytics import YOLO
# 加載一個(gè)COCO預(yù)訓(xùn)練的YOLO11n模型
model = YOLO("yolo11n.pt")
# 在COCO8示例數(shù)據(jù)集上訓(xùn)練模型100個(gè)epoch
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# 使用YOLO11n模型在'bus.jpg'圖像上進(jìn)行推理
results = model("path/to/bus.jpg")
2、CLI示例
也可以使用命令行直接運(yùn)行模型:
# 加載一個(gè)COCO預(yù)訓(xùn)練的YOLO11n模型并在COCO8示例數(shù)據(jù)集上訓(xùn)練100個(gè)epoch
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
# 加載一個(gè)COCO預(yù)訓(xùn)練的YOLO11n模型并在'bus.jpg'圖像上進(jìn)行推理
yolo predict model=yolo11n.pt source=path/to/bus.jpg
六、結(jié)語(yǔ)
Ultralytics YOLO11 以其卓越的性能和廣泛的適用性,在計(jì)算機(jī)視覺(jué)領(lǐng)域展現(xiàn)出了巨大的潛力。它的關(guān)鍵特性,如增強(qiáng)的特征提取、效率和速度的優(yōu)化、更少參數(shù)實(shí)現(xiàn)更高精度、環(huán)境適應(yīng)性強(qiáng)以及廣泛的任務(wù)支持,使其成為了眾多計(jì)算機(jī)視覺(jué)任務(wù)的有力工具。
隨著計(jì)算機(jī)視覺(jué)技術(shù)的不斷發(fā)展,我們期待 YOLO11 能夠在更多的應(yīng)用場(chǎng)景中發(fā)揮作用,為目標(biāo)檢測(cè)、實(shí)例分割、圖像分類(lèi)、姿態(tài)估計(jì)和有向目標(biāo)檢測(cè)等任務(wù)提供更高效、更準(zhǔn)確的解決方案。它的不斷演進(jìn)和優(yōu)化,將進(jìn)一步推動(dòng)計(jì)算機(jī)視覺(jué)領(lǐng)域的進(jìn)步,為我們帶來(lái)更多的創(chuàng)新和驚喜。
本文轉(zhuǎn)載自 ??小兵的AI視界??,作者: 小兵
