YOLO-v11自定义数据集训练
今天Ultralytics发布了他们最新的yolo系列:v11,赶紧来看看自己的数据集跑出来是否有涨点!!感觉yolo系列是不是出的太快了(爆肝),一年内就更新了三个大版本(8、10、11)。。。
前言
今天Ultralytics发布了他们最新的yolo系列:v11,赶紧来看看自己的数据集跑出来是否有涨点!!
一、有哪些新东西?
YOLO11 相对于 YOOLv8 的主要更新和改进包括以下几个方面:
-
增强的特征提取:YOLO11 提供了更强大的特征提取能力,能够捕捉图像中更精细的细节,即使在具有挑战性的场景下也能表现得更加精准。
-
更高的准确性与更低的参数量:YOLO11m 在 COCO 数据集上实现了比 YOLOv8m 更高的平均精度(mAP),同时使用的参数量减少了 22%。这意味着 YOLO11 能够以更少的计算资源提供更准确的结果。
-
更快的处理速度:相较于 YOLOv10,YOLO11 的推理时间大约快了 2%,这使得它非常适合实时应用。
-
优化的训练过程:YOLO11 对数据增强管道进行了改进,从而简化了模型适应不同任务的过程,无论是小规模项目还是大规模应用都能从中受益。
-
支持更多计算机视觉任务:除了对象检测,YOLO11 还增强了对实例分割、图像分类、姿态估计、定向对象检测(OBB)以及对象跟踪等任务的支持,使其成为一个多功能的工具,适用于从自动驾驶到医疗成像等各种应用场景。
-
灵活性与效率:YOLO11 在保持高效的同时,还能够部署在云端和边缘设备上,提供了跨不同环境的灵活性。
总结来说,YOLO11 不仅提升了性能,而且变得更加轻量化和灵活,为开发者和研究人员带来了显著的优势。这些进步让 YOLO11 成为了一个非常有竞争力的选择,尤其适合那些需要高精度和实时响应的应用场景。
yolov11博客原文
二、如何从零开始训练?
1.从github上clone下来
从github的库上使用git clone下来,如果已经clone了yolov8的库也可以直接更新,因为只是更新了ultralytics。本质上是同一个项目。
yolov11库地址
# 如果下载慢,可以使用魔法并开启tun模式,或者手动配置git临时proxy
# git config --global http.proxy http://127.0.0.1:7890
# git config --global https.proxy https://127.0.0.1:7890
git clone https://github.com/ultralytics/ultralytics.git
2.使用anaconda安装依赖库
先新建虚拟python环境并安装依赖库:
conda create -n yolov8 --python==3.8
conda activate yolov8
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install ultralytics
pip install -a requirements.txt
# 如果下不动,可以配置以下proxy
# pip install xxxxxx --proxy="127.0.0.1:7890"
3.建立一个训练任务
先在项目根目录下建立文件夹:“myproj”,然后进入文件夹新建:“dataset”用于存放训练集和验证集。最后拷贝模型配置文件yaml和数据集配置文件yaml,最后写入训练代码。
文件树
--ultralytics
|--myproj
| |--dataset
| | |--train
| | | |--images
| | | |--labels
| | |--val
| | | |--images
| | | |--labels
| | |--data.yaml
| | |--yolo11.yaml
| |--train.py
yolo11.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect
# Parameters
nc: 9 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'
# [depth, width, max_channels]
n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPs
s: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPs
m: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPs
l: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPs
x: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs
# YOLO11n backbone
backbone:
# [from, repeats, module, args]
- [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
- [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
- [-1, 2, C3k2, [256, False, 0.25]]
- [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
- [-1, 2, C3k2, [512, False, 0.25]]
- [-1, 1, Conv, [512, 3, 2]] # 5-P4/16
- [-1, 2, C3k2, [512, True]]
- [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32
- [-1, 2, C3k2, [1024, True]]
- [-1, 1, SPPF, [1024, 5]] # 9
- [-1, 2, C2PSA, [1024]] # 10
# YOLO11n head
head:
- [-1, 1, nn.Upsample, [None, 2, "nearest"]]
- [[-1, 6], 1, Concat, [1]] # cat backbone P4
- [-1, 2, C3k2, [512, False]] # 13
- [-1, 1, nn.Upsample, [None, 2, "nearest"]]
- [[-1, 4], 1, Concat, [1]] # cat backbone P3
- [-1, 2, C3k2, [256, False]] # 16 (P3/8-small)
- [-1, 1, Conv, [256, 3, 2]]
- [[-1, 13], 1, Concat, [1]] # cat head P4
- [-1, 2, C3k2, [512, False]] # 19 (P4/16-medium)
- [-1, 1, Conv, [512, 3, 2]]
- [[-1, 10], 1, Concat, [1]] # cat head P5
- [-1, 2, C3k2, [1024, True]] # 22 (P5/32-large)
- [[16, 19, 22], 1, Detect, [nc]] # Detect(P3, P4, P5)
数据集配置:data.yaml
path: myproj\dataset
train: train\images
val: val\images
names:
0: class1
1: class2
2: class3
3: class4
4: class5
5: class6
6: class7
7: class8
8: class9
注意这类我们分了几类,上面模型的nc就设置为多少。
训练代码
import warnings
warnings.filterwarnings('ignore')
from ultralytics import YOLO
if __name__ == '__main__':
model = YOLO(r'.\myProj\dataset\yolo11.yaml')
model.train(data=r'.\myProj\dataset\data.yaml',
cache=False,
imgsz=640,
epochs=100,
single_cls=False,
batch=8,
close_mosaic=10,
workers=0,
device='0',
optimizer='SGD',
amp=True,
project='runs/train',
name='exp',
)
方法2
还有一种训练方法不需要使用模型配置文件yaml训练,而是直接使用官方的预训练模型进行再训练,一般而言预训练模型在迁移学习上性能表现要比从初始模型进行训练好。
- 第一步是先将预训练模型从github上下载下来:点此直接下载yolov11n模型
- 将预训练pt模型放置到myproj目录下
- 修改训练代码
import warnings
warnings.filterwarnings('ignore')
from ultralytics import YOLO
if __name__ == '__main__':
model = YOLO(r'.\yolo11n.pt')
model.train(data=r'.\myProj\dataset\data.yaml',
cache=False,
imgsz=640,
epochs=100,
single_cls=False,
batch=8,
close_mosaic=10,
workers=0,
device='0',
optimizer='SGD',
amp=True,
project='runs/train',
name='exp',
)
三、 对比yolov8的效果对比
使用初始模型训练的yolo11n模型
使用预训练的yolo11n模型
使用预训练的yolo8n模型
小结
可能是我的姿势不对?同样的数据集和同样的轮数竟然性能略差于原版,回头优化一下数据集把。我怀疑是标签质量太差了。
总结
感觉yolo系列是不是出的太快了(爆肝),一年内就更新了三个大版本(8、10、11)。。。
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)