news 2026/4/30 21:04:47

YOLO11+自定义数据集:打造专属检测模型

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLO11+自定义数据集:打造专属检测模型

YOLO11+自定义数据集:打造专属检测模型

在计算机视觉领域,目标检测是核心任务之一。随着YOLO系列算法的持续演进,YOLO11作为最新一代版本,在精度、速度和灵活性方面实现了显著提升。本文将围绕如何使用YOLO11结合自定义数据集训练专属目标检测模型展开,涵盖从数据标注、格式转换、环境配置到模型训练与推理的完整流程。

通过本教程,你将掌握构建一个高精度定制化检测系统的全流程方法,并可将其应用于工业质检、智能监控、自动驾驶等实际场景。


1. 数据准备与标注

1.1 使用Labelme进行图像标注

高质量的数据是模型性能的基础。我们推荐使用开源工具Labelme进行手动标注。

操作步骤如下:

  1. 安装Labelme:
    pip install labelme
  2. 启动工具并加载图像目录。
  3. 选择“创建矩形”模式,框选目标物体。
  4. 每个标注需指定类别名称(如carbus)。
  5. 保存后生成与图片同名的JSON文件。

提示:确保所有图像尺寸一致或相近,避免极端缩放影响模型学习效果。

1.2 标注结果示例

Labelme生成的JSON文件包含图像元信息和多边形/矩形坐标。例如:

{ "imageWidth": 640, "imageHeight": 480, "shapes": [ { "label": "car", "points": [[100, 150], [300, 350]], "shape_type": "rectangle" } ] }

该结构记录了每个对象的位置和类别,但YOLO11需要特定格式的文本标签。


2. Labelme JSON转YOLO TXT格式

2.1 YOLO11标签格式规范

YOLO系列统一采用归一化的边界框表示法。每张图对应一个.txt标签文件,内容格式为:

<class_id> <x_center> <y_center> <width> <height>

其中:

  • class_id:类别索引(从0开始)
  • 坐标与尺寸均相对于图像宽高的比例值(0~1)

例如:

0 0.5192 0.4512 0.3985 0.7572 3 0.5061 0.5921 0.2631 0.4561

2.2 转换脚本实现

以下Python代码可批量将Labelme的JSON标注转换为YOLO兼容格式:

import json import os # 类别映射表(根据实际项目修改) label_map = { "car": 0, "bus": 1, "person": 2 } def convert_labelme_to_yolo(json_path, output_dir): with open(json_path, 'r') as f: data = json.load(f) img_w = data['imageWidth'] img_h = data['imageHeight'] annotations = [] for shape in data['shapes']: label_name = shape['label'] if label_name not in label_map: continue class_id = label_map[label_name] points = shape['points'] if shape['shape_type'] == 'rectangle': (x1, y1), (x2, y2) = points elif shape['shape_type'] == 'polygon': x1 = min(p[0] for p in points) y1 = min(p[1] for p in points) x2 = max(p[0] for p in points) y2 = max(p[1] for p in points) else: continue # 归一化计算 xc = ((x1 + x2) / 2) / img_w yc = ((y1 + y2) / 2) / img_h w = (x2 - x1) / img_w h = (y2 - y1) / img_h annotations.append(f"{class_id} {xc:.6f} {yc:.6f} {w:.6f} {h:.6f}") # 写入输出文件 base_name = os.path.splitext(os.path.basename(json_path))[0] output_file = os.path.join(output_dir, base_name + '.txt') os.makedirs(output_dir, exist_ok=True) with open(output_file, 'w') as f: f.write('\n'.join(annotations)) def process_folder(input_folder, output_folder): for file_name in os.listdir(input_folder): if file_name.endswith('.json'): json_path = os.path.join(input_folder, file_name) convert_labelme_to_yolo(json_path, output_folder) # 执行转换 input_folder = "/mnt/data/json_labels" output_folder = "/mnt/data/yolo11_txt_labels" process_folder(input_folder, output_folder)

运行后将在指定路径下生成对应的.txt标签文件,供后续训练使用。


3. 配置YOLO11工程环境

3.1 获取YOLO11源码

YOLO11由Ultralytics团队维护,可通过GitHub获取最新代码:

git clone https://github.com/ultralytics/ultralytics.git cd ultralytics pip install -e .

或者直接下载ZIP包解压使用。

3.2 项目目录结构规划

建议组织如下目录结构以保持清晰:

ultralytics-8.3.9/ ├── datasets/ │ ├── train/images/ │ ├── train/labels/ │ ├── val/images/ │ └── val/labels/ ├── weights/ # 存放预训练权重 ├── runs/ # 训练输出目录 ├── ultralytics/ # 核心库 ├── train.py # 自定义训练脚本 └── infer.py # 推理脚本

将转换后的图像和标签分别放入datasets/traindatasets/val中。


4. 数据集配置文件(YAML)

ultralytics/cfg/datasets/目录下新建自定义数据集配置文件,如auto-parts-det.yaml

# 数据集根路径 path: ./datasets/det_auto_parts_20241020 # 训练集与验证集路径(相对于path) train: train/images val: val/images # 类别名称列表 names: 0: car 1: bus 2: person

⚠️ 注意:path应指向包含trainval子目录的根目录,路径支持相对或绝对形式。

此文件将在训练时被模型加载器读取,用于定位数据和解析类别。


5. YOLO11模型结构配置

5.1 模型配置文件位置

YOLO11的网络架构定义位于:

ultralytics/cfg/models/11/yolo11.yaml

该文件描述了Backbone、Neck和Head的完整结构,包括卷积层、CSP模块、上采样与拼接操作等。

5.2 关键参数说明

参数含义
nc类别数量(需根据数据集调整)
scales不同规模模型(n/s/m/l/x)的深度与宽度系数
backbone主干网络结构
head检测头结构,含FPN/PAN结构

若新增类别,务必更新nc字段。例如三分类任务应设为:

nc: 3

也可基于此文件创建自定义变体,如yolo11-custom.yaml


6. 编写训练脚本

6.1 加载模型与预训练权重

使用YOLO类初始化模型,并加载官方提供的预训练权重以加速收敛:

from ultralytics import YOLO # 加载模型配置并注入预训练权重 model = YOLO("yolo11m.yaml").load("weights/yolo11m.pt")

✅ 推荐使用中等规模模型(如yolo11m),兼顾性能与效率。

6.2 设置训练参数

通过字典方式传入训练超参数,便于管理和复现:

train_params = { 'data': 'auto-parts-det.yaml', # 数据集配置 'epochs': 100, # 总训练轮数 'imgsz': 640, # 输入图像大小 'batch': 8, # 批次大小 'device': 0, # GPU设备ID(None自动选择) 'workers': 8, # 数据加载线程数 'optimizer': 'AdamW', # 优化器类型 'lr0': 0.001, # 初始学习率 'weight_decay': 0.0005, 'warmup_epochs': 3.0, 'box': 7.5, 'cls': 0.5, 'dfl': 1.5, 'save': True, 'save_period': -1, 'project': 'runs/train', 'name': 'exp_auto_parts', 'exist_ok': False, 'resume': False, 'amp': True, # 启用混合精度 'verbose': True, 'seed': 42, 'plots': True, # 数据增强 'hsv_h': 0.015, 'hsv_s': 0.7, 'hsv_v': 0.4, 'degrees': 10.0, 'translate': 0.1, 'scale': 0.5, 'flipud': 0.0, 'fliplr': 0.5, 'mosaic': 1.0, 'mixup': 0.1, 'copy_paste': 0.0, }

6.3 开始训练

调用train()方法启动训练过程:

results = model.train(**train_params)

训练日志将实时显示损失、mAP等指标,最佳模型自动保存至runs/train/exp_auto_parts/weights/best.pt


7. 模型训练执行与监控

7.1 启动训练命令

进入项目根目录后运行:

cd ultralytics-8.3.9/ python train.py

7.2 训练输出示例

Ultralytics 8.3.7 🚀 Python-3.9.16 torch-1.13.1 CUDA:0 (NVIDIA A30, 24062MiB) Starting training for 100 epochs... Epoch GPU_mem box_loss cls_loss dfl_loss Instances Size 1/100 4.68G 2.238 1.691 2.426 80 640: 100%|███████| 16/16 [00:02<00:00, 5.91it/s] Class Images Instances Box(P R mAP50 mAP50-95): 100%|███████| 8/8 [00:00<00:00, 12.18it/s] all 128 929 0.77 0.728 0.798 0.615 ... 100/100 4.49G 1.171 0.7135 1.319 41 640: 100%|███████| 16/16 [00:01<00:00, 8.80it/s] Class Images Instances Box(P R mAP50 mAP50-95): 100%|███████| 8/8 [00:00<00:00, 13.42it/s] all 128 929 0.847 0.845 0.891 0.577

最终模型在验证集上达到较高mAP50值,表明具备良好检测能力。


8. 模型推理与结果可视化

8.1 加载训练好的模型

使用保存的最佳权重进行推理:

from ultralytics import YOLO model = YOLO("runs/detect/train5/weights/best.pt")

8.2 执行预测

支持图像、视频、摄像头等多种输入源:

results = model.predict( source="datasets/test_images/", conf=0.45, iou=0.6, imgsz=640, device=0, save=True, save_txt=True, show_labels=True, show_conf=True )

8.3 输出内容

  • 检测框图像(带标签与置信度)
  • 文本格式的检测结果(.txt
  • 可视化分析图表(PR曲线、混淆矩阵等)

可在runs/detect/predict/目录查看输出结果。


9. 总结

本文系统介绍了基于YOLO11构建自定义目标检测模型的全流程:

  1. 数据标注:使用Labelme完成高质量人工标注;
  2. 格式转换:编写脚本将JSON转为YOLO标准TXT格式;
  3. 环境搭建:配置Ultralytics开发环境及项目结构;
  4. 数据集定义:编写YAML配置文件明确路径与类别;
  5. 模型配置:选用合适规模的YOLO11架构;
  6. 训练脚本:设置合理超参数并启动训练;
  7. 模型评估:观察训练日志与验证指标;
  8. 推理应用:部署模型于新数据进行检测。

通过这一完整流程,你可以快速构建适用于特定场景的高性能检测系统。YOLO11凭借其简洁API和强大性能,极大降低了深度学习落地门槛。

未来可进一步探索自动标注、增量学习、ONNX导出与边缘部署等进阶方向,持续优化模型实用性。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 6:08:35

图解说明uds28服务在Bootloader中的典型应用

UDS28服务如何为Bootloader“静音”总线&#xff1f;一文讲透通信控制实战逻辑你有没有遇到过这样的场景&#xff1a;正在给ECU刷写固件&#xff0c;CAN总线却频繁报错&#xff0c;下载块超时、NACK重传不断……排查半天发现&#xff0c;罪魁祸首竟是目标ECU自己还在发周期性Al…

作者头像 李华
网站建设 2026/5/1 6:06:54

MinerU+MaxKB避坑指南:文档解析到知识库全流程详解

MinerUMaxKB避坑指南&#xff1a;文档解析到知识库全流程详解 1. 背景与目标 在构建企业级知识库系统时&#xff0c;如何高效、准确地将非结构化文档&#xff08;如PDF、扫描件、幻灯片等&#xff09;转化为可检索、可问答的结构化内容&#xff0c;是核心挑战之一。传统OCR工…

作者头像 李华
网站建设 2026/4/28 21:47:39

VibeVoice长音频秘籍:云端GPU稳定输出90分钟不中断

VibeVoice长音频秘籍&#xff1a;云端GPU稳定输出90分钟不中断 你是不是也遇到过这种情况&#xff1a;团队做有声书项目&#xff0c;文本一万多字&#xff0c;本地电脑用TTS工具合成到一半就卡死、崩溃&#xff1f;重启再试&#xff0c;音色还不连贯&#xff0c;前后对不上。更…

作者头像 李华
网站建设 2026/3/14 14:10:48

fft npainting lama能否集成到APP?API封装可能性分析

fft npainting lama能否集成到APP&#xff1f;API封装可能性分析 1. 技术背景与集成需求 随着图像修复技术的快速发展&#xff0c;基于深度学习的图像重绘与修复工具逐渐成为多媒体应用中的关键组件。fft npainting lama&#xff08;以下简称 Lama-Inpainting&#xff09;作为…

作者头像 李华
网站建设 2026/4/29 14:10:12

3个开源大模型对比评测:云端GPU 3小时完成,成本仅百元

3个开源大模型对比评测&#xff1a;云端GPU 3小时完成&#xff0c;成本仅百元 你是否也遇到过这样的困境&#xff1f;技术选型会议要求一周内对比三个大模型效果&#xff0c;但实验室的GPU被项目组排得满满当当&#xff0c;排队要等两周&#xff1b;自己买显卡预算不够&#x…

作者头像 李华
网站建设 2026/5/1 6:45:49

AUTOSAR与Classic Platform开发要点核心总结

深入AUTOSAR Classic Platform&#xff1a;从架构到实战的工程视角你有没有遇到过这样的场景&#xff1f;一个ECU项目里&#xff0c;应用层代码刚写完&#xff0c;突然被告知要换一款MCU——从NXP换到Infineon。传统开发模式下&#xff0c;这意味着几乎全部底层驱动重写、通信协…

作者头像 李华