深度学习卷积神经网络yolov8训练火焰/烟雾/人检测数据集数据集的训练及应用

在这里插入图片描述
深度学习卷积神经网络yolov8训练火焰 烟雾 人检测数据集数据集的训练及应用

以下文字及代码仅供参考。
火焰+烟雾 +人检测数据集 识别YOLO格式标注 1W张
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

YOLOv8 火焰/烟雾/人检测识别检测教程

本教程介绍如何使用 YOLOv8 对火焰/烟雾/人等目标进行识别与检测。涵盖环境配置、数据准备、训练模型、模型推理和部署等全过程。


📦 1. 环境配置

建议使用 Python 3.8+,并确保支持 CUDA 的 GPU 环境。

# 创建并激活虚拟环境(可选)
python -m venv yolov8_env
source yolov8_env/bin/activate  # Windows 用户使用 yolov8_env\Scripts\activate

安装 YOLOv8 官方库 ultralytics

pip install ultralytics

📁 2. 数据准备

2.1 数据标注格式(YOLO)

每张图像对应一个 .txt 文件,每行代表一个目标,格式如下:

<class_id> <x_center> <y_center> <width> <height>

所有值为相对比例(0~1)。

类别编号从 0 开始,例如 crop 为 0,weed 为 1。

2.2 文件结构示例

datasets/
├── images/
│   ├── train/
│   └── val/
├── labels/
│   ├── train/
│   └── val/

2.3 创建 data.yaml 配置文件

path: ./datasets
train: images/train
val: images/val

nc: 2
names: ['crop', 'weed']

🚀 3. 模型训练

YOLOv8 提供多种模型:yolov8n, yolov8s, yolov8m, yolov8l, yolov8x。可根据设备性能选择。

yolo detect train \
  model=yolov8s.pt \
  data=./data.yaml \
  imgsz=640 \
  epochs=50 \
  batch=16 \
  project=weed_detection \
  name=yolov8s_crop_weed
参数类型默认值说明
model字符串-指定基础模型架构文件或预训练权重文件路径(.pt/.yaml
data字符串-数据集配置文件路径(YAML 格式),包含训练/验证路径和类别定义
imgsz整数640输入图像的尺寸(像素),推荐正方形尺寸(如 640x640)
epochs整数100训练总轮次,50 表示整个数据集会被迭代 50 次
batch整数16每个批次的样本数量,值越大需要越多显存
project字符串-项目根目录名称,所有输出文件(权重/日志等)将保存在此目录下
name字符串-实验名称,用于在项目目录下创建子文件夹存放本次训练结果

关键参数补充说明:

  1. model=yolov8s.pt

    • 使用预训练的 YOLOv8 small 版本(平衡速度与精度)
    • 可用选项:yolov8n.pt(nano)/yolov8m.pt(medium)/yolov8l.pt(large)
  2. data=./data.yaml

    # 典型 data.yaml 结构示例
    path: ../datasets/weeds
    train: images/train
    val: images/val
    names:
      0: people
      1: fire
      2: smoke
    

📈 4. 模型验证与测试

4.1 验证模型性能

yolo detect val \
  model=runs/detect/yolov8s_crop_weed/weights/best.pt \
  data=./data.yaml
参数类型必需说明
model字符串要验证的模型权重路径(通常为训练生成的 best.ptlast.pt
data字符串与训练时相同的 YAML 配置文件路径,需包含验证集路径和类别定义

关键参数详解:

  1. model=runs/detect/yolov8s_crop_weed/weights/best.pt

    • 使用训练过程中在验证集表现最好的模型权重(best.pt
    • 替代选项:last.pt(最终epoch的权重)
    • 路径结构说明:
      runs/detect/
      └── [训练任务名称]/
          └── weights/
              ├── best.pt   # 验证指标最优的模型
              └── last.pt   # 最后一个epoch的模型
      
  2. data=./data.yaml

    • 必须与训练时使用的配置文件一致
    • 确保验证集路径正确:
      val: images/val  # 验证集图片路径
      names:
        0: crop
        1: weed
      

常用可选参数:

参数示例值作用
batch16验证时的批次大小
imgsz640输入图像尺寸(需与训练一致)
conf0.25置信度阈值(0-1)
iou0.7NMS的IoU阈值
device0/cpu选择计算设备
save_jsonTrue保存结果为JSON文件

典型输出指标:

Class     Images  Instances      P      R      mAP50  mAP50-95
all        100       752      0.891  0.867    0.904    0.672
crop       100       412      0.912  0.901    0.927    0.701
weed       100       340      0.870  0.833    0.881    0.643

4.2 推理测试图像

yolo detect predict \
  model=runs/detect/yolov8s_crop_weed/weights/best.pt \
  source=./datasets/images/val \
  save=True

🧠 5. 自定义推理脚本(Python)

from ultralytics import YOLO
import cv2

# 加载模型
model = YOLO('runs/detect/yolov8s_crop_weed/weights/best.pt')

# 推理图像
results = model('test.jpg')

# 可视化并保存结果
results[0].show()
results[0].save(filename='result.jpg')

🛠 6. 部署建议

✅ 本地运行:通过 Python 脚本直接推理。

🌐 Web API:可用 Flask/FastAPI 搭建检测接口。

📦 边缘部署:YOLOv8 支持导出为 ONNX,便于在 Jetson、RKNN 等平台上部署。

导出示例:

yolo export model=best.pt format=onnx

📌 总结流程

阶段内容
✅ 环境配置安装 ultralytics, PyTorch 等依赖
✅ 数据准备标注图片、组织数据集结构、配置 YAML
✅ 模型训练使用命令行开始训练 YOLOv8 模型
✅ 验证评估检查模型准确率、mAP 等性能指标
✅ 推理测试运行模型检测实际图像目标
✅ 高级部署导出模型,部署到 Web 或边缘设备
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值