iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >yolov3模型训练——使用yolov3训练自己的模型
  • 386
分享到

yolov3模型训练——使用yolov3训练自己的模型

pytorch 2023-09-02 19:09:53 386人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

本文主要讲述了在windows10环境下使用yolov3训练模型的具体步骤 本文主要包括以下内容: 一、程序下载与准备(1)yolov3下载(2)训练集文件夹创建(3)预训练权重下载 二、

本文主要讲述了在windows10环境下使用yolov3训练模型的具体步骤

本文主要包括以下内容:

软件准备:anaconda3,PyCharm

一、程序下载与准备

(1)yolov3下载

yolov3的GitHub地址:yolov3
1.可以点击此处选择自己想要下载的版本(本文以9.5.0为例)
在这里插入图片描述
2.点击左边的download即可下载压缩包
在这里插入图片描述
3.下载并解压后的文件夹如图所示:
在这里插入图片描述
在这里插入图片描述
在pycharm中打开工程目录如下图所示:
在这里插入图片描述

(2)训练集文件夹创建

在yolov3-9.5.0工程文件夹下,新建一个名称为VOCdevkit的文件夹
2.在VOCdevkit文件夹下,新建三个名称分别为imageslabelsVOC2007的文件夹
3.在images和labels文件夹下分别新建两个名为trainval的文件夹
4.在VOC2007文件夹下新建三个名称分别为AnnotationsJPEGImagesYOLOLabels的文件夹
如下图所示:
在这里插入图片描述
Annotations:xml标签文件夹
JPEGImages:图片文件夹
YOLOLabels:txt标签文件夹(yolov训练需要txt格式的标签文件)

(3)预训练权重下载

加载预训练权重进行网络的训练可以减小缩短网络训练时间,并且提高精度。预训练权重越大,训练出来的精度就会越高,但是其检测的速度就会越慢。

预训练权重下载地址:yolov5权重
本文在此处选择下载的是yolov3-tiny.pt
(不同的预训练权重对应着不同的网络层数,我们需要根据预训练权重使用对应的yaml文件,即在之后的训练中需要使用名称为yolov3-tiny.yaml的文件)

在这里插入图片描述
2.将下载好的权重文件保存在weights文件夹中
在这里插入图片描述

二、环境搭建

(1)PyTorch安装

windows10系统中通过anaconda安装pytorch的具体步骤可以阅读此篇博客:
anaconda安装pytorch(anaconda3,Windows10)

(2)将pytorch应用到工程

在上一步中我们通过anaconda安装了pytorch,并将其导入了pycharm,下面我们来将名称为pyotch环境中的编译器应用到工程文件中去。
1.点击文件设置
在这里插入图片描述
2.选择Project Interpreter,选择刚刚导入pycharm的pytorch环境,点击应用,最后点击确认
在这里插入图片描述
这样我们就成功将名称为pytorch环境中的编译器应用到了yolov3-9.5.0工程中

(3)requirements中的依赖包安装

接下来对工程所需的依赖包进行安装,首先打开terminal
在这里插入图片描述
2.复制requirements.txt文件中的命令行:

pip install -r requirements.txt

粘贴在terminal中,并按回车键运行命令行,requirements中的依赖包就开始安装了
在这里插入图片描述

(4)环境搭建可能遇到的问题

1.遇到错误 ERROR: Could not build wheels for pycocotools which use PEP 517 and cannot be installed directly

参考此篇博客中的环境搭建可能遇到的问题部分:
目标检测—基于Yolov5的目标检测项目(学习笔记)
(如有其它错误会后续更新)

三、数据集制作

使用labelimg来制作我们自己的数据集,labelimg的安装和基本操作可以阅读此篇博客:
数据集制作——使用labelimg制作数据集
yolov网络训练所需要的文件格式是txt格式的
如果通过labelimg给数据集打标签时输出为xml格式,可以通过代码将xml格式的标注文件转换为txt格式的标注文件;
如果输出为txt格式的标签文件则可以直接使用。同时训练自己的yolov3检测模型的时候,数据集需要划分为训练集和验证集,也可以通过相关代码实现。
本文以识别两个标签"person"和"har"为例,同时本文的数据集是以基于识别人带安全帽的数据集为例

本文以使用labelimg标注xml格式的标签文件为例:
(打标签过程省略)
1.首先将图片数据集存放在JPEGImages文件夹下;将xml标签文件存放在Annotations文件夹下;即:
JPEGImages里面存放着图片文件
Annotations里面存放着xml格式的标签
如图所示:
在这里插入图片描述

在这里插入图片描述
2.在工程中新建一个python的file,复制粘贴下面的代码并运行,即可将数据集划分为训练集和验证集
(注意将下面代码中的标签种类classes = [“hat”, “person”] 修改为自己的标签,下面代码中训练集占比TRAIN_RATIO = 80为80%)

import xml.etree.ElementTree as ETimport pickleimport osfrom os import listdir, getcwdfrom os.path import joinimport randomfrom shutil import copyfile classes = ["hat", "person"] #标签种类#classes=["ball"] TRaiN_RATIO = 80  #训练集占比 def clear_hidden_files(path):    dir_list = os.listdir(path)    for i in dir_list:        abspath = os.path.join(os.path.abspath(path), i)        if os.path.isfile(abspath):            if i.startswith("._"):                os.remove(abspath)        else:            clear_hidden_files(abspath) def convert(size, box):    dw = 1./size[0]    dh = 1./size[1]    x = (box[0] + box[1])/2.0    y = (box[2] + box[3])/2.0    w = box[1] - box[0]    h = box[3] - box[2]    x = x*dw    w = w*dw    y = y*dh    h = h*dh    return (x,y,w,h) def convert_annotation(image_id):    in_file = open('VOCdevkit/VOC2007/Annotations/%s.xml' %image_id)    out_file = open('VOCdevkit/VOC2007/YOLOLabels/%s.txt' %image_id, 'w')    tree=ET.parse(in_file)    root = tree.getroot()    size = root.find('size')    w = int(size.find('width').text)    h = int(size.find('height').text)     for obj in root.iter('object'):        difficult = obj.find('difficult').text        cls = obj.find('name').text        if cls not in classes or int(difficult) == 1:            continue        cls_id = classes.index(cls)        xmlbox = obj.find('bndbox')        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))        bb = convert((w,h), b)        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')    in_file.close()    out_file.close() wd = os.getcwd()wd = os.getcwd()data_base_dir = os.path.join(wd, "VOCdevkit/")if not os.path.isdir(data_base_dir):    os.mkdir(data_base_dir)work_sapce_dir = os.path.join(data_base_dir, "VOC2007/")if not os.path.isdir(work_sapce_dir):    os.mkdir(work_sapce_dir)annotation_dir = os.path.join(work_sapce_dir, "Annotations/")if not os.path.isdir(annotation_dir):        os.mkdir(annotation_dir)clear_hidden_files(annotation_dir)image_dir = os.path.join(work_sapce_dir, "JPEGImages/")if not os.path.isdir(image_dir):        os.mkdir(image_dir)clear_hidden_files(image_dir)yolo_labels_dir = os.path.join(work_sapce_dir, "YOLOLabels/")if not os.path.isdir(yolo_labels_dir):        os.mkdir(yolo_labels_dir)clear_hidden_files(yolo_labels_dir)yolov5_images_dir = os.path.join(data_base_dir, "images/")if not os.path.isdir(yolov5_images_dir):        os.mkdir(yolov5_images_dir)clear_hidden_files(yolov5_images_dir)yolov5_labels_dir = os.path.join(data_base_dir, "labels/")if not os.path.isdir(yolov5_labels_dir):        os.mkdir(yolov5_labels_dir)clear_hidden_files(yolov5_labels_dir)yolov5_images_train_dir = os.path.join(yolov5_images_dir, "train/")if not os.path.isdir(yolov5_images_train_dir):        os.mkdir(yolov5_images_train_dir)clear_hidden_files(yolov5_images_train_dir)yolov5_images_test_dir = os.path.join(yolov5_images_dir, "val/")if not os.path.isdir(yolov5_images_test_dir):        os.mkdir(yolov5_images_test_dir)clear_hidden_files(yolov5_images_test_dir)yolov5_labels_train_dir = os.path.join(yolov5_labels_dir, "train/")if not os.path.isdir(yolov5_labels_train_dir):        os.mkdir(yolov5_labels_train_dir)clear_hidden_files(yolov5_labels_train_dir)yolov5_labels_test_dir = os.path.join(yolov5_labels_dir, "val/")if not os.path.isdir(yolov5_labels_test_dir):        os.mkdir(yolov5_labels_test_dir)clear_hidden_files(yolov5_labels_test_dir) train_file = open(os.path.join(wd, "yolov5_train.txt"), 'w')test_file = open(os.path.join(wd, "yolov5_val.txt"), 'w')train_file.close()test_file.close()train_file = open(os.path.join(wd, "yolov5_train.txt"), 'a')test_file = open(os.path.join(wd, "yolov5_val.txt"), 'a')list_imgs = os.listdir(image_dir) # list image filesprob = random.randint(1, 100)print("Probability: %d" % prob)for i in range(0,len(list_imgs)):    path = os.path.join(image_dir,list_imgs[i])    if os.path.isfile(path):        image_path = image_dir + list_imgs[i]        voc_path = list_imgs[i]        (nameWithoutExtention, extention) = os.path.splitext(os.path.basename(image_path))        (voc_nameWithoutExtention, voc_extention) = os.path.splitext(os.path.basename(voc_path))        annotation_name = nameWithoutExtention + '.xml'        annotation_path = os.path.join(annotation_dir, annotation_name)        label_name = nameWithoutExtention + '.txt'        label_path = os.path.join(yolo_labels_dir, label_name)    prob = random.randint(1, 100)    print("Probability: %d" % prob)    if(prob < TRAIN_RATIO): # train dataset        if os.path.exists(annotation_path):            train_file.write(image_path + '\n')            convert_annotation(nameWithoutExtention) # convert label            copyfile(image_path, yolov5_images_train_dir + voc_path)            copyfile(label_path, yolov5_labels_train_dir + label_name)    else: # test dataset        if os.path.exists(annotation_path):            test_file.write(image_path + '\n')            convert_annotation(nameWithoutExtention) # convert label            copyfile(image_path, yolov5_images_test_dir + voc_path)            copyfile(label_path, yolov5_labels_test_dir + label_name)train_file.close()test_file.close()

运行此代码,过程如下图所示:(注意数据集文件夹名称要和上文中训练集文件夹创建部分一样,就可以直接复制粘贴运行)
在这里插入图片描述

然后就可以在images和labels文件夹中分别看到已经划分好的图片数据集和标签数据集

四、yolov3模型训练

(1)修改数据配置文件

找到data目录下的voc.yaml文件,将该文件复制一份,将复制的文件重命名,方便后续操作,本文此处修改为hat.yaml
在这里插入图片描述
2.点击hat.yaml文件,修改以下部分:
注释掉语句:download: bash data/scripts/get_voc.sh
修改trainval地址为自己电脑中数据集地址
修改number of classes数值为自己数据集标签的种类个数(本文标签为两类)
修改class names为自己自己数据集标签的种类(本文为hat和person)

在这里插入图片描述

(2)修改模型配置文件

前面选择下载的权重文件为yolov3-tiny.pt,我们需要使用与之相对应的模型配置yaml文件

找到models目录下的yolov3-tiny.yaml文件,将该文件复制一份,将复制的文件重命名,方便后续操作,本文此处修改为yolov3-tiny_hat.yaml
在这里插入图片描述
2.打开yolov3-tiny_hat.yaml文件,将number of classes改为数据集标签的种类(本文数据集识别种类为两类)
在这里插入图片描述

(3)train.py主函数修改

主要修改以下五个函数:
–weights:初始化的权重文件的路径地址
–cfg:模型yaml文件的路径地址
–data:数据yaml文件的路径地址
–epochs:训练次数
–batch-size:一轮训练的文件个数
在这里插入图片描述
1.打开train.py,作以下修改:
修改"–weights"中权重文件地址为文件yolov3-tiny.pt的地址
修改"–cfg"中模型yaml文件的地址为文件yolov3-tiny_hat.yaml的地址
修改"–data"中数据yaml文件的地址为文件hat.yaml的地址

    parser.add_argument('--weights', type=str, default='weights/yolov3-tiny.pt', help='initial weights path')    parser.add_argument('--cfg', type=str, default='models/yolov3-tiny_hat.yaml', help='model.yaml path')    parser.add_argument('--data', type=str, default='data/hat.yaml', help='data.yaml path')

如下图所示:
在这里插入图片描述
" --epochs"和"–batch-size"的数值可以根据GPU情况自行设置

运行train.py,开始训练模型
在加载完train和val的数据集之后,可以看到模型开始训练~
在这里插入图片描述

(4)模型训练可能遇到的问题

1.遇到错误 subprocess.CalledProcessError: Command ‘git tag’ returned non-zero exit status 1.

如下图所示:
在这里插入图片描述
解决方法:
在这里插入图片描述
打开subprocess.py文件,在第410行,将check值修改为False
在这里插入图片描述
点击确定即可
在这里插入图片描述

2.遇到错误 UnicodeDecodeError:: ‘utf-8’ codec can’t decode byte 0xc8 in position 0: invalid contin

如下图所示:
在这里插入图片描述
解决方法:
打开torch_utils.py,在第58行将编码方式改为decode(‘gb2312’)
在这里插入图片描述

3.遇到错误 BrokenPipeError: [Errno 32] Broken pipe

如下图所示:
在这里插入图片描述
解决方法:
在第488行,将’–workers’的值改为0
在这里插入图片描述

4.遇到错误 OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized.

如下图所示:
在这里插入图片描述
解决方法:
在anaconda安装目录的envs文件夹下,找到pytorch环境,进入library的bin文件夹,删除libiomp5md.dll文件
在这里插入图片描述

五、测试结果

训练结束之后,在runs/train/exp/weights目录下会产生两个权重文件,一个是训练效果最好的权重文件,一个是训练最后一轮的权重文件
(接下来以best.pt权重文件为例)
在这里插入图片描述

(1)图片测试步骤

将best.pt权重文件复制粘贴在主目录的weights文件夹下(方便后续操作)
在这里插入图片描述
2.将想进行测试的图片放在主目录的data文件夹下,如图所示:
在这里插入图片描述
3.打开defect.py,更改以下部分:
将"–weight"改为best.pt权重文件的地址(在weights文件夹中)
将"–source"改为要测试的图片地址(在data文件夹中)

parser.add_argument('--weights', nargs='+', type=str, default='weights/best.pt', help='model.pt path(s)')parser.add_argument('--source', type=str, default='data/1.jpg', help='source')  # file/folder, 0 for WEBcam

如图所示:
在这里插入图片描述
4.运行defect.py,即可得到结果;
5.如果识别视频,在将"–source"改为要测试的视频地址即可(注意加.mp4后缀名)
如果识别摄像头,在将"–source"的值置0即可,即:

parser.add_argument('--source', type=str, default='0', help='source')  # file/folder, 0 for webcam

来源地址:https://blog.csdn.net/thy0000/article/details/124579443

--结束END--

本文标题: yolov3模型训练——使用yolov3训练自己的模型

本文链接: https://www.lsjlt.com/news/391312.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • yolov3模型训练——使用yolov3训练自己的模型
    本文主要讲述了在Windows10环境下使用yolov3训练模型的具体步骤 本文主要包括以下内容: 一、程序下载与准备(1)yolov3下载(2)训练集文件夹创建(3)预训练权重下载 二、...
    99+
    2023-09-02
    pytorch
  • yolo_v3训练自己的模型(人脸及de
    做deep-sort多目标跟踪需要结合yolo_v3进行检测行人 由于我的项目中需要对人脸进行检测,所以需要训练针对人脸的模型 训练样本是来自WIDER-FACE人脸库。(有3w+的图片和标注框) deep-sort结合yolo-v3的博...
    99+
    2023-01-31
    自己的 模型 de
  • PaddlePaddle如何使用预训练模型
    PaddlePaddle提供了许多预训练模型,用户可以使用这些模型来进行迁移学习或者在自己的数据集上进行微调。下面是一个使用预训练模...
    99+
    2024-04-02
  • 云服务器训练模型
    云服务器训练模型是指通过使用大规模计算资源(例如 GPU、CPU 和内存)来运行训练好的模型,从而提高模型的性能和可解释性。训练好的模型可以在 LSTM、CNN、Transformer 和 Autoencoder 等深度学习框架上运行,从而...
    99+
    2023-10-26
    模型 服务器
  • pytorch怎么用gpu训练模型
    在PyTorch中使用GPU进行模型训练可以极大地加速训练过程。以下是一些简单的步骤来使用GPU训练模型: 检查是否有可用的GPU...
    99+
    2024-04-02
  • Python实现自动驾驶训练模型
    目录一、安装环境二、配置环境三、训练模型1、数据处理2、搭建模型3、运行结果四、总结 一、安装环境 gym是用于开发和比较强化学习算法的工具包,在python中安装gym库和其中子场...
    99+
    2024-04-02
  • Keras中如何使用预训练模型
    Keras中可以使用预训练模型来进行迁移学习或者微调。以下是使用预训练模型的一般步骤: 导入所需的预训练模型,比如VGG16、Re...
    99+
    2024-04-02
  • PyTorch中如何使用预训练的模型
    在PyTorch中使用预训练的模型可以通过torchvision库中的models模块实现。该模块包含了一些常用的预训练模型,如Re...
    99+
    2024-03-05
    PyTorch
  • pytorch加载预训练模型与自己模型不匹配的解决方案
    pytorch中如果自己搭建网络并且加载别人的与训练模型的话,如果模型和参数不严格匹配,就可能会出问题,接下来记录一下我的解决方法。 两个有序字典找不同 模型的参数和pth文件的参数...
    99+
    2024-04-02
  • pytorch如何调用训练好的模型
    要调用训练好的模型,首先需要加载模型的参数,并将其应用到一个 PyTorch 模型中。以下是一个简单的示例代码,展示如何加载模型参数...
    99+
    2024-04-02
  • 云服务器训练transformer模型
    云服务器训练transformer模型可以使用分布式训练或者集群训练。 分布式训练是指使用多个独立的节点进行训练,每个节点都有自己的模型进行训练。训练数据可以来自多个机器、机器之间的通信以及网络连接状态等信息。分布式训练可以提高训练速度和...
    99+
    2023-10-26
    模型 服务器 transformer
  • windows使用YOLOv8训练自己的模型(0基础保姆级教学)
    目录 前言 一、使用labelimg制作数据集 1.1、下载labelimg 1.2、安装库并启动labelimg 1.4、制作YOLO数据集 二、使用YOLOv8训练模型 2.1、下载库——ultralytics (记得换源) 2.2、数...
    99+
    2023-09-01
    深度学习 人工智能 pycharm python pip
  • 使用网上服务器(AutoDL)训练模型
    一、准备好数据集和网络代码 1.数据集 ①请把数据集放到名为dataset文件夹下;②数据集请压缩,后缀名为.zip;③点击确定 2.代码 ①请把代码放到名为coad文件夹下;②代码请压缩,后缀名为...
    99+
    2023-10-11
    深度学习 pytorch 人工智能
  • 如何将Python训练好的模型保存下来(可使用or继续训练)
    背景描述 Python提供了许多机器学习框架,例如Scikit-learn、TensorFlow和PyTorch。这些框架是使用Python编写的,可以方便地训练模型。但是,模型训练是一项昂贵的任务,...
    99+
    2023-09-04
    python 机器学习 深度学习 保存模型
  • 大模型训练——PEFT与LORA介绍
    大模型训练——PEFT与LORA介绍 0. 简介1. LORA原理介绍2. 补充资料:低显存学习方法3. PEFT对LORA的实现 0. 简介 朋友们好,我是练习NLP两年半的算法工程师常...
    99+
    2023-08-31
    深度学习 人工智能 python
  • 配置使用云服务器训练神经网络模型——在阿里GPU服务器训练yolov5模型
    前言 对于没有GPU训练机的人来讲,使用云服务器训练自己的模型应该最最优选择,只是在训练的时候开个按时计费的服务器,训练完成后保存环境镜像之后,可以完全停掉服务器,期间不产生任何费用,下次再训练时,启...
    99+
    2023-10-09
    服务器 阿里云 远程训练 GPU服务器 yolov5
  • Pytorch如何保存训练好的模型
    本篇内容介绍了“Pytorch如何保存训练好的模型”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!为什么要保存和加载模型用数据对模型进行训练后...
    99+
    2023-07-05
  • DeepLearning4j怎么训练和调参模型
    DeepLearning4j是一个开源的深度学习库,可以用来训练神经网络模型。在DeepLearning4j中,训练神经网络模型通常...
    99+
    2024-04-02
  • pytorch fine-tune 预训练的模型操作
    之一: torchvision 中包含了很多预训练好的模型,这样就使得 fine-tune 非常容易。本文主要介绍如何 fine-tune torchvision 中预训练好的模型。...
    99+
    2024-04-02
  • Lasagne模型训练过程是怎样的
    训练Lasagne模型通常包括以下步骤: 1.准备数据集:首先,需要准备训练数据集和验证数据集。通常会将数据集划分为训练集和验证集,...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作