前期准备

  1. 安装anaconda
  2. 配置环境变量(PATH,..\Anaconda\Scripts,..\Anaconda,..\Anaconda\Library\bin,..\Anaconda\Library\mingw-w64\bin)
  3. 更新conda update —all
  4. 为tensorflow创建新环境 conda create -n tensorflow python=3.8
  5. activate tensorflow deactivate
  6. 安装gpu版本 pip install -i https://pypi.douban.com/simple —upgrade tensorflow
  7. 查看环境 conda info —envs

pytorch 安装

1.安装anaconda和cuda
cuda官网:https://developer.nvidia.com/zh-cn/cuda-downloads
2.安装cudnn
cudnn官网:https://developer.nvidia.com/zh-cn/cudnn
3.检验cuda和cudnn是否安装成功
检验cuda:cmd nvcc-v
徒手搭建神经网络识别手写数字集 - 图1
检验cudnn:将图中exe拖入命令行,产生如下结果
徒手搭建神经网络识别手写数字集 - 图2
徒手搭建神经网络识别手写数字集 - 图3
4.创建环境conda create -n pytorch-gpu python=3.7
5.安装pytorch

  • 进入pytorch官网https://pytorch.org/选择自己版本对应的命令
  • 卸载已安装环境 conda remove -n 环境名 —all
  • 安装 莫名其妙就成功了..
  • 测试是否安装成功:

    import torch
    torch.cuda.is_available()
    torch.__version__
    torch.backends.cudnn.enabled
    
  • 安装其他需要的库

    pip install -i https://pypi.douban.com/simple 
    pip install numpy
    pip install matplotlib
    pip install pandas
    pip install scipy
    pip install seaborn
    pip install opencv-python
    pip install tqdm
    pip install pillow
    pip install tensorboard
    pip install pyyaml
    pip install pandas
    pip install scikit-image
    pip install Cython
    pip install thop
    pip install pycocotools
    

YOLOv5 测试

1.前期准备

1.1准备

在data目录下新建Annotations, images, ImageSets, labels 四个文件夹。
其中images存放的是原始的图片数据集,Annotations存放的是标记后生成的xml文件,labels存放的是保存标记内容的txt文件,ImageSets存放的是训练数据集和测试数据集的分类情况。

├── data
│   ├── Annotations  进行 detection 任务时的标签文件,xml 形式,文件名与图片名一一对应
│   ├── images  存放 .jpg 格式的图片文件
│   ├── ImageSets  存放的是分类和检测的数据集分割文件,包含train.txt, val.txt,trainval.txt,test.txt
│   ├── labels  存放label标注信息的txt文件,与图片一一对应


├── ImageSets(train,val,test建议按照8:1:1比例划分)
│   ├── train.txt  写着用于训练的图片名称
│   ├── val.txt  写着用于验证的图片名称
│   ├── trainval.txt  train与val的合集
│   ├── test.txt  写着用于测试的图片名称

1.2数据集处理

https://blog.csdn.net/youmumzcs/article/details/79657132

1.2.1根目录下新建makeTxt.py,内容如下:

import os
import random


trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

1.2.2新建voc_label.py,根据训练类别更改class

# xml解析包
import xml.etree.ElementTree as ET
import pickle
import os
# os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表
from os import listdir, getcwd
from os.path import join


sets = ['train', 'test', 'val']
classes = ['Bengal', 'Maine_Coon']


# 进行归一化操作
def convert(size, box): # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax)
    dw = 1./size[0]     # 1/w
    dh = 1./size[1]     # 1/h
    x = (box[0] + box[1])/2.0   # 物体在图中的中心点x坐标
    y = (box[2] + box[3])/2.0   # 物体在图中的中心点y坐标
    w = box[1] - box[0]         # 物体实际像素宽度
    h = box[3] - box[2]         # 物体实际像素高度
    x = x*dw    # 物体中心点x的坐标比(相当于 x/原图w)
    w = w*dw    # 物体宽度的宽度比(相当于 w/原图w)
    y = y*dh    # 物体中心点y的坐标比(相当于 y/原图h)
    h = h*dh    # 物体宽度的宽度比(相当于 h/原图h)
    return (x, y, w, h)    # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1]


# year ='2012', 对应图片的id(文件名)
def convert_annotation(image_id):
    '''
    将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长款大小等信息,
    通过对其解析,然后进行归一化最终读到label文件中去,也就是说
    一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去
    labal文件中的格式:calss x y w h  同时,一张图片对应的类别有多个,所以对应的bunding的信息也有多个
    '''
    # 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件
    in_file = open('data/Annotations/%s.xml' % (image_id), encoding='utf-8')
    # 准备在对应的image_id 中写入对应的label,分别为
    # <object-class> <x> <y> <width> <height>
    out_file = open('data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
    # 解析xml文件
    tree = ET.parse(in_file)
    # 获得对应的键值对
    root = tree.getroot()
    # 获得图片的尺寸大小
    size = root.find('size')
    # 如果xml内的标记为空,增加判断条件
    if size != None:
        # 获得宽
        w = int(size.find('width').text)
        # 获得高
        h = int(size.find('height').text)
        # 遍历目标obj
        for obj in root.iter('item'):#函数参数根据xml文件对应配置
            # 获得difficult ??
            difficult = obj.find('difficult').text
            # 获得类别 =string 类型
            cls = obj.find('name').text
            # 如果类别不是对应在我们预定好的class文件中,或difficult==1则跳过
            if cls not in classes or int(difficult) == 1:
                continue
            # 通过类别名称找到id
            cls_id = classes.index(cls)
            # 找到bndbox 对象
            xmlbox = obj.find('bndbox')
            # 获取对应的bndbox的数组 = ['xmin','xmax','ymin','ymax']
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            print(image_id, cls, b)
            # 带入进行归一化操作
            # w = 宽, h = 高, b= bndbox的数组 = ['xmin','xmax','ymin','ymax']
            bb = convert((w, h), b)
            # bb 对应的是归一化后的(x,y,w,h)
            # 生成 calss x y w h 在label文件中
            out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


# 返回当前工作目录
wd = getcwd()
print(wd)


for image_set in sets:
    '''
    对所有的文件数据集进行遍历
    做了两个工作:
    1.将所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去,方便定位
    2.同时对所有的图片文件进行解析和转化,将其对应的bundingbox 以及类别的信息全部解析写到label 文件中去
         最后再通过直接读取文件,就能找到对应的label 信息
    '''
    # 先找labels文件夹如果不存在则创建
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    # 读取在ImageSets/Main 中的train、test..等文件的内容
    # 包含对应的文件名称
    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
    # 打开对应的2012_train.txt 文件对其进行写入准备
    list_file = open('data/%s.txt' % (image_set), 'w')
    # 将对应的文件_id以及全路径写进去并换行
    for image_id in image_ids:
        list_file.write('data/images/%s.jpg\n' % (image_id))
        # 调用  year = 年份  image_id = 对应的文件名_id
        convert_annotation(image_id)
    # 关闭文件
    list_file.close()

# os.system(‘comand’) 会执行括号中的命令,如果命令成功执行,这条语句返回0,否则返回1
# os.system("cat 2007_train.txt 2007_val.txt 2012_train.txt 2012_val.txt > train.txt")
# os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")

图片中的name项是在object里的item里,解释55行注释
image.png
执行上面的两个.py文件,训练数据集处理完毕

1.3 配置文件修改

1.3.1数据集相关文件修改

将data下的coco.yml拷贝一份至data目录下并重命名为cat.yml,更改其部分参数如下

# COCO 2017 dataset http://cocodataset.org
# Train command: python train.py --data coco.yaml
# Default dataset location is next to /yolov5:
#   /parent_folder
#     /coco
#     /yolov5


# download command/URL (optional)
#download: bash data/scripts/get_coco.sh

# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: data/train.txt  # 118287 images
val: data/val.txt  # 5000 images
test: data/test.txt  # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794

# number of classes
nc: 2

# class names
names: [ 'Bengal','Maine_Coon' ]

# Print classes
# with open('data/coco.yaml') as f:
#   d = yaml.load(f, Loader=yaml.FullLoader)  # dict
#   for i, x in enumerate(d['names']):
#     print(i, x)

1.3.2 网络相关配置文件修改

修改内容如下(其实只修改了类别数nc)

# parameters
nc: 2  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple

1.3.3 train.py中一些参数修改

最后,在根目录中对train.py中的一些参数进行修改,主要参数解释如下。我们平时训练的话,主要用到的只有这几个参数而已:–weights,–cfg,–data,–epochs,–batch-size,–img-size,–project。

parser = argparse.ArgumentParser()
    # 加载的权重文件
    parser.add_argument('--weights', type=str, default='yolov5s.pt', help='initial weights path')
    # 模型配置文件,网络结构,使用修改好的yolov5m.yaml文件
    parser.add_argument('--cfg', type=str, default='model/yolov5s.yaml', help='model.yaml path')
    # 数据集配置文件,数据集路径,类名等,使用数据集方面的cat.yaml文件
    parser.add_argument('--data', type=str, default='data/cat.yaml', help='data.yaml path')
    # 超参数文件
    parser.add_argument('--hyp', type=str, default='data/hyp.scratch.yaml', help='hyperparameters path')
    # 训练总轮次,1个epoch等于使用训练集中的全部样本训练一次,值越大模型越精确,训练时间也越长。
    parser.add_argument('--epochs', type=int, default=300)
    # 批次大小,一次训练所选取的样本数,显卡垃圾的话,就调小点
    parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs')
    # 输入图片分辨率大小,nargs='+'表示参数可设置一个或多个
    parser.add_argument('--img-size', nargs='+', type=int, default=[640, 640], help='[train, test] image sizes')
    # 是否采用矩形训练,默认False,开启后可显著的减少推理时间
    parser.add_argument('--rect', action='store_true', help='rectangular training')
    # 接着打断训练上次的结果接着训练
    parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
    # 不保存模型,默认False
    parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
    # 不进行test,默认False
    parser.add_argument('--notest', action='store_true', help='only test final epoch')
    # 不自动调整anchor,默认False
    parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
    # 是否进行超参数进化,默认False
    parser.add_argument('--evolve', action='store_true', help='evolve hyperparameters')
    # 谷歌云盘bucket,一般不会用到
    parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
    # 是否提前缓存图片到内存,以加快训练速度,默认False
    parser.add_argument('--cache-images', action='store_true', help='cache images for faster training')
    # 选用加权图像进行训练
    parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
    # 训练的设备,cpu;0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)。值为空时,训练时默认使用计算机自带的显卡或CPU
    parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
    # 是否进行多尺度训练,默认False
    parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
    # 数据集是否只有一个类别,默认False
    parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
    # 是否使用adam优化器
    parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
    # 是否使用跨卡同步BN,在DDP模式使用
    parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
    # gpu编号
    parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
    # dataloader的最大worker数量
    parser.add_argument('--workers', type=int, default=0, help='maximum number of dataloader workers')
    # 训练结果所存放的路径,默认为runs/train
    parser.add_argument('--project', default='runs/train', help='save to project/name')

    parser.add_argument('--entity', default=None, help='W&B entity')
    # 训练结果所在文件夹的名称,默认为exp
    parser.add_argument('--name', default='exp', help='save to project/name')
    # 若现有的project/name存在,则不进行递增
    parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
    parser.add_argument('--quad', action='store_true', help='quad dataloader')
    parser.add_argument('--linear-lr', action='store_true', help='linear LR')
    parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')
    parser.add_argument('--upload_dataset', action='store_true', help='Upload dataset as W&B artifact table')
    parser.add_argument('--bbox_interval', type=int, default=-1, help='Set bounding-box image logging interval for W&B')
    parser.add_argument('--save_period', type=int, default=-1, help='Log model after every "save_period" epoch')
    parser.add_argument('--artifact_alias', type=str, default="latest", help='version of dataset artifact to be used')
    opt = parser.parse_args()

1.4 训练模型

1.4.1 出现的一些问题及解决

[WinError 1455] 页面文件太小,无法完成操作 解决:调整虚拟内存
num_workers数量调为0 ,不支持多线程
gpu编号参数不要改
device参数不要改

1.4.2 训练过程

在训练中,也可以随时查看每一轮次训练的结果,可利用tensorboard可视化训练过程,训练开始时会在runs/train/exp文件夹中产生一个“events.out.tfevents.1608924773.JWX.5276.0”文件,利用tensorboard打开即可查看训练日志。首先我们通过cmd进去该YOLOv5所在的项目文件夹,然后激活所用的虚拟环境,输入如下命令行:

tensorboard --logdir runs/train/exp

到这一步后,我们就可打开 http://localhost:6006/ 网页查看每一轮次训练的结果,如图所示。我这里由于数据过少(只有62张)的原因,所有模型训练的很不精准。如果是用于正常工作的情况下,所需的数据集至少要上千张图片。
如果不更改训练结果所产生的路径的话,训练好后会在runs/train/exp文件夹得到如下文件,其中,我们训练好的权重为weights文件夹中的best.pt和last.pt文件,顾名思义,best.pt是训练300轮后所得到的最好的权重,last.pt是最后一轮训练所得到的权重。
image.png

1.5 实现检测

调整detect.py中的参数,主要用–weights,–source,–conf-thres,–project

 parser = argparse.ArgumentParser()
    # 选用训练的权重,可用根目录下的yolov5s.pt,也可用best.pt或last.pt
    parser.add_argument('--weights', nargs='+', type=str, default='best.pt', help='model.pt path(s)')
    # 检测数据,可以是图片/视频路径,也可以是'0'(电脑自带摄像头),也可以是rtsp等视频流
    parser.add_argument('--source', type=str, default='data/images', help='source')  # file/folder, 0 for webcam
    # 网络输入图片大小
    parser.add_argument('--img-size', type=int, default=640, help='inference size (pixels)')
    # 置信度阈值,检测到的对象属于特定类(狗,猫,香蕉,汽车等)的概率
    parser.add_argument('--conf-thres', type=float, default=0.25, help='object confidence threshold')
    # 做nms的iou阈值
    parser.add_argument('--iou-thres', type=float, default=0.45, help='IOU threshold for NMS')
    # 检测的设备,cpu;0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)。值为空时,训练时默认使用计算机自带的显卡或CPU
    parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
    # 是否展示检测之后的图片/视频,默认False
    parser.add_argument('--view-img', action='store_true', help='display results')
    # 是否将检测的框坐标以txt文件形式保存,默认False
    parser.add_argument('--save-txt', action='store_true', help='save results to *.txt')
    # 是否将检测的labels以txt文件形式保存,默认False
    parser.add_argument('--save-conf', action='store_true', help='save confidences in --save-txt labels')
    parser.add_argument('--nosave', action='store_true', help='do not save images/videos')
    # 设置只保留某一部分类别,如0或者0 2 3
    parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --class 0, or --class 0 2 3')
    # 进行nms是否也去除不同类别之间的框,默认False
    parser.add_argument('--agnostic-nms', action='store_true', help='class-agnostic NMS')
    # 推理的时候进行多尺度,翻转等操作(TTA)推理
    parser.add_argument('--augment', action='store_true', help='augmented inference')
    # 如果为True,则对所有模型进行strip_optimizer操作,去除pt文件中的优化器等信息,默认为False
    parser.add_argument('--update', action='store_true', help='update all models')
    # 检测结果所存放的路径,默认为runs/detect
    parser.add_argument('--project', default='runs/detect', help='save results to project/name')
    # 检测结果所在文件夹的名称,默认为exp
    parser.add_argument('--name', default='exp', help='save results to project/name')
    # 若现有的project/name存在,则不进行递增
    parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')