less than 1 minute read

目标检测资源目标检测概述
模型的调参训练技巧其实说白了就是怎么让模型得到的是数据全集的稀疏分布,且和别的类别有比较好的区分,也就是类内差小类间差则尽量大;以这个为核心,告诉模型应该关注什么,少关注什么,既然是数据的科学,多关注数据的分布和呈现的状态

预训练、调参

1 数据分析

  • 图像:
    • 宽高频次图
      决定图片预处理方式;例如:像宫颈癌病理图属于高分辨率图片,那后续就得切小图准备合适的数据
      了解数据采样方式;例如:在水下检测赛里,就发现虽然有5种不同的宽高搭配,但它们的宽高比就两种:1.22和1.78,说明其水下拍摄采样的设备可能就有两种画幅宽高比,只是画幅大小可能比较多变,导致出现宽高比相同下但分辨率不同的图片;
      b. 可视化:了解数据真实质量,采样环境等
  • 类别标签
    • 类别频次图:是否存在类别不平衡问题,如果类别严重不平衡,可能需要做额外的数据增广操作,最好研究下类别不平衡的原因,有可能是重复图片或者标注问题导致的,例如Kaggle上的鲸鱼尾巴分类大赛,它数据集中存在很多重复的图片,而且同一张图片存在多类别标注
  • 标注框
    • 宽高散点图:在训练尺度设置下,判断模型感受野是否设置合理;在训练模型前,图片往往要被Resize到给定的训练尺度(或多尺度),那么在绘制散点图前,要先将原标注框Resize到最大的给定尺度下,去绘制它Resize后的标注框宽高分布图;之后选取Backbone模型时,应考虑模型感受野尽量大于多数标注框的长边
    • 各类下宽高比频次图:是否个别类别存在极端宽高比情况,极端宽高比需要对锚点框相关默认设置(即Anchor Ratio 和 Anchor Scale)进行调整
    • 各类下框面积大小频次图:了解数据大/中/小目标的情况,尤其注意小目标,其次是大目标;小目标难检测;而在高分辨率上的过大目标可能需要合适的手段进行切分,例如宫颈癌切片里的Candida异常细胞(大多数目标的宽/高大于1000)

以上只是一些基本需要做的数据研究操作,但事实上,数据的处理还要基于数据的特殊性做额外的补充研究;这块数据研究的一些内容可以参考下郑烨选手在天池上的分享

目标检测和感受野的总结与想法
目标检测数据可视化,分析anchor_ratio的设置问题
小目标检测的数据增广秘籍
PAA:用于目标检测的IoU预测的概率Anchor分配

2 预处理

2.1 图像增强

操作 效果
仿射变换、裁剪、翻转、扩充、颜色抖动 丰富样本的分布
叠加:高斯、椒盐 提升对有干扰、成像质量差的检出能力
边缘增强:canny  
擦除:一块 BFENet,应对遮挡情况
Mix up  
Cut up  
Random earse  
CutMix  
物体的随机粘贴  
多尺度训练:多尺度输入  
   
   

2.2 数据融合

3 超参

标注框,外扩几个像素,模型精度会更稳定;

3.1 anchor

yolo:ground truth 聚类;
有人问过我为啥我只训练一类的检测,然后重新计算的anchor6个或者9个anchor尺寸差的都不大,但是在实际检测的时候,却检测不到东西;我的结论是:对anchor的设计应该是基于模型作者默认的anchor进行微调而不是完全的重新计算;
原因:大家都知道,yolov3来说,输出是三个特征图,分别对应小目标,中目标和大目标;比如我们要检测的目标在图像中占比我们人眼感觉应该是比较大的,然后我们统计的框也都是比较大的尺寸,但是在实际训练的时候,并不是说大目标就一定由yolov3的最初设计的大目标输出层输出的;很可能就是由中间目标层输出的,而因为anchor的设计过大,导致训练的网络不收敛的有之,明明收敛了,却检测不到目标的情况也有之;

解决办法:在设计anchor的时候,首先统计目标框的分布,然后进行聚类,聚类后替换或修改原有的9个anchor中和你计算的anchor相近的几个原有的anchor值;然后再训练,如果框还是不够紧缩,再对某几个框进行精调就可以了,核心思路就是:anchor的分布也要满足对全集的稀疏覆盖而不仅仅是你的当前数据集;

3.2 学习率衰减

学习率的衰减,有很多的方式,按已迭代步长的,按当前损失值的,按训练集当前损失值和测试集计算的损失值的gap差值做修正项的;
那么,什么时候自动调整,什么时候手动调整;

4 训练策略

4.1 基本技巧

Warm Up
Multi Scale Training/Testing
Cosine学习率衰减
large batch BN
DropOut, DropPath,Spatial DropOut ,DropBlock
BN、CGBN、GN、LN、CmBN
L1/L2
Early stopping

4.2 大数据下训练模型

用比较少的数据训练的时候很快到了97%的MAP,但是换300w的大数据集的训练以后,卡在93%上不去了;
warm up,也就是说在大数据下训练模型的时候,可以先从大数据集上取一部分数据训练模型,然后以这个训练的模型为预训练模型,在大数据集上,增大batch_size再进行训练,至少没卡在93%这个问题上了;

损失函数变化曲线图,在曲线图中,数据集的稀疏程度能通过损失曲线的震荡情况有一定的反映,如果有个别的跳点,多为数据集中的坏数据(标记错误数据),当我们的损失图呈现为震荡–阶跃–在另一个损失值附近震荡时,就要注意了,此时多半是因为你的数据集在做打乱的时候数据并没有打的很散,可以在这个位置先停止训练并记录当前状态,再降低学习率,继续训练,等训练数据再次开始恢复之前的震荡位置时,再恢复学习率训练;

这样操作的原因是为了避免在参数中引入过大的噪声,噪声分两种,一种就是错误的数据,比如背景啊,像目标但是不是目标的东西,还有就是多类别训练的时候,对每个类别来说,其余类别也算是噪声的一种;所以采用要么把数据集弄好(这个很难,我也没看过谁的文章里真的能说清把训练集弄好是啥样的),要么加大batch,要么就训练时候注意;

4.3 困难样本挖掘

OHEM
S-OHEM

4 模型

4.1 loss

Label Smoothing

5 后处理

5.1 nms

关注一下两个框的中心点距离,可以设置中心点距离超过多少的两个框,不做nms;这样就能避免挨的近的物体被优化掉;

6 提升定位精度

IOU Loss、GIOU Loss、CIOU Loss、DIOU Loss
Soft NMS、Softer NMS
Balanced L1 Loss


TOP

附录

A 参考资料

  1. 目标检测比赛中的tricks
  2. 目标检测比赛提高mAP的方法
  3. GiantPandaCV. 【无痛涨点】目标检测优化的实用Trick[EB/OL]. https://www.ershicimi.com/p/e79b17d878d438648a059f5b999b86c9. 2020-09-15/2020-10-26.
  4. 目标检测任务的优化策略tricks
  5. PPYOLO
  6. 目标检测类算法比赛的经验总结
  7. 天池CV赛事老司机,手把手带你入门目标检测赛题

Comments