基于Paddlex1.3.11API开发
在该项目中,主要向大家介绍如何使用目标检测来实现对钢筋计数。涉及代码亦可用于车辆计数、螺母计数、圆木计数等。
在工地现场,对于进场的钢筋车,验收人员需要对车上的钢筋进行现场人工点根,确认数量后钢筋车才能完成进场卸货。上述过程繁琐、消耗人力且速度很慢。针对上述问题,希望通过手机拍照->目标检测计数->人工修改少量误检的方式智能、高效的完成此任务:
业务难点:
- 精度要求高 钢筋本身价格较昂贵,且在实际使用中数量很大,误检和漏检都需要人工在大量的标记点中找出,所以需要精度非常高才能保证验收人员的使用体验。需要专门针对此密集目标的检测算法进行优化,另外,还需要处理拍摄角度、光线不完全受控,钢筋存在长短不齐、可能存在遮挡等情况。
- 钢筋尺寸不一 钢筋的直径变化范围较大且截面形状不规则、颜色不一,拍摄的角度、距离也不完全受控,这也导致传统算法在实际使用的过程中效果很难稳定。
- 边界难以区分 一辆钢筋车一次会运输很多捆钢筋,如果直接全部处理会存在边缘角度差、遮挡等问题效果不好,目前在用单捆处理+最后合计的流程,这样的处理过程就会需要对捆间进行分割或者对最终结果进行去重,难度较大。
数据集中包含了250张已经标注好的数据,原始数据标注形式为csv格式。该项目采用目标检测的标注方式,在本文档中提供了VOC数据集格式。点击此处下载数据集
更多数据格式信息请参考数据标注说明文档
- 数据切分 将训练集、验证集按照8.5:1.5的比例划分。 PaddleX中提供了简单易用的API,方便用户直接使用进行数据划分。
paddlex --split_dataset --format VOC --dataset_dir dataset --val_value 0.15
数据文件夹切分前后的状态如下:
dataset/ dataset/
├── Annotations/ --> ├── Annotations/
├── JPEGImages/ ├── JPEGImages/
├── labels.txt
├── train_list.txt
├── val_list.txt
PaddleX提供了丰富的视觉模型,在目标检测中提供了RCNN和YOLO系列模型。在本项目中采用YOLO系列作为检测模型进行钢筋计数。
在项目中,我们采用yolov3作为钢筋检测的模型。具体代码请参考train.py。
运行如下代码开始训练模型:
python code/train.py
若输入如下代码,则可在log文件中查看训练日志,log文件保存在code
目标下
python code/train.py > log
- 训练过程说明
- 精度提升 为了进一步提升模型的精度,在项目中采用了一系列模型优化的方式,具体请参考模型优化文档
采用PaddleX在Tesla V100上测试模型的推理时间(输入数据拷贝至GPU的时间、计算时间、数据拷贝至CPU的时间),推理时间如下表所示:(20次推理取平均耗时)
由于参与推理的图片较大,因此预处理时间在Resize处会消耗较多的时间。
模型 | 推理时间 (ms/image) | map(Iou-0.5) | (coco)mmap |
---|---|---|---|
baseline: YOLOv3 - MobileNetV1+label_smooth=False +img_size(480) | 152.40 | 65.3 | 38.3 |
YOLOv3 + MobileNetV1 + label_smooth=True + cluster_yolo_anchor+img_size(480) | 156.86 | 57.4 | 29.0 |
YOLOv3 + ResNet34 + label_smooth=False +cluster_yolo_anchor+ img_size(480) | 154.49 | 66.5 | 37.7 |
PPYOLO + ResNet50_vd_ssld+ label_smooth=False+ cluster_yolo_anchor + img_size(608) | 221.31 | 66.5 | 43.7 |
YOLOv3 + DarkNet53 + label_smooth=False+ img_size(608) | 173.05 | 67.9 | 47.1 |
YOLOv3 + ResNet34 + label_smooth=False + img_size(608) | 161.45 | 69.2 | 48.1 |
注意:
- 608的图像大小,一般使用默认的anchors进行训练和推理即可。
- cluster_yolo_anchor: 来源paddlex2.0API,用于生成拟合数据集的模型anchor
anchors = train_dataset.cluster_yolo_anchor(num_anchors=9, image_size=480)
anchor_masks = [[6, 7, 8], [3, 4, 5], [0, 1, 2]]
优化进展说明:
-
1.通过选择更好的backbone作为特征提取的骨干网络可以提高识别率、降低漏检率。<MobileNetV1 到 ResNet50_vd_ssld>
-
2.通过选择理论上更好的检测架构PPYOLO未获得明显的完全性能提升(
Iou0.5提升不是很大
),但也提高了检测的mmap值——即Neck,Head部分的优化可以提高ap。<YOLOV3 到 PPYOLO> -
3.缩放适当的图像大小可以提高模型的识别率,但是存在一定的阈值——当图像大小到某一个阈值时会导致精度下降。
- 一般图像大小选择(YOLO系列):320,480, 608。
- 一般图像如果较大,物体也比较大,可以较为放心的缩小图像大小再进行相关的训练和预测。
- 物体较小,不易缩小,可以适当的裁剪划分原图或放大,并处理对应的标注数据,再进行训练。
<480到608>
-
4.一般情况通过cluster_yolo_anchor生成当前网络输入图像大小下拟合数据集的预置anchors,利用新生成的anchors替换原来的默认anchor,会使得模型预测定位上框选位置更准确,但是本次实验并未得到提升。
-
5.最初的两个YOLOV3的实验可以发现,本次优化中,如果开启label_smooth,会导致预测ap下降——原因是标签平滑相当于一种正则化,当前模型存在的问题是拟合不够好,因此加入标签平滑会适得其反。
-
通过以上的简单优化方式,获取了两个较好的模型结果:【前者模型体积更小】
-
模型 推理时间 (ms/image) map(Iou-0.5) (coco)mmap baseline: YOLOv3 - MobileNetV1+label_smooth=False +img_size(480) 152.40 65.3 38.3 YOLOv3 + ResNet34 + label_smooth=False + img_size(608) 161.45 69.2 48.1
运行如下代码:
python code/infer.py
则可生成result.txt文件并显示预测结果图片,result.txt文件中会显示图片中每个检测框的位置、类别及置信度,并给出检测框的总个数,从而实现了钢筋自动计数。
预测结果如下:
# 7.模型导出模型训练后保存在output文件夹,如果要使用PaddleInference进行部署需要导出成静态图的模型,运行如下命令,会自动在output文件夹下创建一个inference_model
的文件夹,用来存放导出后的模型。
paddlex --export_inference --model_dir=output/yolov3_resnet34/best_model --save_dir=output/inference_model --fixed_input_shape=[608,608]
注意:设定 fixed_input_shape 的数值需与 eval_transforms 中设置的 target_size 数值上保持一致。
本案例选择面向GPU端的最终方案是选择一阶段检测模型YOLOV3,其骨干网络选择加入了ResNet34,训练阶段数据增强策略采用RandomHorizontalFlip、RandomDistort、RandomCrop等。
在Tesla V100的Linux系统下,模型的推理时间大约为161.45ms/image,包括transform、输入数据拷贝至GPU的时间、计算时间、数据拷贝至CPU的时间。
模型 | 推理时间 (ms/image) | map(Iou-0.5) | (coco)mmap |
---|---|---|---|
YOLOv3 + ResNet34 + label_smooth=False + img_size(608) | 161.45 | 69.2 | 48.1 |
上线模型的PR曲线:
在本项目中的钢筋检测数据中,标注信息错误较少,但是拍摄角度以及光照变化范围较大,从而影响模型的学习。针对本项目的问题而言,钢筋检测中的召回率比较低,而准确率较高。
注意: 通过COCO指标使得评估时对多Iou尺度进行一个较完整的评估,使得得到该评估指标下最好的模型,以期望获得最好的泛化能力。
本案例选择面向移动端的最终方案是选择一阶段检测模型YOLOV3,其骨干网络选择加入了MobileNetV1,训练阶段数据增强策略采用RandomHorizontalFlip、RandomDistort、RandomCrop等。
在Tesla V100的Linux系统下,模型的推理时间大约为152.40ms/image,包括transform、输入数据拷贝至GPU的时间、计算时间、数据拷贝至CPU的时间。
模型 | 推理时间 (ms/image) | map(Iou-0.5) | (coco)mmap |
---|---|---|---|
baseline: YOLOv3 - MobileNetV1+label_smooth=False +img_size(480) | 152.40 | 65.3 | 38.3 |
上线模型的PR曲线:
相对于GPU端上线模型,该模型具有以下优势:
- 模型参数大小仅为: 145MB,而GPU端模型为:253MB。
- 输入图像更小,模型计算时间花销更小。
- 召回率更低,可能有更少的误检——但由于模型轻量化缘故,漏检情况可能会更多一点。
模型部署采用了PaddleX提供的C++ inference部署方案,在改方案中提供了C#部署Demo,用户可根据实际情况自行参考。