Skip to content

Latest commit

 

History

History
150 lines (108 loc) · 7.21 KB

File metadata and controls

150 lines (108 loc) · 7.21 KB

inception_v3

inception_v3: Rethinking the Inception Architecture for Computer Vision

Model Arch

pre-processing

inception_v3系列网络的预处理操作可以按照如下步骤进行,即先对图片进行resize至342的尺寸,然后利用CenterCrop算子crop出299的图片对其进行归一化、减均值除方差等操作。需要注意的是,inception_v3系列所用到的均值方差与其他resnet、vgg等网络所用的均值方差有所不同

[
    torchvision.transforms.Resize(342),
    torchvision.transforms.CenterCrop(299),
    torchvision.transforms.ToTensor(),
    torchvision.transforms.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5],),
]

post-processing

inception_v3系列网络的后处理操作是对网络输出进行softmax作为每个类别的预测值,然后根据预测值进行排序,选择topk作为输入图片的预测分数以及类别

backbone

inception_v3在之前的基础上增加:

  • 标签平滑
  • 将大卷积分解成小卷积,使得在感受野不变的情况下,减少参数的计算量
  • max pooling层在下采样会导致信息损失大,于是设计成计算输入A的卷积结果,计算输入A的pooling结果,并且将卷积的结果与池化的结果concat。这样减少计算量又减少信息损失。

head

inception_v3系列网络的head层由global-average-pooling层和一层全连接层组成

common

  • inception_v3架构

Model Info

模型性能

模型 源码 top1 top5 flops(G) params(M) input size
inception_v3 torchvision 77.294 93.450 11.021 27.200 299
inception_v3 timm 77.438 93.476 11.498 23.830 299
tf_inception_v3 timm 77.852 93.640 11.498 23.830 299
adv_inception_v3 timm 77.578 93.738 11.498 23.830 299
gluon_inception_v3 timm 78.806 94.370 11.498 23.830 299
inception_v3 ppcls 79.100 94.600 11.460 23.830 299

测评数据集说明

ImageNet 是一个计算机视觉系统识别项目,是目前世界上图像识别最大的数据库。是美国斯坦福的计算机科学家,模拟人类的识别系统建立的。能够从图片中识别物体。ImageNet是一个非常有前景的研究项目,未来用在机器人身上,就可以直接辨认物品和人了。超过1400万的图像URL被ImageNet手动注释,以指示图片中的对象;在至少一百万张图像中,还提供了边界框。ImageNet包含2万多个类别; 一个典型的类别,如“气球”或“草莓”,每个类包含数百张图像。

ImageNet数据是CV领域非常出名的数据集,ISLVRC竞赛使用的数据集是轻量版的ImageNet数据集。ISLVRC2012是非常出名的一个数据集,在很多CV领域的论文,都会使用这个数据集对自己的模型进行测试,在该项目中分类算法用到的测评数据集就是ISLVRC2012数据集的验证集。在一些论文中,也会称这个数据叫成ImageNet 1K或者ISLVRC2012,两者是一样的。“1 K”代表的是1000个类别。

评价指标说明

  • top1准确率: 测试图片中最佳得分所对应的标签是正确标注类别的样本数除以总的样本数
  • top5准确率: 测试图片中正确标签包含在前五个分类概率中的个数除以总的样本数

Deploy

📝 注:该网络仅在step.1 & step.3部分有区别

step.1 获取模型

  1. timm

    pip install timm==0.6.5
    python ../common/utils/export_timm_torchvision_model.py --model_library timm  --model_name inception_v3 --save_dir ./onnx  --size 299 --pretrained_weights xxx.pth
  2. torchvision

    python ../common/utils/export_timm_torchvision_model.py --model_library torchvision  --model_name inception_v3 --save_dir ./onnx  --size 299 --pretrained_weights xxx.pth
  3. ppcls

     pip install PaddlePaddle==2.3.2  Paddle2ONNX==1.0.0
     paddle2onnx  --model_dir /path/to/inceptionv3_paddle_model/ \
                 --model_filename model.pdmodel \
                 --params_filename model.pdiparams \
                 --save_file model.onnx \
                 --enable_dev_version False \
                 --opset_version 10

step.2 获取数据集

  • 本模型使用ImageNet官网ILSVRC2012的5万张验证集进行测试,针对int8校准数据可从该数据集中任选1000张,为了保证量化精度,请保证每个类别都有数据,请用户自行获取该数据集,ILSVRC2012

    ├── ImageNet
    |   ├── val
    |   |    ├── ILSVRC2012_val_00000001.JPEG
    │   |    ├── ILSVRC2012_val_00000002.JPEG
    │   |    ├── ......
    |   ├── val_label.txt
    
    sh ./data_prep_sh_files/valprep.sh
    # label.txt
    tench, Tinca tinca
    goldfish, Carassius auratus
    ...

step.3 模型转换

  1. 使用模型转换工具vamc, 根据具体模型修改模型转换配置文件, 此处以timm 为例
    vamc build ./vacc_code/build/timm_inceptionv3.yaml

step.4 benchmark

  1. 生成推理数据npz以及对应的datalist.txt

    python ../common/utils/image2npz.py --dataset_path /path/to/ILSVRC2012_img_val --target_path  /path/to/input_npz  --text_path npz_datalist.txt
  2. 性能测试

    ./vamp -m inception_v3-int8-percentile-3_299_299-vacc/inception_v3 --vdsp_params ./vacc_code/vdsp_params/timm-inception_v3-vdsp_params.json  -i 8 -p 1 -b 22
  3. 获取精度信息

    ./vamp -m inception_v3-int8-percentile-3_299_299-vacc/inception_v3 --vdsp_params ./vacc_code/vdsp_params/timm-inception_v3-vdsp_params.json  -i 8 -p 1 -b 22 --datalist npz_datalist.txt --path_output output
  4. 结果解析及精度评估

    python ../common/eval/vamp_eval.py --result_path output  --datalist npz_datalist.txt --label data/label/imagenet.txt