NVIDIA TensorRT 是一个高性能的深度学习预测库,适用于Nvidia GPU,可为深度学习推理应用程序提供低延迟和高吞吐量。PaddlePaddle 采用子图的形式对TensorRT进行了集成,即我们可以使用该模块来提升Paddle模型的预测性能。本教程将介绍如何使用TensortRT部署PaddleSlim量化得到的模型,无论是量化训练(QAT)还是离线量化(PTQ)模型均可支持。对于常见图像分类模型,INT8模型的推理速度通常是FP32模型的3.2-6.7倍。
流程步骤如下:
- 产出量化模型:使用PaddleSlim量化训练或离线量化得到量化模型。注意模型中被量化的算子的参数值应该在INT8范围内,但是类型仍为float型。
- 在Nvidia GPU上部署预测:在GPU上以INT8类型进行预测部署。
参考资料:
- PaddleInference NV GPU部署量化模型文档
- 有2种方式获取Paddle预测库,下面进行详细介绍。
-
Paddle预测库官网上提供了不同cuda版本的Linux预测库,可以在官网查看并选择带有TensorRT的预测库版本。
-
下载之后使用下面的方法解压。
tar -xf fluid_inference.tgz
最终会在当前的文件夹中生成fluid_inference/
的子文件夹。
- 如果希望获取最新预测库特性,可以从Paddle github上克隆最新代码,源码编译预测库。
- 可以参考Paddle预测库官网的说明,从github上获取Paddle代码,然后进行编译,生成最新的预测库。使用git获取代码方法如下。
git clone https://github.com/PaddlePaddle/Paddle.git
-
在Nvidia官网下载TensorRT并解压, 本示例以TensorRT 6.0为例。
-
进入Paddle目录后,编译方法如下。
rm -rf build
mkdir build
cd build
cmake .. \
-DWITH_MKL=ON \
-DWITH_MKLDNN=ON \
-DCMAKE_BUILD_TYPE=Release \
-DWITH_INFERENCE_API_TEST=OFF \
-DTENSORRT_ROOT=TensorRT-6.0.1.5 \
-DFLUID_INFERENCE_INSTALL_DIR=LIB_ROOT \
-DON_INFER=ON \
-DWITH_PYTHON=ON
make -j
make inference_lib_dist
其中DFLUID_INFERENCE_INSTALL_DIR
代表编译完成后预测库生成的地址,DTENSORRT_ROOT
代表下载解压后的TensorRT路径。
更多编译参数选项可以参考Paddle C++预测库官网:https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html。
- 编译完成之后,可以在
LIB_ROOT
路径下看到生成了以下文件及文件夹。
LIB_ROOT/
|-- CMakeCache.txt
|-- paddle
|-- third_party
|-- version.txt
其中paddle
就是之后进行TensorRT预测时所需的Paddle库,version.txt
中包含当前预测库的版本信息。
- 可以参考量化训练教程,在训练完成后导出inference model。
inference/
|-- model
|-- params
- 编译命令如下,其中Paddle, TensorRT地址需要换成自己机器上的实际地址。
sh tools/build.sh
具体地,tools/build.sh
中内容如下。
PADDLE_LIB_PATH=trt_inference # change to your path
USE_GPU=ON
USE_MKL=ON
USE_TRT=ON
TENSORRT_INCLUDE_DIR=TensorRT-6.0.1.5/include # change to your path
TENSORRT_LIB_DIR=TensorRT-6.0.1.5/lib # change to your path
if [ $USE_GPU -eq ON ]; then
export CUDA_LIB=`find /usr/local -name libcudart.so`
fi
BUILD=build
mkdir -p $BUILD
cd $BUILD
cmake .. \
-DPADDLE_LIB=${PADDLE_LIB_PATH} \
-DWITH_GPU=${USE_GPU} \
-DWITH_MKL=${USE_MKL} \
-DCUDA_LIB=${CUDA_LIB} \
-DUSE_TENSORRT=${USE_TRT} \
-DTENSORRT_INCLUDE_DIR=${TENSORRT_INCLUDE_DIR} \
-DTENSORRT_LIB_DIR=${TENSORRT_LIB_DIR}
make -j4
PADDLE_LIB_PATH
为下载(fluid_inference
文件夹)或者编译生成的Paddle预测库地址(build/fluid_inference_install_dir
文件夹);TENSORRT_INCLUDE_DIR
和TENSORRT_LIB_DIR
分别代表TensorRT的include和lib目录路径。
- 编译完成之后,会在
build
文件夹下生成可执行文件。
在精度和性能预测中,需要先对数据进行二进制转化。运行脚本如下可转化完整ILSVRC2012 val数据集。使用--local
可以转化用户自己的数据。在Paddle所在目录运行下面的脚本。脚本在官网位置为full_ILSVRC2012_val_preprocess.py
python Paddle/paddle/fluid/inference/tests/api/full_ILSVRC2012_val_preprocess.py --local --data_dir=/PATH/TO/USER/DATASET/ --output_file=/PATH/TO/SAVE/BINARY/FILE
可选参数:
- 不设置任何参数。脚本将下载 ILSVRC2012_img_val数据集,并转化为二进制文件。
- local: 设置便为true,表示用户将提供自己的数据
- data_dir: 用户自己的数据目录
- label_list: 图片路径-图片类别列表文件,类似于
val_list.txt
- output_file: 生成的binary文件路径。
- data_dim: 预处理图片的长和宽。默认值 224。
用户自己的数据集目录结构应该如下
imagenet_user
├── val
│ ├── ILSVRC2012_val_00000001.jpg
│ ├── ILSVRC2012_val_00000002.jpg
| |── ...
└── val_list.txt
其中,val_list.txt 内容应该如下:
val/ILSVRC2012_val_00000001.jpg 0
val/ILSVRC2012_val_00000002.jpg 0
注意:
- 为什么将数据集转化为二进制文件?因为paddle中的数据预处理(resize, crop等)都使用pythong.Image模块进行,训练出的模型也是基于Python预处理的图片,但是我们发现Python测试性能开销很大,导致预测性能下降。为了获得良好性能,在量化模型预测阶段,我们需要使用C++测试,而C++只支持Open-CV等库,Paddle不建议使用外部库,因此我们使用Python将图片预处理然后放入二进制文件,再在C++测试中读出。用户根据自己的需要,可以更改C++测试以直接读数据并预处理,精度不会有太大下降。
相比FP32模型的TensorRT预测,量化模型的预测需要在开启TensorRT时另外设定精度为kInt8
, 核心代码如下:
config.EnableTensorRtEngine(workspace_size, \
batch_size, \
min_subgraph_size, \
paddle::AnalysisConfig::Precision::kInt8, \
false, \
false);
- 执行以下命令,完成一个分类模型的TensorRT预测。
sh tools/run.sh
其中MODEL_DIR
和DATA_FILE
分别代表模型文件和数据文件, 需要在预测时替换为自己实际要用的地址。
可以看到类似下面的预测结果:
I1123 11:30:49.160024 10999 trt_clas.cc:103] finish prediction
I1123 11:30:49.160050 10999 trt_clas.cc:136] pred image class is : 65, ground truth label is : 65
- 修改
tools/run.sh
中的repeat_times大于1,通过多次预测取平均完成对一个模型的TensorRT速度评测。
sh tools/run.sh
可以看到类似下面的评测结果:
I1123 11:40:30.936796 11681 trt_clas.cc:83] finish warm up 10 times
I1123 11:40:30.947906 11681 trt_clas.cc:101] total predict cost is : 11.042 ms, repeat 10 times
I1123 11:40:30.947947 11681 trt_clas.cc:102] average predict cost is : 1.1042 ms
- 执行以下命令,完成对一个模型的TensorRT精度评测。
sh tools/test_acc.sh
同上,在预测时需要将其中路径替换为自己实际要用的地址。
可以看到类似下面的评测结果:
I1123 11:23:11.856046 10913 test_acc.cc:64] 5000
I1123 11:23:50.318663 10913 test_acc.cc:64] 10000
I1123 11:24:28.793603 10913 test_acc.cc:64] 15000
I1123 11:25:07.277580 10913 test_acc.cc:64] 20000
I1123 11:25:45.698241 10913 test_acc.cc:64] 25000
I1123 11:26:24.195798 10913 test_acc.cc:64] 30000
I1123 11:27:02.625052 10913 test_acc.cc:64] 35000
I1123 11:27:41.178545 10913 test_acc.cc:64] 40000
I1123 11:28:19.798691 10913 test_acc.cc:64] 45000
I1123 11:28:58.457620 10913 test_acc.cc:107] final result:
I1123 11:28:58.457688 10913 test_acc.cc:108] top1 acc:0.70664
I1123 11:28:58.457712 10913 test_acc.cc:109] top5 acc:0.89494
GPU: NVIDIA® Tesla® P4
数据集: ImageNet-2012
预测引擎: Paddle-TensorRT
模型 | FP32精度(Top1/Top5) | INT8精度(Top1/Top5) | FP32预测时延(ms) | INT8预测时延(ms) | 量化加速比 |
---|---|---|---|---|---|
MobileNetV1 | 71.00%/89.69% | 70.66%/89.27% | 1.083 | 0.568 | 47.55% |
MobileNetV2 | 72.16%/90.65% | 71.09%/90.16% | 1.821 | 0.980 | 46.19% |
ResNet50 | 76.50%/93.00% | 76.27%/92.95% | 4.960 | 2.014 | 59.39% |