BSN模型是百度自研模型,为视频动作定位问题中proposal的生成提供了解决方案。此模型采用自底向上的方法生成proposal,首先对每一个时序位置分别生成动作开始、动作结束及动作类别的概率,然后组合其中概率高的位置生成候选proposal,最后利用Boundary-Sensitive Proposal特征判别该proposal是否包含的动作。网络由TEM、PGM和PEM三个模块组成,分别用于时序概率预测、BSP特征生成及proposal置信度评估。
BSN的训练数据采用ActivityNet1.3提供的数据集,数据下载及准备请参考数据说明
TEM模块以snippet-level的特征序列作为输入,预测每一个时序位置属于动作开始、动作结束及动作行为的概率。 数据准备完毕后,可以通过如下两种方式启动训练:
export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7
export FLAGS_eager_delete_tensor_gb=0.0
export FLAGS_fraction_of_gpu_memory_to_use=0.98
python train.py --model_name=BsnTem \
--config=./configs/bsn_tem.yaml \
--log_interval=10 \
--valid_interval=1 \
--use_gpu=True \
--save_dir=./data/checkpoints \
--fix_random_seed=False \
--pretrain=$PATH_TO_PRETRAIN_MODEL
bash run.sh train BsnTem ./configs/bsn_tem.yaml
-
从头开始训练,使用上述启动命令行或者脚本程序即可启动训练,不需要用到预训练模型
-
可下载已发布模型model通过
--resume
指定权重存放路径进行finetune等开发
训练策略:
- 采用Adam优化器,初始learning_rate=0.001
- 权重衰减系数为1e-4
- 学习率在迭代次数达到4200的时候做一次衰减
PEM模块以PGM模块输出的BSP特征作为输入,输出proposal包含动作类别的置信度。 数据准备完毕后,可以通过如下两种方式启动训练:
export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7
export FLAGS_eager_delete_tensor_gb=0.0
export FLAGS_fraction_of_gpu_memory_to_use=0.98
python train.py --model_name=BsnPem \
--config=./configs/bsn_pem.yaml \
--log_interval=10 \
--valid_interval=1 \
--use_gpu=True \
--save_dir=./data/checkpoints \
--fix_random_seed=False \
--pretrain=$PATH_TO_PRETRAIN_MODEL
bash run.sh train BsnPem ./configs/bsn_pem.yaml
-
请先运行TEM模块评估代码(),该代码会自动调用PGM模块生成PEM模块运行所需的BSP特征,特征的默认存储路径为data/output/PGM_feature。
-
从头开始训练,使用上述启动命令行或者脚本程序即可启动训练,不需要用到预训练模型
-
可下载已发布模型model通过
--resume
指定权重存放路径进行finetune等开发
训练策略:
- 采用Adam优化器,初始learning_rate=0.01
- 权重衰减系数为1e-5
- 学习率在迭代次数达到6000的时候做一次衰减
TEM模块可通过如下两种方式进行模型评估:
python eval.py --model_name=BsnTem \
--config=./configs/bsn_tem.yaml \
--log_interval=1 \
--weights=$PATH_TO_WEIGHTS \
--use_gpu=True
bash run.sh eval BsnTem ./configs/bsn_tem.yaml
-
使用
run.sh
进行评估时,需要修改脚本中的weights
参数指定需要评估的权重。 -
若未指定
--weights
参数,脚本会下载已发布模型model进行评估 -
上述程序会将运行结果保存在data/output/TEM_results文件夹下,同时调用PGM模块生成proposal和BSP特征,分别保存在data/output/PGM_proposals和data/output/PGM_feature路径下。
-
使用CPU进行评估时,请将上面的命令行或者run.sh脚本中的
use_gpu
设置为False
PEM模块可通过如下两种方式进行模型评估:
python eval.py --model_name=BsnPem \
--config=./configs/bsn_pem.yaml \
--log_interval=1 \
--weights=$PATH_TO_WEIGHTS \
--use_gpu=True
bash run.sh eval BsnPem ./configs/bsn_pem.yaml
-
使用
run.sh
进行评估时,需要修改脚本中的weights
参数指定需要评估的权重。 -
若未指定
--weights
参数,脚本会下载已发布模型model进行评估 -
上述程序会将运行结果保存在data/output/PEM_results文件夹下,测试结果保存在data/evaluate_results/bsn_results_validation.json文件中。使用ActivityNet官方提供的测试脚本,即可计算AR@AN、AUC和mAP。具体计算过程请参考指标计算
-
使用CPU进行评估时,请将上面的命令行或者run.sh脚本中的
use_gpu
设置为False
在ActivityNet1.3数据集下评估精度如下:
AR@1 | AR@5 | AR@10 | AR@100 | AUC |
---|---|---|---|---|
32.54 | 47.97 | 55.17 | 75.01 | 66.64% |
TEM模块可通过如下两种方式启动模型推断:
python predict.py --model_name=BsnTem \
--config=./configs/bsn_tem.yaml \
--log_interval=1 \
--weights=$PATH_TO_WEIGHTS \
--filelist=$FILELIST \
--use_gpu=True
bash run.sh predict BsnTem ./configs/bsn_tem.yaml
-
使用python命令行启动程序时,
--filelist
参数指定待推断的文件列表,如果不设置,默认为data/dataset/bmn/infer.list。--weights
参数为训练好的权重参数,如果不设置,程序会自动下载已训练好的权重。这两个参数如果不设置,请不要写在命令行,将会自动使用默认值。 -
使用
run.sh
进行评估时,需要修改脚本中的weights
参数指定需要用到的权重。 -
若未指定
--weights
参数,脚本会下载已发布模型model进行推断。 -
上述程序会将运行结果保存在data/output的子目录TEM_results、PGM_proposals、PGM_feature中。
-
使用CPU进行推断时,请将命令行或者run.sh脚本中的
use_gpu
设置为False
PEM模块可通过如下两种方式启动模型推断:
python predict.py --model_name=BsnPem \
--config=./configs/bsn_pem.yaml \
--log_interval=1 \
--weights=$PATH_TO_WEIGHTS \
--filelist=$FILELIST \
--use_gpu=True
bash run.sh predict BsnPem ./configs/bsn_pem.yaml
-
使用python命令行启动程序时,
--filelist
参数指定待推断的文件列表,如果不设置,默认为data/dataset/bmn/infer.list。--weights
参数为训练好的权重参数,如果不设置,程序会自动下载已训练好的权重。这两个参数如果不设置,请不要写在命令行,将会自动使用默认值。 -
使用
run.sh
进行评估时,需要修改脚本中的weights
参数指定需要用到的权重。 -
若未指定
--weights
参数,脚本会下载已发布模型model进行推断。 -
上述程序会将运行结果保存在data/output/PEM_results文件夹下,测试结果保存在data/predict_results/bsn_results_test.json文件中。
-
使用CPU进行推断时,请将命令行或者run.sh脚本中的
use_gpu
设置为False
- Lin T, Zhao X, Su H, et al. Bsn: Boundary sensitive network for temporal action proposal generation[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 3-19.