-
Notifications
You must be signed in to change notification settings - Fork 71
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
在COCOTrain2017数据集训练,Val2017测试的AP是27.00,为什么这么低呢? #103
Comments
您好,非常感谢对SparseInst的关注这个主要原因是因为batch size太小了,我们默认的batch size=64,如果降低到batch size=8的话,性能会大幅下降,目前的话,我们有FP16的支持,如果您使用的是3090这样显存较大的GPU(>=24G),您可以采用单卡batch size=32,应该可以获得和batch size=64相当的性能,或者使用较低显存的GPU(<=16G) 可以尝试batch size=16。 |
@wondervictor 您好,我是使用的3090的GPU,采用单卡batch size=16,其他地方都没有更改,得到的结果只有30.39AP,请问怎样可以获得跟你论文中一样的指标(33.4AP)呢?期待您的回复,谢谢。 |
我们默认采用batch=64,如果batch size=16,性能下降会比较明显,如果使用3090 GPU,可以尝试打开FP16采用batch size=32训练。或者保持batch size=16然后延长迭代并相应调整学习率。 |
您好,我按照您说的,尝试打开FP16采用batch size=32训练,会出现以下警告,请问这个要怎么解决呀?期待您的回复,谢谢。Command Line Args: Namespace(config_file='configs/sparse_inst_r50_giam_fp16.yaml', dist_url='tcp://127.0.0.1:49153', eval_only=False, machine_rank=0, num_gpus=1, num_machines=1, opts=['MODEL.WEIGHTS', 'pretrained_models/R-50.pkl', 'SOLVER.AMP.ENABLED', 'True'], resume=False) sys.platform win32 PyTorch built with:
[02/20 12:07:07 detectron2]: Command line arguments: Namespace(config_file='configs/sparse_inst_r50_giam_fp16.yaml', dist_url='tcp://127.0.0.1:49153', eval_only=False, machine_rank=0, num_gpus=1, num_machines=1, opts=['MODEL.WEIGHTS', 'pretrained_models/R-50.pkl', 'SOLVER.AMP.ENABLED', 'True'], resume=False)
[02/20 12:07:07 detectron2]: Full config saved to output/sparse_inst_r50_giam_fp16\config.yaml
|
您好,您的工作我很喜欢,做的非常好。所以我想重新运行程序,复现结果。我只有一张GPU,batchsize=8, learning rate =0.00005, 使用sparse_inst_r50_giam.yaml配置,其余都没有更改,为什么结果这么低呢(您给的结果是33.4AP,我重新训练运行结果却只有27.00AP)。很期待您的回复,谢谢。
The text was updated successfully, but these errors were encountered: