We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
微调的方式很多种,但是微调的预训练权重,比如prompt tuning coco的config里面写的是, 但是在huggface里面找不到对应的pth。权重名称对应不上。 就会导致train的时候出现下面的错误: 然后就会导致推理没有结果。
小tips: 根据微调的文件夹,每个config文件对应的权重都能找到在huggface上面对应的名称。
The text was updated successfully, but these errors were encountered:
微调的方式很多种,但是微调的预训练权重,比如prompt tuning coco的config里面写的是, 但是在huggface里面找不到对应的pth。权重名称对应不上。 就会导致train的时候出现下面的错误: 然后就会导致推理没有结果。 小tips: 根据微调的文件夹,每个config文件对应的权重都能找到在huggface上面对应的名称。
prompt tuning coco的微调权重:用simple demo .py 无法推理?
Sorry, something went wrong.
你好,关于微调的预训练权重,我如何确定应该使用那个呢?可以举多几个例子吗?根据他的config文件,我只能得出他使用的哪一个尺度的模型。例如: 则推理出他使用的Large模型。但是具体对应那个large模型,我则不是很清楚...
No branches or pull requests
微调的方式很多种,但是微调的预训练权重,比如prompt tuning coco的config里面写的是,
但是在huggface里面找不到对应的pth。权重名称对应不上。
就会导致train的时候出现下面的错误:
然后就会导致推理没有结果。
小tips:
根据微调的文件夹,每个config文件对应的权重都能找到在huggface上面对应的名称。
The text was updated successfully, but these errors were encountered: