-
Notifications
You must be signed in to change notification settings - Fork 3
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问合并权重时报错应该如何解决 #3
Comments
话说你的上一个issue解决了么? |
我限制了用卡数目为4就能用了,不知道是什么问题,最近紧急搞了一下没时间细看了。另外我发现epoch设置的有问题,我设置为3和6都只保存了step为200的,按道理来讲除了保存中间状态还应该把最后训练完的保存下 |
然后这个generate.py要是能改一下改成和fastchat一样就好了,这个里面还是demo,虽然可以把权重转换好之后就用fastchat了 |
蛤这么神奇么,我反正就是通过拷贝checkpoint解决的 |
这个你要是感兴趣是否可以帮忙提下代码?我更多精力还是放在模型本身上~ |
pytorch_model.bin拷贝到上一级目录之后需要重命名成啥呀,感谢! |
有点忘了,就是上层本来就有个模型,后缀是啥忘了,反正是二进制类型的,应该很好找? |
我这周末可能加到readme里边一下,整个导出的流程 |
感谢你的杰出贡献,并与社区分享你的专业知识。我对你的工作真心表示赞赏。by chatgpt |
把pytorch_model.bin 移到上一级之后改名为adapter_model.bin,然后再把原模型目录下的tokenizer*加到输出目录就可以用fastchat输出了,但是这次用lora训出来的效果很差,但是貌似在tokenizer方面有bug,会输出乱码 |
对,这里也需要改 |
我给你找下 |
tokenlizer (1).zip |
这个我也稍微探索了下才发现有问题的,训练的时候改了tokenlizer,所以不能用llama的默认的了 |
你可以把训练的loss贴一下,基本在1以下或者左右就应该训练的不错了 |
The text was updated successfully, but these errors were encountered: