-
Notifications
You must be signed in to change notification settings - Fork 441
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
使用lora 训练后无效果的问题 #135
Comments
你这新知识进行多轮对话的时候还能记住吗? |
如果训练集里的prompt够长够独特,应该能替换的。如果是通用领域,感觉万步是远远不够的。 |
这得多少步啊。。 |
多轮对话后,会胡说了。。因为他原来里面就一些相似的内容 。 |
对啊,你不做lora的话,问他问题,他也会有一种回复。现在就是想让新学的内容彻底替换原始的训练集的内容,也就是新回答B生成概率远大于原回答C,P(B)>P(C),我理解是有两种思路。 |
我觉得让prompt独特一些比较可行。在使用的时候,可以封装一下用户的提问,这样用户可以无感。 |
是的,感觉langchain就是这种理念,要把LLM做成需要的应用还是要做一些封装的。 |
我已经解决了 |
请问这边是怎么解决的? 增加训练数据吗? |
同问怎么解决的 |
请问不独特的 prompt 要训练很多步,独特的训练少一点吗,要分成两次训练吗,独特的训练步数和不独特的一样,会有什么不好的地方吗 |
请问是怎么解决的 |
蹲 |
如何解决的呢? |
蹲 |
同问这个是怎么解决的,非常感谢 |
我这里准备了1500条alpaca数据,问:你是谁 ,回答:我是XXXXXX
另外有一个新知识 也是1500条数据,
使用lora训练后,新知识 训练几百步后就有效果了,但是想要替换原来6B他里面的内容,已经训练 上万步了,还是替换不到,这是怎么个情况呢。
The text was updated successfully, but these errors were encountered: