-
Notifications
You must be signed in to change notification settings - Fork 19
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
embedding #1
Comments
|
其实 ,这就类似于用 sber进行召回,在排序,再用glm问答,感觉 主要是在召回这里 和排序,怎么能够更加准确, |
看代码里好像是基于bert得到的embedding表示,不是Sbert预训练模型,或者可以试试Cosent |
是的,就是这个意思 |
我看您直接去的第一列【:,0】,但是我用了 meanpooling 效果比这个要差。。 |
|
确实, |
这样子啊,那如果换成sbert预训练的,或许效果会更好。 |
想顺便请教一下,在用pypdf包读取pdf文件时,遇到过GBK-EUC-H的warning吗 |
我发现很多召回的句子里有问题的答案,也回答不出来了。,。。 不知道是不是因为您对text2chatglm 这里面的都已经去除标点符号了,加上了换行。 |
没有 |
|
我把您的代码里面的去除标点符号那个删除了之后,发现好多都变好了。。。。 |
这个说起来复杂:
看你需求吧,你觉得去掉好一点,就去掉。但是不建议去掉 |
好的,感觉是基于bert预训练模型 只用了Sbert的pool操作,具体我再看看。 |
可以换试一试,后面可以同步一下效果 |
为什么 我换成 sber的取embedding 效果差很多,
The text was updated successfully, but these errors were encountered: