Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

how to save the models? #3

Open
ZefengHan opened this issue Jan 21, 2019 · 6 comments
Open

how to save the models? #3

ZefengHan opened this issue Jan 21, 2019 · 6 comments

Comments

@ZefengHan
Copy link

how to save the models?

@jiangxinyang227
Copy link
Owner

以Bi-LSTM+Attention为例,你可以将训练模型中注释的代码取消注释就会保存模型了,然后在项目的根路径下创建model/Bi-LSTM的文件夹路径,代码中提供了两种保存模型的方法,tf.train.Saver保存为checkpoint,另一种tf.saved_model.builder保存为pb文件。

@ZefengHan
Copy link
Author

十分感谢。还有一个疑问。以前学习transform时老师说开始的positionembedding和词向量是直接加的关系(对应位置相加),不是拼接关系,好像代码中也没有使用positionembedding?盼复

@jiangxinyang227
Copy link
Owner

不客气,transformer论文中的实现方法确实是相加,而且位置向量是用sin,cos分段函数生成的,这个在代码中有实现,Transformer类中的_positionEmbedding方法实现的就是这个,Transformer中注释的代码就是实现这个位置向量和wordEmbedding相加的。其实这个位置向量有很多可以实现的方法,作者也没有说论文中的方法是最佳实现,在IMDB这个任务中,我尝试的是固定的one-hot位置向量反而效果更好。所以这个位置向量有很多可以做的工作。

@ZefengHan
Copy link
Author

是这样啊 明白啦 代码写的非常全面啊 再次感谢

@WangQi1024
Copy link

请问'Transformer' object has no attribute 'binaryPreds',这个属性在前面没有定义,怎么解决呢?

@jiangxinyang227
Copy link
Owner

已修改,因为这是之前用的变量名,在兼容多分类之后这个变量名就被改了

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants