Skip to content

请教增量预训练后的两个问题:1)token长尾 2)group texts #83

@Zagreus-lzy

Description

@Zagreus-lzy

Describe the Question

Please provide a clear and concise description of what the question is.

二次预训练的领域文本背景是游戏应用。
模型是chatglm-6b,数据量为4w条QA样本,训练方式为lora+自回归。

目前遇到两个问题:
1)增量预训练之后token出现长尾现象,连续输出同一个token,且不会主动停止。
比如:《传奇》是一款MMO类游戏,全新玩法 全新玩法 全新玩法 全新玩法 ...

2)输入数据为“问题+回答”的形式,因为做了group texts,训练后的模型回答中也带有“问题”。
比如:
Q:请介绍一下《王者荣耀》这款游戏?
A:《王者荣耀》是一款......的游戏。请描述一下《和平精英》这款游戏?《和平精英》是一款.....

Metadata

Metadata

Assignees

No one assigned

    Labels

    questionFurther information is requested

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions