Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

书生浦语大模型第四课学习笔记 #5

Open
wade361 opened this issue Jan 23, 2024 · 0 comments
Open

书生浦语大模型第四课学习笔记 #5

wade361 opened this issue Jan 23, 2024 · 0 comments

Comments

@wade361
Copy link
Owner

wade361 commented Jan 23, 2024

书生浦语大模型第四课笔记
XTuner大模型单卡低成本微调实战

1 XTuner是一个大语言模型微调工具箱。由 MMRazor 和 MMDeploy 联合开发。
特点是
 傻瓜化: 以 配置文件 的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调。
  轻量级: 对于 7B 参数量的LLM,微调所需的最小显存仅为 8GB

2实战
Ubuntu + Anaconda + CUDA/CUDNN + 8GB nvidia显卡
安装准备在 oasst1 数据集上微调 internlm-7b-chat
微调
模型下载
数据集下载
修改配置文件
开始微调
将得到的 PTH 模型转换为 HuggingFace 模型,即:生成 Adapter 文件夹
部署与测试
将 HuggingFace adapter 合并到大语言模型
与合并后的模型对话

3 自定义微调
基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调
将数据转为 XTuner 的数据格式
划分训练集和测试集
pth 转 huggingface

4 用 MS-Agent 数据集 赋予 LLM 以 Agent 能力
启动xtuner + agent

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

1 participant