ChatGLM-6B-finetuning
-
Updated
Jun 18, 2023 - Python
ChatGLM-6B-finetuning
A Platform for collection of ai
A Genshin Impact Book Question Answer Project supported by LLM
LangChain+ChatGLM_6B
大语言模型微调的项目,包含了使用QLora微调ChatGLM和LLama
一套代码指令微调大模型
基于ChatGLM-6B,低成本实现类Instruction效果的角色扮演
👽 基于大模型的知识库问答 | Large model-based knowledge base Q&A.
在kaggle部署ChatGLM API,和ChatGPT api使用相同的调用方式
The offical realization of InstructERC
实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。该方案简易高效,目标是使此类语言模型能够低能耗广泛部署,并最终在小模型的基座上发生“智能涌现”,力图最小计算代价达成ChatGPT、GPT4、ChatRWKV等人类友好亲和效果。当前可以满足总结、提问、问答、摘要、改写、评论、扮演等各种需求。
LocalAGI:Locally run AGI powered by LLaMA, ChatGLM and more. | 基于 ChatGLM, LLaMA 大模型的本地运行的 AGI
A full pipeline to finetune ChatGLM LLM with LoRA and RLHF on consumer hardware. Implementation of RLHF (Reinforcement Learning with Human Feedback) on top of the ChatGLM architecture. Basically ChatGPT but with ChatGLM
本次开源为DL-B,是一个基于ChatGLM、Wav2Lip、So-VITS组建的数字形象方案。可以在此基础之上增加其他组件达到数字生命的效果。This open source is DL-B, which is a digital image scheme based on ChatGLM, Wav2Lip and So-VITS. On this basis, other components can be added to achieve the effect of digital life.
夫子•明察司法大模型是由山东大学、浪潮云、中国政法大学联合研发,以 ChatGLM 为大模型底座,基于海量中文无监督司法语料与有监督司法微调数据训练的中文司法大模型。该模型支持法条检索、案例分析、三段论推理判决以及司法对话等功能,旨在为用户提供全方位、高精准的法律咨询与解答服务。
🛰️ 基于真实医疗对话数据在ChatGLM上进行LoRA、P-Tuning V2、Freeze、RLHF等微调,我们的眼光不止于医疗问答
Add a description, image, and links to the chatglm-6b topic page so that developers can more easily learn about it.
To associate your repository with the chatglm-6b topic, visit your repo's landing page and select "manage topics."