数据、预训练、微调、部署、测评、应用
书生·浦语大模型 专用模型->通用模型,用一个模型应对多种任务、多种模态.
轻量级:InternLM-7B 79亿参数,社区低成本可用最佳模型规模。
中量集:InternLM-20B 商业场景可开发定制高精度较小模型规模。
重量集:InternLM-128B 通用大语言能力全面覆盖千亿模型规模。
需求->模型参数量级、环境交互(智能体), 成本->算力(全参、部分参数)。
2080显卡可以微调7B模型。
6大维度:学科、语言、知识、理解、推理。安全。
内存开销巨大