- 目前已囊括83个大模型,覆盖chatgpt、gpt4、谷歌bard、百度文心一言、阿里通义千问、讯飞星火、商汤senseChat、微软new-bing、minimax等商用模型, 以及百川、qwen1.5、belle、chatglm、openbuddy、AquilaChat、vicuna、wizardLM、书生internLM2、llama3等开源大模型。
- 模型来源涉及国内外大厂、大模型创业公司、高校研究机构。
- 支持多维度能力评测,包括分类能力、信息抽取能力、阅读理解能力、数据分析能力、中文编码效率、中文指令遵从。
- 不仅提供能力评分排行榜,也提供所有模型的原始输出结果!有兴趣的朋友可以自己打分、自己排行!
- [2024/6/2] 发布v1.18版本评测榜单
- 新增6个大模型:abab6.5-chat、abab6.5s-chat、deepseek-chat-v2、yi-large、yi-large-turbo、yi-medium
- 中文指令遵从排行榜补充更多模型
- 排行榜删除陈旧的模型
- [2024/5/8] 发布v1.17版本评测榜单
- 新增中文指令遵从排行榜
- 新增4个大模型:Llama-3-8B-Instruct、Llama-3-70B-Instruct、openbuddy-llama3-8b、Phi-3-mini-128k-instruct
- [2024/4/13] 发布v1.16版本评测榜单
- 新增中文编码效率排行榜,同等尺寸大模型,编码效率越高推理速度越快,几乎成正比。
- 模型更新:minimax更新至minimax-abab6-chat
- 新增3个大模型:Qwen1.5-32B-Chat、minimax-abab5.5-chat、minimax-abab5.5s-chat
- [2024/3/20] 发布v1.15版本评测榜单
- 模型更新:gpt3.5更新至最新版本
- 新增8个大模型:gpt-4-turbo、讯飞星火v3.5、MiniCPM-2B-dpo、miniCPM-2B-sft、AquilaChat2-70B-Expr、月之暗面kimichat、谷歌gemma-7b-it、谷歌gemma-2b-it
- 排行榜删除陈旧的模型(比如Baichuan2-53B、chatglm-130b-v1、tulu-30b、belle-llama-13b-2m、belle-llama-13b-ext、openbuddy-llama-30b-v7.1、vicuna-33b等)
- [2024/2/28] 发布v1.14版本评测榜单
- 新增11个大模型:deepseek-llm-67b-chat、baichuan3、internlm2-chat-20b、internlm2-chat-7b、openbuddy-mixtral-7bx8-v17.1以及qwen1.5系列的6个模型
- 排行榜删除陈旧的模型(比如chatglm2-6b、AquilaChat-7B等)
- [2024/1/29] 发布v1.13版本评测榜单
- 模型更新:微软new-bing、文心4.0更新至24年1月版本
- 新增6个大模型:qwen-max、GLM4、BlueLM-7B-Chat、openbuddy-zephyr-7b-v14.1、openbuddy-deepseek-67b-v15.2、XVERSE-65B-Chat
- 排行榜删除陈旧的模型(比如phoenix-inst-chat-7b、BELLE-on-Open-Datasets等)
- [2023/12/10] 发布v1.12版本评测榜单
- 新增7个大模型:Yi-34B-Chat、tigerbot-13b-chat-v4、openbuddy-openllama-3b-v10、Qwen-1_8B-Chat、Yi-6B-Chat、Qwen-72B-Chat、chatglm-turbo
- 新增开源模型细分排行榜:10B以下模型排行榜、10B~20B模型排行榜、20B以上模型排行榜
- [2023/11/22] 发布v1.11版本评测榜单
- 新增4个大模型:openbuddy-mistral-7b-v13.1、Qwen-7B-Chat、Baichuan2-7B-Chat、tigerbot-70b-chat-v3
- 将数据分析能力计入综合得分
- [2023/11/5] 发布v1.10版本评测榜单
- 新增6个大模型:
- 3个商用模型:文心4.0、谷歌bard、讯飞星火v3
- 3个开源模型:aquilachat2-34b、ziya2-13b-chat、chatglm3-6b
- 排行榜删除陈旧的模型(比如第一代chatglm-6b、MOSS等)
- 新增6个大模型:
- [2023/10/11] 发布v1.9版本评测榜单
- 新增7个大模型:
- 3个商用模型:阿里通义千问v1.0.7、豆包、Baichuan2-53B
- 4个开源模型:Baichuan2-13B-Chat、internlm-chat-20b、qwen-14b-chat、tigerbot-70b-chat-v2
- 新增7个大模型:
- [2023/9/13] 发布v1.8版本评测榜单
- 新增7个大模型:
- 2个商用模型:chatglm-std、chatglm-pro
- 5个开源模型:openbuddy-llama-30b-v7.1、openbuddy-llama-65b-v8、openbuddy-llama2-70b-v10.1、xverse-13b-chat、Baichuan-13B-Chat-v2
- 新增7个大模型:
- [2023/8/29] 发布v1.7版本评测榜单
- 新增2个商用大模型:讯飞星火v2.0、Baichuan-53B
- 表格问答(数据分析)能力排行榜:新增21个模型参与排行。
- [2023/8/13] 发布v1.6版本评测榜单,link
- 新增4个大模型:
- 2个商用模型:商汤senseChat、微软new-bing
- 2个基于LLaMA2的开源中文模型:BELLE-Llama2-13B-chat-0.4M、Linly-Chinese-LLaMA2-13B
- 新增4个大模型:
- [2023/7/26] 发布v1.5版本评测榜单,link
- 新增7个大模型:gpt4、文心一言v2.2、vicuna-33b、wizardlm-13b、Ziya-LLaMA-13B-v1.1、InternLM-Chat-7B、Llama-2-70b-chat
- [2023/7/18] 发布v1.4版本评测榜单,link
- 新增3个大模型:tulu-30b、chatglm2-6b、Baichuan-13B-Chat
- [2023/7/2] 发布v1.3版本评测榜单,link
- 新增3个大模型:360智脑、MOSS-003-SFT、AquilaChat-7B
- 讯飞星火更新为最新的v1.5模型
- [2023/6/17] 发布v1.2版本评测榜单,link
- 新增2个大模型:tigetbot-7b官网、linly-chatflow-13b
- 说明做评测榜单的初衷
- [2023/6/10] 发布v1.1版本评测榜单,link
- 新增3个大模型:minimax、guanaco、Phoenix-7b
- 新增表格问答评测维度,作为阅读理解能力的细分项
- [2023/6/4] 发布v1版本评测榜单,link
- 将更多大模型加入评测:Claude、gemini等等
- 增加开源大模型的授权协议,注明能否商用
- 引入更多维度的评测:数学能力、代码能力、开放域问答、多轮对话、头脑风暴、翻译……
- 评测维度更细分,比如信息抽取可以细分时间实体抽取能力、地址实体抽取能力……
- 海纳百川,整合各类评测榜单,扩充细分领域榜单(比如教育领域、医疗领域)
- 加入更多评测数据,使得评测得分越来越有说服力
综合能力得分为分类能力、信息抽取能力、阅读理解能力、数据分析能力四者得分的平均值。
详细数据见total
类别 | 大模型 | 分类能力 | 信息抽取能力 | 阅读理解能力 | 数据分析 | 总分 | 排名 |
---|---|---|---|---|---|---|---|
开源 | Llama-3-8B-Instruct | 86 | 74 | 80.0 | 90.0 | 82.5 | 1 |
开源 | openbuddy-llama3-8b | 78 | 86 | 81.3 | 79.0 | 81.1 | 2 |
开源 | internlm2-chat-7b | 86 | 81 | 72.7 | 82.7 | 80.6 | 3 |
开源 | Baichuan2-7B-Chat | 88 | 76 | 83.3 | 69.0 | 79.1 | 4 |
开源 | openbuddy-zephyr-7b | 82 | 83 | 74.0 | 72.0 | 77.8 | 5 |
开源 | BlueLM-7B-Chat | 82 | 83 | 74.0 | 72.0 | 77.8 | 6 |
开源 | Qwen1.5-7B-Chat | 80 | 76 | 76.0 | 70.7 | 75.7 | 7 |
开源 | 谷歌gemma-7b-it | 72 | 79 | 74.0 | 76.0 | 75.3 | 8 |
开源 | openbuddy-mistral-7b | 79 | 72 | 73.3 | 76.0 | 75.1 | 9 |
开源 | MiniCPM-2B-dpo | 79 | 77 | 74.0 | 66.0 | 74.0 | 10 |
开源 | Qwen-7B-Chat | 89 | 72 | 74.0 | 59.0 | 73.5 | 11 |
开源 | chatglm3-6b | 82 | 68 | 78.7 | 60.0 | 72.2 | 12 |
开源 | Qwen1.5-4B-Chat | 75 | 65 | 79.3 | 63.0 | 70.6 | 13 |
开源 | Phi-3-mini-128k-instruct | 74 | 63 | 65.3 | 73.0 | 68.8 | 14 |
开源 | Yi-6B-Chat | 73 | 71 | 66.0 | 64.7 | 68.7 | 15 |
开源 | miniCPM-2B-sft | 72 | 72 | 77.3 | 53.3 | 68.7 | 16 |
开源 | Qwen-1.8B-Chat | 73 | 66 | 75.3 | 51.3 | 66.4 | 17 |
开源 | openbuddy-openllama-3b | 64 | 60 | 61.3 | 40.7 | 56.5 | 18 |
开源 | 谷歌gemma-2b-it | 56 | 60 | 60.0 | 43.3 | 54.8 | 19 |
开源 | Qwen1.5-1.8B-Chat | 57 | 58 | 52.7 | 48.0 | 53.9 | 20 |
开源 | Qwen1.5-0.5B-Chat | 44 | 40 | 60.0 | 34.7 | 44.7 | 21 |
类别 | 大模型 | 分类能力 | 信息抽取能力 | 阅读理解能力 | 数据分析 | 总分 | 排名 |
---|---|---|---|---|---|---|---|
开源 | Qwen1.5-14B-Chat | 89 | 79 | 90.7 | 90.7 | 87.3 | 1 |
开源 | internlm2-chat-20b | 93 | 80 | 86.0 | 88.0 | 86.8 | 2 |
开源 | tigerbot-13b-chat-v4 | 85 | 82 | 80.0 | 85.0 | 83.0 | 3 |
开源 | BELLE-Llama2-13B-chat-0.4M | 90 | 74 | 76.0 | 79.0 | 79.8 | 4 |
开源 | qwen-14b-chat | 84 | 72 | 84.7 | 77.0 | 79.4 | 5 |
开源 | Baichuan2-13B-Chat | 83 | 83 | 74.7 | 77.0 | 79.4 | 6 |
开源 | xverse-13b-chat | 86 | 72 | 81.3 | 67.0 | 76.6 | 7 |
开源 | Baichuan-13B-Chat-v2 | 82 | 69 | 72.7 | 67.0 | 72.7 | 8 |
开源 | ziya2-13b-chat | 76 | 54 | 71.3 | 68.0 | 67.3 | 9 |
开源 | Linly-Chinese-LLaMA2-13B | 78 | 67 | 67.3 | 57.0 | 67.3 | 10 |
类别 | 大模型 | 分类能力 | 信息抽取能力 | 阅读理解能力 | 数据分析 | 总分 | 排名 |
---|---|---|---|---|---|---|---|
开源 | Llama-3-70B-Instruct | 88 | 87 | 96.0 | 95.0 | 91.5 | 1 |
开源 | Qwen1.5-32B-Chat | 91 | 86 | 92.7 | 87.3 | 89.3 | 2 |
开源 | Qwen-72B-Chat | 89 | 80 | 92.7 | 87.3 | 87.3 | 3 |
开源 | Qwen1.5-72B-Chat | 89 | 84 | 88.0 | 87.3 | 87.1 | 4 |
开源 | AquilaChat2-70B-Expr | 82 | 84 | 92.0 | 89.3 | 86.8 | 5 |
开源 | deepseek-llm-67b-chat | 87 | 81 | 86.7 | 92.0 | 86.7 | 6 |
开源 | tigerbot-70b-chat-v2 | 97 | 84 | 80.0 | 85.0 | 86.5 | 7 |
开源 | openbuddy-deepseek-67b | 86 | 89 | 84.7 | 85.0 | 86.2 | 8 |
开源 | XVERSE-65B-Chat | 83 | 84 | 84.0 | 89.0 | 85.0 | 9 |
开源 | tigerbot-70b-chat-v3 | 94 | 85 | 84.0 | 71.0 | 83.5 | 10 |
开源 | openbuddy-llama2-70b | 86 | 84 | 86.7 | 76.0 | 83.2 | 11 |
开源 | Yi-34B-Chat | 88 | 82 | 84.7 | 77.0 | 82.9 | 12 |
开源 | aquilachat2-34b | 77 | 82 | 88.0 | 83.0 | 82.5 | 13 |
开源 | openbuddy-mixtral-7bx8 | 86 | 73 | 86.0 | 82.0 | 81.8 | 14 |
开源 | openbuddy-llama-65b-v8 | 68 | 84 | 79.3 | 76.0 | 76.8 | 15 |
开源 | Llama-2-70b-chat | 86 | 66 | 73.3 | 69.0 | 73.6 | 16 |
详细数据见classification
详细数据见extract
阅读理解能力是一种符合能力,考查针对给定信息的理解能力。
依据给定信息的种类,可以细分为:文章问答、表格问答、对话问答……
详细数据见mrc
暂不计入综合能力评分。
专门考查大模型对表格的理解分析能力,常用于数据分析。
详细数据见tableqa
暂不计入综合能力评分。
专门考查大模型编码中文字符的效率,同等尺寸大模型,编码效率越高推理速度越快,几乎成正比。
中文编码效率相当于大模型生成的每个token解码后对应的中文平均字数
(大模型每次生成一个token,然后解码成真正可见的字符,比如中文、英文、标点符号等)。
比如baichuan2、llama2的中文中文编码效率分别为1.67、0.61,意味着在同尺寸模型下,baichuan2的运行速度是llama2的2.7倍(1.67/0.61)。
暂不计入综合能力评分。
参考谷歌IFEval,并将其翻译和适配到中文,精选9类25种指令,说明如下:
排行榜:
评分方法:从各个维度给大模型打分,每个维度都对应一个评测数据集,包含若干道题。 每道题依据大模型回复质量给1~5分,将评测集内所有题的得分累加并归一化为100分制,即作为最终得分。
类别 | 大模型 | 分类能力 | 信息抽取能力 | 阅读理解能力 | 数据分析能力 | 综合能力 |
---|---|---|---|---|---|---|
商用 | gpt4 | 94 | 94 | 99.3 | 97.0 | 96.1 |
商用 | 微软new-bing | 95 | 83 | 94.0 | 100.0 | 93.0 |
商用 | gpt-4-turbo | 91 | 90 | 94.0 | 96.0 | 92.8 |
商用 | deepseek-chat-v2(new) | 93 | 88 | 94.0 | 96.0 | 92.8 |
商用 | GLM4 | 86 | 90 | 97.3 | 96.0 | 92.3 |
开源 | Llama-3-70B-Instruct | 88 | 87 | 96.0 | 95.0 | 91.5 |
商用 | 文心4.0 | 88 | 89 | 94.7 | 94.0 | 91.4 |
商用 | yi-medium(new) | 86 | 93 | 89.3 | 94.0 | 90.6 |
商用 | minimax-abab6-chat | 87 | 86 | 96.7 | 91.3 | 90.3 |
商用 | minimax-abab6.5-chat(new) | 89 | 87 | 89.3 | 95.3 | 90.2 |
商用 | yi-large(new) | 85 | 91 | 90.0 | 92.7 | 89.7 |
开源 | Qwen1.5-32B-Chat | 91 | 86 | 92.7 | 87.3 | 89.3 |
商用 | 讯飞星火v3.5 | 87 | 92 | 89.3 | 87.3 | 88.9 |
商用 | 阿里qwen-max | 86 | 82 | 95.3 | 91.3 | 88.7 |
商用 | minimax-abab6.5s-chat(new) | 87 | 88 | 88.7 | 88.0 | 87.9 |
商用 | 月之暗面kimichat | 92 | 85 | 84.0 | 89.3 | 87.6 |
开源 | Qwen-72B-Chat | 89 | 80 | 92.7 | 87.3 | 87.3 |
开源 | Qwen1.5-14B-Chat | 89 | 79 | 90.7 | 90.7 | 87.3 |
开源 | Qwen1.5-72B-Chat | 89 | 84 | 88.0 | 87.3 | 87.1 |
商用 | gpt-3.5-turbo | 81 | 83 | 92.7 | 91.3 | 87.0 |
商用 | yi-large-turbo(new) | 82 | 90 | 88.7 | 86.7 | 86.8 |
开源 | AquilaChat2-70B-Expr | 82 | 84 | 92.0 | 89.3 | 86.8 |
开源 | internlm2-chat-20b | 93 | 80 | 86.0 | 88.0 | 86.8 |
开源 | deepseek-llm-67b-chat | 87 | 81 | 86.7 | 92.0 | 86.7 |
开源 | tigerbot-70b-chat-v2 | 97 | 84 | 80.0 | 85.0 | 86.5 |
商用 | 文心一言v2.2 | 90 | 87 | 88.0 | 81.0 | 86.5 |
开源 | openbuddy-deepseek-67b | 86 | 89 | 84.7 | 85.0 | 86.2 |
商用 | baichuan3 | 86 | 83 | 90.7 | 84.7 | 86.1 |
商用 | 讯飞星火v3 | 87 | 82 | 88.0 | 86.0 | 85.8 |
开源 | XVERSE-65B-Chat | 83 | 84 | 84.0 | 89.0 | 85.0 |
商用 | 谷歌bard | 86 | 88 | 85.3 | 77.0 | 84.1 |
开源 | tigerbot-70b-chat-v3 | 94 | 85 | 84.0 | 71.0 | 83.5 |
开源 | openbuddy-llama2-70b | 86 | 84 | 86.7 | 76.0 | 83.2 |
商用 | chatglm-turbo | 86 | 75 | 90.0 | 81.0 | 83.0 |
开源 | tigerbot-13b-chat-v4 | 85 | 82 | 80.0 | 85.0 | 83.0 |
开源 | Yi-34B-Chat | 88 | 82 | 84.7 | 77.0 | 82.9 |
开源 | Llama-3-8B-Instruct | 86 | 74 | 80.0 | 90.0 | 82.5 |
开源 | aquilachat2-34b | 77 | 82 | 88.0 | 83.0 | 82.5 |
商用 | 商汤senseChat | 82 | 85 | 82.7 | 78.0 | 81.9 |
开源 | openbuddy-mixtral-7bx8 | 86 | 73 | 86.0 | 82.0 | 81.8 |
开源 | openbuddy-llama3-8b | 78 | 86 | 81.3 | 79.0 | 81.1 |
开源 | internlm2-chat-7b | 86 | 81 | 72.7 | 82.7 | 80.6 |
商用 | minimax-abab5.5-chat | 83 | 79 | 86.7 | 72.7 | 80.3 |
开源 | BELLE-Llama2-13B-chat-0.4M | 90 | 74 | 76.0 | 79.0 | 79.8 |
商用 | 字节跳动豆包 | 79 | 77 | 80.0 | 82.0 | 79.5 |
开源 | qwen-14b-chat | 84 | 72 | 84.7 | 77.0 | 79.4 |
开源 | Baichuan2-13B-Chat | 83 | 83 | 74.7 | 77.0 | 79.4 |
开源 | Baichuan2-7B-Chat | 88 | 76 | 83.3 | 69.0 | 79.1 |
开源 | openbuddy-zephyr-7b | 82 | 83 | 74.0 | 72.0 | 77.8 |
开源 | BlueLM-7B-Chat | 82 | 83 | 74.0 | 72.0 | 77.8 |
开源 | openbuddy-llama-65b-v8 | 68 | 84 | 79.3 | 76.0 | 76.8 |
开源 | xverse-13b-chat | 86 | 72 | 81.3 | 67.0 | 76.6 |
商用 | chatglm-std | 84 | 71 | 76.0 | 73.0 | 76.0 |
商用 | chatglm-pro | 84 | 70 | 76.0 | 73.0 | 75.8 |
开源 | Qwen1.5-7B-Chat | 80 | 76 | 76.0 | 70.7 | 75.7 |
商用 | 讯飞星火v1.5 | 76 | 81 | 76.0 | 69.0 | 75.5 |
开源 | 谷歌gemma-7b-it | 72 | 79 | 74.0 | 76.0 | 75.3 |
开源 | openbuddy-mistral-7b | 79 | 72 | 73.3 | 76.0 | 75.1 |
商用 | 360智脑 | 86 | 71 | 74.0 | 66.0 | 74.3 |
开源 | MiniCPM-2B-dpo | 79 | 77 | 74.0 | 66.0 | 74.0 |
开源 | Llama-2-70b-chat | 86 | 66 | 73.3 | 69.0 | 73.6 |
开源 | Qwen-7B-Chat | 89 | 72 | 74.0 | 59.0 | 73.5 |
商用 | 讯飞星火v2.0 | 72 | 75 | 79.3 | 65.0 | 72.8 |
开源 | Baichuan-13B-Chat-v2 | 82 | 69 | 72.7 | 67.0 | 72.7 |
开源 | chatglm3-6b | 82 | 68 | 78.7 | 60.0 | 72.2 |
开源 | Qwen1.5-4B-Chat | 75 | 65 | 79.3 | 63.0 | 70.6 |
开源 | Phi-3-mini-128k-instruct | 74 | 63 | 65.3 | 73.0 | 68.8 |
开源 | Yi-6B-Chat | 73 | 71 | 66.0 | 64.7 | 68.7 |
开源 | miniCPM-2B-sft | 72 | 72 | 77.3 | 53.3 | 68.7 |
开源 | ziya2-13b-chat | 76 | 54 | 71.3 | 68.0 | 67.3 |
开源 | Linly-Chinese-LLaMA2-13B | 78 | 67 | 67.3 | 57.0 | 67.3 |
开源 | Qwen-1.8B-Chat | 73 | 66 | 75.3 | 51.3 | 66.4 |
商用 | minimax-abab5.5s-chat | 58 | 57 | 70.7 | 56.0 | 60.4 |
开源 | openbuddy-openllama-3b | 64 | 60 | 61.3 | 40.7 | 56.5 |
开源 | 谷歌gemma-2b-it | 56 | 60 | 60.0 | 43.3 | 54.8 |
开源 | Qwen1.5-1.8B-Chat | 57 | 58 | 52.7 | 48.0 | 53.9 |
开源 | Qwen1.5-0.5B-Chat | 44 | 40 | 60.0 | 34.7 | 44.7 |
包含各维度评测集以及大模型输出结果,详见本项目的eval文件目录
# | 分类评测样本 | 信息抽取评测样本 | 阅读理解评测样本 |
---|---|---|---|
1 | 请分类以下5种水果:香蕉、西瓜、苹果、草莓、葡萄。 |
HR: 你好,我是XYZ公司的招聘主管。我很高兴地通知你,你已经通过了我们的初步筛选,并且我们希望邀请你来参加面试。 候选人:非常感谢,我很高兴收到你们的邀请。请问面试的时间和地点是什么时候和哪里呢? HR: 面试的时间是下周二上午10点,地点是我们公司位于市中心的办公室。你会在面试前收到一封详细的面试通知邮件,里面会包含面试官的名字、面试时间和地址等信息。 候选人:好的,我会准时出席面试的。请问需要我做哪些准备工作呢? HR: 在面试前,请确保你已经仔细研究了我们公司的业务和文化,并准备好了相关的问题和回答。另外,请务必提前到达面试现场,以便有足够的时间了解我们的公司和环境。 候选人:明白了,我会尽最大努力准备好的。非常感谢你的邀请,期待能有机会加入贵公司。 HR: 很高兴能和你通话,我们也期待着能和你见面。祝你好运,并期待下周能见到你。 基于以上对话,抽取出其中的时间、地点和事件。 |
牙医:好的,让我们看看你的牙齿。从你的描述和我们的检查结果来看,你可能有一些牙齦疾病,导致牙齿的神经受到刺激,引起了敏感。此外,这些黑色斑点可能是蛀牙。 病人:哦,真的吗?那我该怎么办? 牙医:别担心,我们可以为你制定一个治疗计划。我们需要首先治疗牙龈疾病,然后清除蛀牙并填充牙洞。在此过程中,我们将确保您感到舒适,并使用先进的技术和材料来实现最佳效果。 病人:好的,谢谢您,医生。那么我什么时候可以开始治疗? 牙医:让我们为您安排一个约会。您的治疗将在两天后开始。在此期间,请继续刷牙,使用牙线,并避免吃过于甜腻和酸性的食物和饮料。 病人:好的,我会的。再次感谢您,医生。 牙医:不用谢,我们会尽最大的努力帮助您恢复健康的牙齿。 基于以上对话回答:病人在检查中发现的牙齿问题有哪些? |
2 | 将下列单词按词性分类。 狗,追,跑,大人,高兴,树 |
给定以下文本段落,提取其中的关键信息。 今天早上,纽约市长在新闻发布会上宣布了新的计划,旨在减少治安问题。 该计划包括增加派遣警察的人数,以及启动社区倡议,以提高居民对警察工作的支持度。 |
文化艺术报讯 国务院办公厅发布关于2023年部分节假日安排的通知,具体内容如下: 元旦:2022年12月31日至2023年1月2日放假调休,共3天。 春节:1月21日至27日放假调休,共7天。1月28日(星期六)、1月29日(星期日)上班。 清明节:4月5日放假,共1天。 劳动节:4月29日至5月3日放假调休,共5天。4月23日(星期日)、5月6日(星期六)上班。 端午节:6月22日至24日放假调休,共3天。6月25日(星期日)上班。 中秋节、国庆节:9月29日至10月6日放假调休,共8天。10月7日(星期六)、10月8日(星期日)上班。 基于以上信息回答:2023年五一假期怎么放假。 |
3 | 将下列五个词分为两个组别,每个组别都有一个共同点:狗、猫、鸟、鱼、蛇。 |
在给定的短文中找出三个关键词。 西方的哲学历史可上溯至古希腊时期,最重要的哲学流派包括柏拉图学派、亚里士多德学派和斯多葛学派。 |
基于以下表格,请问张三的考勤情况 员工姓名,日期,上班时间,下班时间,是否迟到,是否早退,是否请假 张三,1月1日,8:30,17:30,否,否,否 李四,1月1日,9:00,18:00,是,否,否 王五,1月1日,8:00,16:30,否,是,否 赵六,1月1日,8:30,17:00,否,否,是 张三,1月2日,8:00,17:00,否,否,否 李四,1月2日,8:30,17:30,否,否,否 王五,1月2日,9:00,18:00,是,否,否 赵六,1月2日,8:30,17:00,否,否,是 |
4 | 给定一组文本,将文本分成正面和负面情感。 举例文本: 这部电影非常出色,值得推荐。我觉得导演做得很好。 这场音乐会真是个灾难,我非常失望。 |
从以下诗句中提取人物名称:两个黄鹂鸣翠柳,一行白鹭上青天。 |
对于给定的问答对,判断问题是否被正确回答 问题:地球是第几颗行星? 答案:地球是第三颗行星。 |
5 | 将以下10个单词分类为动物或植物。 树木、狮子、玫瑰、草地、松鼠、猴子、蘑菇、兔子、山羊、香蕉 |
明天天气怎么样? 广州明天最冷多少度? 广东大后天最暖多少度? 北京冷不冷? 提取出上述句子中的地理位置实体 |
根据以下文本回答问题:什么是能量守恒定律? 物理学是自然科学的一个重要分支,研究自然界的物质、能量、空间和时间等基本概念。 在物理学的研究中,科学家们探索了宇宙的奥秘,从微观粒子到宏观天体的各个方面都进行了深入研究。 在物理学中,一个重要的概念是能量守恒定律。能量守恒定律指出,一个孤立系统的总能量在任何时间都是不变的。 也就是说,能量不能被创造或摧毁,只能被转化成其他形式。 例如,当一个物体被提起并释放时,它的势能被转化为动能,使得物体开始运动。 |
…… | …… | …… | …… |
prompt | chatgpt3.5 |
百度 |
…… |
---|---|---|---|
将下列单词按词性分类。 狗,追,跑,大人,高兴,树 |
好的,以下是这些单词按照词性分类后的结果: 名词:狗、大人、树 动词:追、跑 形容词:高兴 |
动物类别:狗 动作类别:追 动作类别:跑 情感类别:高兴 植物类别:树 |
…… |
从以下诗句中提取人物名称:两个黄鹂鸣翠柳,一行白鹭上青天。 |
这句诗出自唐代诗人杜甫的《绝句》,并没有明确提到人物名称。这句诗主要是在描绘自然景色,通过形象生动的语言来表现春天的美丽景象。 诗中提到“两个黄鹂”,“一行白鹭”,他们是动物而非人物名称。黄鹂是一种鸟类,它们身体鲜黄色,嘴巴呈钩形,叫声清脆悦耳;白鹭是另一种水鸟,身体白色,嘴巴细长,善于捕捉鱼类等。 杨婉这句诗意境深远,很好地表现了大自然的美丽和神奇。 |
人物名称:黄鹂、白鹭 |
…… |
…… | …… | …… | …… |
- 大模型百花齐放,也参差不齐。不少媒体的宣传往往夸大其词,避重就轻,容易混淆视听;而某些公司为了PR,也过分标榜自己大模型的能力,动不动就“达到chatgpt水平”,动不动就“国内第一”。 所谓“外行看热闹,内行看门道”,业界急需一股气流,摒弃浮躁,静下心来打磨前沿技术,真真正正用技术实力说话。这就少不了一个公开、公正、公平的大模型评测系统,把各类大模型的优点、不足一一展示出来。 如此,大家既能把握当下的发展水平、与国外顶尖技术的差距,也能更加清晰地看明白未来的努力方向,而不被资本热潮、舆论热潮所裹挟。
- 对于产业界来说,特别是对于不具备大模型研发能力的公司,熟悉大模型的技术边界、高效有针对性地做大模型技术选型,在现如今显得尤为重要。 而一个公开、公正、公平的大模型评测系统,恰好能够提供应有的助力,避免重复造轮子,避免因技术栈不同而导致不必要的争论,避免“鸡同鸭讲”。
- 对于大模型研发人员,包括对大模型技术感兴趣的人、学术界看中实践的人,各类大模型的效果对比,反应出了背后不同技术路线、技术方法的有效性,这就提供了非常好的参考意义。 不同大模型的相互参考、借鉴,帮忙大家躲过不必要的坑、避免重复实验带来的资源浪费,有助于整个大模型生态圈的良性高效发展。