中文大模型基准测评2025年9月报告.pptxVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

中文大模型基准测评2025年9月报告

——2025年中文大模型阶段性进展9月评估

2025.10.16

精准量化通用人工智能(AGI)进展,定义人类迈向AGI的路线图

AccuratelyQuantifyingtheProgressofAGI,

DefiningtheRoadmapforHumanitysJourneytowardsAGI.

1.海外模型保持头部优势,国内模型继续追赶。

在本次9月通用测评中,海外模型占据了榜单前6,其中GPT-5(high)以69.37分遥遥领先,o4-mini(high)(65.91分)、Claude-Sonnet-4.5-Reasoning(65.62分)、Claude-Opus-4.1-Reasoning(64.87分)、Gemini-2.5-Pro(64.68分)等紧随其后。国内的DeepSeek-V3.2-Exp-Thinking、Doubao-Seed-1.6-thinking-250715分别以62.62分和60.96分并列国内第一。

2.国内开源模型优势显著。

国内的DeepSeek-V3.2-Exp-Thinking(62.62分)、openPangu-Ultra-MoE-718B(58.87分)和Qwen3-235B-A22B-Thinking-2507(57.73分)分别位于开源模型榜单前三,大幅度领先海外开源最好模型gpt-oss-120b(53.05分)。

3.国内模型更具性价比,海外模型推理效率更高。

国内模型的API价格大多数处于0-10元/百万Tokens,平均API价格为3.88元/百万Tokens,而海外模型的API价格比较分散,从2-200元/百万Tokens不等,海外模型平均API价格为20.46元/百万Tokens,是国内模型API价格的5倍以上。

国内推理模型平均每题的推理耗时为101.07秒,而海外推理模型仅有41.60秒,海外推理模型的推理效率远高于国内推理模型。

报告摘要

2

中文语言理解测评基准CLUE(TheChineseLanguageUnderstandingEvaluation)是致力于科学、客观、中立的语言模型评测基准,发起于2019年。SuperCLUE是大模型时代CLUE基准的发展和延续,聚焦于通用大模型的综合性测评。本次2025年9月中文大模型基准测评聚焦通用能力测评,测评集由六大任务构成,总量为1260道简答题,测评集的介绍如下:

3.代码生成

介绍:该任务分为两大类型:一是独立功能函数生成,生成覆盖数据结构、算法等领域的独立函数。二是Web应用生成,要求模型构建旅游订票、电商、社交媒体等完整的交互式网站。

评价方式:通过单元测试进行0/1评分(独立功能函数生成);通过模拟用户交互的功能测试进行0/1评分(Web应用生成),本次评估的人类一致性约99%。

6.幻觉控制

介绍:主要考察模型在执行中文生成任务时应对忠实性幻觉的能力。包括但不限于文本摘要、阅读理解、多文本问答和对话补全等基础语义理解与生成创作数据集。

评价方式:基于人工校验参考答案的、对每个句子是否存在幻觉进行0/1评估,本次评估的人类一致性约95%。

5.精确指令遵循

介绍:主要考察模型的指令遵循能力,包括但不限于定义的输出格式或标准来生成响应,精确地呈现要求的数据和信息。涉及的中文场景包括但不限于结构约束、量化约束、语义约束、复合约束等不少于4个场景。

评价方式:基于规则脚本的0/1评估,本次评估的人类一致性约99%。

4.智能体Agent

介绍:主要考察在中文场景下基于可执行的环境,LLM作为执行代理在对话中调用工具完成任务的能力。包括单轮对话和多轮对话。涉及的中文场景包括但不限于汽车控制、股票交易、智能家居、旅行规划等10余个场景。

评价方式:结合任务完成与否、系统状态比对的0/1评估,本次评估的人类一致性约99%。

2.科学推理

介绍:主要考察模型在跨学科背景下理解和推导因果关系的能力。包括物理、化学、生物等在内的研究生级别科学数据集。

评价方式:基于参考答案的0/1评估,模型答案与参考答案一致得1分,反之得0分,不对回答过程进行评价。本次评估的人类一致性约98%。

1.数学推理

介绍:主要考察模型运用数学概念和逻辑进行多步推理和问题解答的能力。包括但不限于几何学、代数学、概率论与数理统计等竞赛级别数据集。

评价方式:基于参考

文档评论(0)

情报猿 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档