默默阅读,大声思考-解耦 LLM 中的理解和推理-计算机科学-人工智能-大语言模型.pdfVIP

默默阅读,大声思考-解耦 LLM 中的理解和推理-计算机科学-人工智能-大语言模型.pdf

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

Preprint.Underreview.

默默阅读,大声思考:解耦LLM中的理解和推理

YuanxinWang,GaneshVenkatesh

AppliedML,Cerebras

{michael.wang,ganesh.venkatesh}@

Abstract

大型语言模型(LLMs)在理解文本和生成高质量响应方面表现出色。然而,

与人类认知的一个关键区别在于它们通常缺乏一个明确的内部“阅读”或

深思阶段,在此之前不会“说话”(即生成文本)。人类常常通过无声阅读来

理解上下文并形成思想,然后再表达出来。本文研究了赋予LLMs类似内

本部处理能力的方法。

译我们介绍并评估了鼓励大型语言模型‘无声阅读’的技术。我们的研究结果

中表明,即使是像提供初始上下文提示或在开始预测最终输出的后续标记之

前给予一个‘阅读空间’这样简单的方法,也能显著提高性能。我们进一步

1通过开发一种‘阅读伙伴’架构来增强这一概念,在这种架构中,辅助组件

v

7会默默地处理输入并向主要生成模型提供精炼的上下文洞察。这些方法旨

2在培养大型语言模型更深层次的理解能力,从而使它们能够产生更具逻辑

3

3性的响应,使它们向更加类人的文本处理迈进了一步。我们的结果显示,这

0些简单的方法可以对准确性产生令人惊讶的强大影响,并带来多个点的准

.

7确率提升。

0

5

2

:

v1介绍

i

x

r

a大型语言模型(LLMs)处理复杂问题的能力在近期有了显著的增长OpenAI;DeepSeek-AI

(2025);Qwen(2025);Geminietal.(2024)。这一进展是由改进的训练方法推动的,例如在

线强化学习技术如生成奖励策略优化Shaoetal.(2024),以及在推理时分配更多的计算资

源。这些进步的一个共同关键突破是给模型提供专门的空间进行“思考”——一个明确列出

推理链的阶段,在给出最终答案之前。这已被证明是一种提高生成响应准确性和逻辑性的强

大机制。

然而,当前范式专注于明确的“思考”痕迹,很大程度上忽视了至关重要的前一步骤:模型

对上下文和查询的初始理解和内化。目前尚无广泛的方法来明确鼓励大语言模型在开始输

出之前花更多时间处理输入。先前的研究,如ReadAgainXuetal.(2024),表明在需要生

成响应之前给予模型更多时间“阅读”和内化信息可以显著提高质量,这凸显了探索的清晰

机会。

在这项工作中,我们通过提出一种新颖的训练配方和相应的模型架构更改来解决这一差距。

这些修改旨在鼓励模型在生成其思维轨迹和最终答案之前“安静地阅读”。我们认为正式纳

入一个无声阅读阶段是一个有前景的研究方向。通过为模型提供对上下文的更优初始理解,

我们认为这个“静默阅读”阶段可以放大测试时“思考”的益处,并且可能是未来探索的一

个有前途的方向。

1

Preprint.Underreview.

2动机和相关工作

我们假设一个有效的生成合理响应的过程包括两个不同的阶段。第一个是“默读”阶段,专

门用于

文档评论(0)

zikele + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档