高一下期末复习:信息类文本阅读选择题专练.docx

高一下期末复习:信息类文本阅读选择题专练.docx

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

一、阅读下面的文字,完成1~5题。

材料一:

当人们还沉浸在AI带来的惊艳之时,一小部分用户很快发现了这个聊天机器人的问题:它解决了此前所有AI机器人都有的问题-----“说话不像真的”,却带来了全新的问题-----“它说假话也像真的”。在人工智能领域有一个专门的术语来形容这种“一本正经地编造假话”的现象,它被称为“幻觉”。

1995年,计算机科学家斯蒂芬·塞勒在当时的人工智能背景下引入了“幻觉”的概念,这一概念最初被用于指代神经网络中自发产生的新想法或概念,因为这与人类的幻觉类似,没有明确的外部信息输入。在很长一段时间里,在AI领域“幻觉”是一个带有一定褒义色彩的术语,“有幻觉”意味着AI具备一定创造性能力。2017年,这个术语发生了色彩上的变化,这时世界上已经存在一些可以稳定凭空生成图像或文字的AI了,因此创造性不再是一个远在天边不可实现的目标。在当年Google的一篇论文中,研究人员开始用“幻觉”描述那些在使用神经机器翻译模型时,生成与原文不相符的译文的现象。

2022年8月,Facebook母公司Meta在一篇论文中用这个术语来形容“自信地说假话”,这也就是我们现如今所熟悉的,必威体育精装版版本的关于AI“幻觉”的定义。2024年,哈工大与华为联合发表了一篇长达49页的关于AI幻觉的论文,其中提到,按照生成内容与真实世界的偏离程度,幻觉可以被分为事实性幻觉和忠实性幻觉。事实性幻觉指的是,模型生成的内容与可证实的现实世界事实不一致。如果生成的事实性内容可以在可靠来源中找到,但存在矛盾,则称为事实不一致。例如,当被问及“第一个登上月球的人”时,模型可能会错误地回答“尤里·加加林”,而正确答案是尼尔·阿姆斯特朗。如果生成的事实性内容无法根据已有的现实世界知识进行验证,则称为事实捏造。例如,当被问及“独角兽的历史起源”时,模型可能会编造出一个看似合理但实际上毫无根据的答案,如“独角兽在公元前10000年左右的亚特兰蒂斯平原上漫游,它们被视为神圣的生物,经常与皇室联系在一起”。忠实性幻觉指的是生成的内容与用户指令或输入提供的上下文不一致,以及生成内容本身不自洽。如果模型的输出偏离了用户的指令,则称为指令不一致。例如,用户明确指示将英语问题翻译成西班牙语,但模型却直接回答了这个问题。如果模型的输出与用户提供的上下文信息不符,则称为上下文不一致。例如,用户提到尼罗河起源于非洲中部的大湖地区,但模型却回答尼罗河起源于非洲中部的山脉。如果模型的输出在逻辑上自相矛盾,则称为逻辑不一致。例如,在解决数学方程式时,模型的推理步骤正确,但最终答案与推理过程不一致。

那么,是什么导致了幻觉呢?目前来看,它与大语言模型的训练方式和AI感知世界的方法有关。可以用最通俗的话打个不恰当的比方,如果一个人从出生就被关在伸手不见五指的黑房子里,他对世界一切的了解,来自一个不断用语言描述世界的喇叭,那么当这个人描述“云彩”的时候,就不会按照现实世界的真实逻辑,而是会按照过往喇叭讲过的内容去描述一这个世界上怎么会没有绿色的云呢?《大话西游》里明明说了,会有一只猴子驾着七彩祥云飞来。大语言模型就是那个从小被关在黑屋子里,只接受了文字培训并且只能用文字与我们沟通的人,也就是“纸上得来终觉浅”的进阶版本。

(摘编自腾讯研究院《AI,一败涂地?》)

材料二:

由ChatGPT开启、DeepSeek推动的智能革命,正以算力为笔,重塑文明运行的范式。从AI儿科医生参与会诊,到AI法官助手协助审判,人类社会已步入硅基协作的新时期。然而,AI技术在提升效率的同时,也带来了一个不容忽视的问题一AI幻觉。在医疗领域,大模型可能虚构不存在的药物和疗效;在法律咨询中,它可能提供错误的法律解读或引用不存在的案例。这种“看似可信却完全错误”的现象正是AI幻觉的典型表现。

大模型出现幻觉与偏见的原因主要来自三个方面:数据、训练过程和推理过程。

在数据层面,用于大模型训练的数据中可能包含错误信息、过时知识以及隐含文化偏见和性别偏见的网络数据,模型具有记住训练数据的内在倾向,在训练规模极大的情况下,大模型记住这些错误信息和偏见的问题会被放大。数据还可能存在不均衡的情况,无法全面覆盖不同文化、语言或群体的视角。此外,数据还存在知识边界问题,模型训练完成后,知识便永远停留在数据采集的时间点。

在训练过程中,在监督微调阶段通常会迫使模型完成每个响应,而不允许它们表达不确定性,因此当面对不懂的知识时,大模型更有可能捏造内容而不是拒绝回答。在强化学习阶段,大模型通过人工反馈的训练,容易形成过度迎合用户偏好的倾向,这种倾向可能会产生AI幻觉。另外,如果反馈数据中存在偏见,模型可能会在训练过程中过度学习这些偏好,从而在生成内容时进一步放大偏见。

在推理过程中,下一个单词的预测取决于语言模型上下文和部分生成的文本,但

文档评论(0)

十分心意 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档