2021上半年事业单位联考《综合应用能力》C类真题及答案.pdfVIP

2021上半年事业单位联考《综合应用能力》C类真题及答案.pdf

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

2021上半年事业联考?综合应用才能?C类真题及答案

2021年上半年全国事业联考C类?综合应用才能?真题

材料一

1997年国际象棋加里·卡斯帕罗夫败给了电脑“深蓝〞;2021年谷歌人工智能

AlphaGo又战胜了韩国棋手李世石这标志着人工智能最终制服了它在棋类竞赛中最终的

弱项——围棋谷歌的DeepMind团队比预期提早了整整10年到达了既定目的。

对计算机来说围棋并不是由于其规那么比国际象棋简洁而难以制服——与此完全相反

围棋规那么更简洁它其实只有一种棋子对弈的双方轮番把黑色和白色的棋子放到一

19×19的正方形棋盘中落下的棋子就不能再挪动了只会在被对方棋子包围时被提走。到了

棋完毕时占据棋盘面积较多的一方为胜者。

围棋的规那么如此简洁但对于计算机来说却又特别简洁缘由在于围棋的步数特别多而

且每一步的可能下法也特别多。以国际象棋作比照国际象棋每一步平均约有35种不同的

可能走法一般状况下多数棋会在80步之内完毕。围棋棋盘共有361落子点双方交替落

子整棋的总排列组合数共有约10171种可能性这远远超过了宇宙中的原子总数

——1080!

对于构造简洁的棋类计算机程序开发人员可以使用所谓的“〞再辅以一技巧来查找

对弈策略也就是对余下可能消逝的全部盘面都进展尝试并赐予评价从而找出最优的走法。

这种对整棵博弈树进展穷举搜寻的策略对计算才能要求很高对围棋或者象棋程序来说是特

别困难的尤其是围棋从技术上来讲目前不行能做到。

“蒙特卡罗树搜寻〞是一种蒙特卡罗算法的启发式搜寻策略可以依据对搜寻空间的随

机抽样来扩大搜寻树从而分析围棋这类中每一步棋应当走才可以制造时机。举例来说假设

筐里有100苹果每次闭着眼拿出1最终要挑出的1于是先随机拿1再随机拿1

跟它比留下大的再随机拿1……每拿一次留下的苹果都至少不比上次的小拿的次数越

多挑出的苹果就越大。但除非拿100次否那么无法确定挑出了的。这挑苹果的就属于蒙

特卡罗算法。虽然“蒙特卡罗树搜寻〞在此前一弈棋程序中也有承受在相对较小的棋盘

中也能很好地发挥作用但在正规的全尺寸棋盘上这种照旧存在相当大的缺陷由于涉及的搜

寻树还是太大了。

AlphaGo人工智能程序中颖的技术当属它猎取学问的方式——深度学习。AlphaGo

借助两深度卷积经网络价值网络和策略网络〕自主地进展新学问的学习。深度卷积经网

络使用很多层的经元将其堆叠在一起用于生成图片渐渐抽象的、部分的表征。对图像分析

得越细利用的经网络层就越多。AlphaGo也实行了类似的架构将围棋模盘上的盘面视为

19×19的图片输入然后通过卷积层来表征盘面。这样两深度卷积经网络中的价值网络用

于评估盘面策略网络那么用于采样动作。

在深度学习的第一阶段——策略网络的有监视学习即从中I中学习〕阶段拥有13层

经网络的AlphaGo借助围棋数据库KGS中存储的3000份对弈棋谱进展初步学习。这

3000份棋谱样本可以用a、b进展统计。a是一二维棋把a输入到一卷积经网络进

展分类分类的目的就是落子向量A。通过不断的训练尽可能让计算机得到的向量A接近人

类高手的落子结果b这样就形成了一模拟人类下围棋的经网络然后得出一下棋数

F_go〕。当盘面走到任何一种情形的时候AlphaGo都可以通过调用数F_go〕计算的结果

来得到最正确的落子结果b可能的概率分布并依据这概率来选择下一步的动作。在其次

阶段——策略网络的强化学习即从Ⅱ中学习〕阶段AlphaGo开场结合蒙特卡罗树搜寻

不再机械地调用数库而类似于一种人类进化的过程:AlphaGo会和自己的老版本对弈。即

先使用F_go1〕和F_go1〕对弈得到了确定量的新棋谱将这新棋谱参加到训练集当中训

练出新的F_go2〕再使用F_go2〕和F_go1〕对弈以此类推这样就可以得到胜率更高的

F_gon〕。这样AlphaGo就可以不断改善它在第一阶段学到的学问。在第三阶段——价值

文档评论(0)

139****1921 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档