机器人自主学习.docVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
机器人自主学习

检索主题:机器人自学习 数据库:中国知识资源总库——中国期刊全文数据库 检索方法:用高级检索,主题词:自学习 关键词:机器人 检索结果:174篇,其中关于机器人的161篇;控制系统的9篇;特征量提取10篇 ,其余为模糊性理论和混合控制。 文献综述 L1000自主学习功能 1.概括 L1000的自学习功能,适用于各种应用场合。 下面是其具体应用。 详细内容请参考产品的使用说明书。 不论用于何种场合,请首先确保安全回路,检查接线,并检查PG(编码器)/电机主回路的旋转方向,在确认安全后再进行自学习。 有时需要一部分手动的设定确认工作。 表中「有电机的详细参数」,是指电机的测试报告,或电机铭牌值记载的数据,可以直接或通过换算设定L1000的E5(PM时)、或E2(IM时)大部分参数。 「电机可以旋转」是指电机单体可以进行旋转型自学习的状态。 ( )内的编号,显示的是进行自学习的顺序 。 2.使用情况 2.1 PM用带PG矢量控制 (1) 不论用于何种场合,请首先确保安全回路,检查接线,并检查PG(编码器)/电机主回路的旋转方向。 (2) 自学习完成后,仅在电机电缆长度大幅改变时(50m以上),需要进行的自学习。通常无需使用。 (3) 所有调试完成后,请按下面步骤运行,确认参数(感应电压值)是否妥当,若有需要再进行调整。 ①使电梯以高速(或中速),进行上升/下降的恒速运行,从数字操作器监视U6-07(q轴的ACR输出)、U6-08(d轴的ACR输出)。 恒速运行中的U6-07和U6-08的值在±10%以下,感应电压值不需要再调整。 若超过±10%,请按步骤②进行再次调整。 ②使电梯以高速(或中速),进行上升/下降的恒速运行,从数字操作器监视U1-05(电机速度反馈)、U1-06(输出电压指令)。 从电机速度反馈的监视值(U1-05)和电机额定转速(E1-04),计算测定时的电机分速(min-1)。 E5-24(电机的感应电压系数2)=((上升时的U1-06的电压值〔V〕+下降时的U1-06的电压值〔V〕)×1000)/(2×测定时的电机分速〔min-1〕) 〔mV/min-1〕 (4) 使用L1000A时,电机的感应电压系数通常使用E5-24的值。 沿用L7B的数据时,在设定E5-24=0.0后,E5-09请设定与L7B相同的值。 (5) 若L7B的感应电压系数E5-09〔mV/(rad/s)〕,换算成L1000A用的感应电压系数E5-24〔mV/min-1〕 2.2IM用无PG V/f可控制 (1) 不论用于何种场合,请首先确保安全回路,检查接线,并检查PG(编码器)/电机主回路的旋转方向。 (2) V/f控制模式下,仅在自学习完成后,电机电缆长度大幅改变时(50m以上),需要进行的自学习方式。 2.3障代码 障代码: 0 串行传输错误 1 变频器过流 2 +12V欠电压 3 主回路欠压 4 CPU之WDT错误 5 GS(门锁)错误 6 位置开关错误 7 开关门指令错误 9 关门操作错误 A 开关门超速 A 位置计数器出错 B 位置监测器出错 C 编码器错误 D 过负载 D GS断开指示 E DLD余量不足 F 超速检查 F GS释放时指示 3.机器人自学习的现状与提高 未知环境下移动机器人缺少先验知识, 移动机器人自主学习以提高对环境的适应能力, 是实现移动机器人在未知、复杂环境中成功应用的关键。 反应式导航是提高移动机器人在未知环境下实时性和适应性的重要手段。近年来,在诸多反应式导航方法中, 强化学习由于无需监督和先验知识、自学习和在线学习的特点使其具有在未知环境下导航的优越性。针对标准强化学习速度较慢,本文提出基于Q学习和粗糙集的自主导航方法。通过强化学习,机器人能够实现未知环境下的自主导航。由于机器人导航的知识具有不完备性, 而粗糙集是处理不完备性的一种有效的数学工具。首先利用粗糙集理论处理机器人的初始导航知识, 简化导航系统的复杂性。然后将它与Q学习结合,加快了机器人学习的速度, 从而提高了导航系统的避碰能力。同时,由于在复杂连续环境下, 强化学习系统面临“维数灾难”问题,需要采取量化的方法, 降低输入空间的复杂度, 而径向基神经网络(RBFNN)具有较强的函数逼近能力及泛化能力, 由此提出了基于RBF神经网络的Q学习方法并将其应用于单机器人的自主导航。用径向基神经网络逼近状态空间和Q函数, 使学习系统具有良好的泛化能力。 最后, 在TeamBots平台上将提出的两种导航方法仿真实现。仿真结果显示, 基于Q学习和粗糙集的自主机器人导航方法较与标准Q学习相比, 可以增加自主机器人对环境的适应性,提

文档评论(0)

2017ll + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档