眼球運動atr脳情報通信総合研究所课件.ppt

眼球運動atr脳情報通信総合研究所课件.ppt

  1. 1、本文档共87页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
眼球運動atr脳情報通信総合研究所课件

日本の脳研究 脳を守る 脳を知る 脳を創る 脳を創ることによって知る ロボットやコンピュータは人にくらべてずっと劣る 本当には脳が分かっていない 創ってみて初めて働きが分かる 脳だけを創っても不十分で、ヒトを創ってみる アトム計画 ヒューマノイドDB (Dynamic Brain) 30 自由度 身長190 cm 体重80 kg 柔らかい 生物に学んだ眼球運動?視覚系 SRCとKDBの共同開発 生物に学んだ眼球運動?視覚系 それぞれの眼球に2自由度 人工前庭器官:ジャイロセンサー 中心かと周辺視は2台のカメラ 神経科学とロボティックス 小脳内部モデルの教師あり学習 大脳皮質確率的内部モデルの教師なし学習 大脳基底核の強化学習 視覚運動変換、棒立て、見まね学習 眼球運動の学習、視覚追跡ターゲットの内部モデル エアホッケーの見まね学習、起きあがりロボットの強化学習 古い考え方と新しい考え方 大脳がヒトの知性の源 小脳は運動の制御だけ 言葉がヒトの知性の特徴 小脳と大脳はすべての機能に関わる 小脳と大脳の違いは学習の方法の違い(先生有りと無し) 言葉に頼らないコミュニケーションがヒト知性の秘密 眼球運動のプリミティブ サッカード 前庭動眼反射 (VOR) 円滑性追跡眼球運動 追従眼球運動 (OFR) 円滑性追跡眼球運動 5ヶ月の乳児では 円滑性追跡眼球運動はない 5ヶ月の乳児では 追従眼球運動もない 大脳皮質内部モデルと 小脳内部モデルの違い 眼球運動に関する小脳内部モデル 前庭動眼反射適応の論争 大脳皮質の内部モデル:確率分布の時間ダイナミクス 分散非線形カルマンフィルターとしての大脳小脳連関 小脳内部モデルが大脳ポピュレーション符号を解読する フィードバック誤差学習によって、小脳がポピュレーション符号から発火率符号への復号器を学習で獲得する この復号器においてニューロンの最適刺激方向、速度選択性、発火頻度時間波形の特性が変換される 復号器の特性は制御対象の特性に応じて適応的に決まる VOR適応の座に関する小脳論争は 円滑性追跡眼球運動維持の場所で決まる 前庭動眼反射適応は主に小脳皮質のプルキンエ細胞のLTDによるものか? Yes:片葉仮説(伊藤) No: 視線速度理論 (Miles Lisberger);    脳幹が中心 (Lisberger Sejnowski) 『否』仮説では 脳幹ー小脳皮質のゲイン1のポジティブフィードバック回路が円滑性追跡眼球運動維持 『是』仮説では MST野で視標予測 確率分布のポピュレーション符号表現に基づくベイズフィルター Kalmanフィルター:内部モデル、平均と分散の推定、予測誤差の適応的重み付け 平滑性追跡眼球運動のブリンク:時間がたつにつれて増加する視標運動の不確実性をポピュレーション神経活動の平坦化で表現 ポピュレーション符号が確率分布を表現する理論 (Zemel, Dayan, Pouget, Neural Comput, 1998). 平滑性追跡眼球運動の制御システムはベイズフィルターであり視標の運動の変化をポピュレーション符号で表現する ヒト強化学習は大脳基底核で行われている 新しいマルコフ遷移確率強化学習課題 学習と報酬に関する情報理論的変数 尾状核(比較的前方部)が本質 春野、黒田、銅谷、外山、木村、鮫島、今水、川人 「強化学習」 reinforcement learning 「報酬」を最大化するような行動を,探索により学習 環境に応じて異なる最適行動を獲得 目標出力がわからない問題に適用可 人間や動物の行動学習のモデル 応用例 ゲームプログラム:バックギャモン,オセロ,.. ロボット制御:移動ロボット,サッカー,... 動的資源配分:携帯電話チャネル割り当て,.. 報酬が遅れを持って与えられる場合 Reinforcement Learning (RL) Find a policy that maximizes cumulative future reward learn to predict the vales of states and actions Basal Ganglia Frontal section Side view Reward Prediction by Dopamine Neurons (Schultz et al. 1993) unexpected reward reward predicting stimuli lack of reward ドーパミン細胞の報酬予測応答(Schultz et al. 1993) MT野: 円滑性追跡眼球運動の    視標消滅 Newsom

文档评论(0)

sanshengyuan + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档