「[[.NET 開発基盤部会 Wiki>http://dotnetdevelopmentinfrastructure.osscons.jp]]」は、「[[Open棟梁Project>https://github.com/OpenTouryoProject/]]」,「[[OSSコンソーシアム .NET開発基盤部会>https://www.osscons.jp/dotNetDevelopmentInfrastructure/]]」によって運営されています。

-[[戻る>人工知能(AI)]]
--[[AIのアルゴリズム・モデル]]
--[[AIの活用例]]
--ロボティクス
--[[AIプロジェクトのマネジメント]]

*目次 [#h56d76fc]
#contents

*概要 [#o48e6b29]

**ロボット [#xfc5fc0e]
-定義(ISO、JIS):現状は産業ロボットの定義に近い
-構造・機能:自由度、作業領域、可動域、可搬重量、精度
-運動学:順運動学、逆運動学(○)
-ダイナミカルシステム:ロボット・マニュピレーターの運動方程式

**ロボティクスの人工知能 [#pb379347]
以下は、研究の対象でない。
-ロボットの脳以外の部分の研究
-物理的な身体を必要としないTVゲーム向けのボット

**モデル規範型と行動規範型 [#x1e1fd18]

***モデル規範型 [#p4af08e6]
-人間が地図とソフトを与える。
-ソフト
--画像・センサー処理
--自己位置推定
--経路計算
--指令値の生成(戻る

***行動規範型 [#rf677d21]
最近の[[機械学習>機械学習(machine learning)]]&[[深層学習>深層学習(deep learning)]]はこちら。

-例:走光性(光に向かう)+障害物回避
-比較的単純な行動型+複雑な環境=(観測される)知的な行動
-ルンバの例~
優先順に階層型に組み合わせる(設計法は無い、進化的)
--衝突回避(バンパー接触で壁を検知)
--物体接触(光源無しの状態のバンパー接触で検知)
--光源回避(光が閾値以上)
--障害物回避(センサーで障害物を検知)
--光源移動(光が閾値以下)
--徘徊移動

*詳細 [#ob9b31ad]

**深層学習 [#s306b1cb]

***深層学習による動作学習 [#m03f2d66]
-ロボットと人工知能の世界は異なるが、[[深層強化学習>機械学習(machine learning)#s6c0e580]]は使えそう。
-エンドツーエンドの学習:[[エンドツーエンドの強化学習 - Wikipedia>https://ja.wikipedia.org/wiki/%E3%82%A8%E3%83%B3%E3%83%89%E3%83%84%E3%83%BC%E3%82%A8%E3%83%B3%E3%83%89%E3%81%AE%E5%BC%B7%E5%8C%96%E5%AD%A6%E7%BF%92]]
-Googleのロボット制御:[[深層強化学習>機械学習(machine learning)#s6c0e580]]に類似した手法だが再現性が無いらしい(≒Googleにしかできない)。

***深層予測学習の応用例 [#ud5b836f]
-[[ロボット・ビジョン>#kb9530a4]]
-[[エクスペリエンス・ベースド・ロボティクス>#o1cea037]]
-[[コミュニケーション・ロボット>#m45c557e]]

**分野? [#mfbe3f48]

***ロボット・ビジョン [#kb9530a4]
-センシング(実世界をコンピュータに取り込む)~
+シーン理解(どの様に処理して実世界に作用するか)
-[[2D / 3Dデータ>画像処理とコンピュータビジョン#fa4c0da5]]と[[ニューラルネットワーク>ニューラルネットワーク#fb7864bd]]

***エクスペリエンス・ベースド・ロボティクス [#o1cea037]
-人間の操作データから近未来を予測する様に学習(≒模倣)~
--[[オートエンコーダー>#db3fefad]]のロボティクス版的な?。
--エンコード・デコート モデルでは異なるデータへの変換が可能。~
視野画像+関節⾓度の⼊⼒をエンコード・デコートで学習&予測しながら動作する。

-エクスペリエンス・ベースド・ロボティクスの応用例
--柔軟物ハンドリング(タオルを畳む
--粉体 / 流体ハンドリング(...
--全身協調動作

***コミュニケーション・ロボット [#m45c557e]
-AIBO、QRIO
-[[スマートスピーカー>言語処理(AI)#zd35939d]]に近い
-不気味の谷ってーのがある。
-ただ、感情移入を誘発する必要がある。
--色々な環境下で多様な対応をする必要があるっぽい(≠機械的)。
--感情の評価が難しい(再現性のある解析、設計指針を得るのが困難)
--記号接地問題には[[深層学習>深層学習(deep learning)]]が使えそう。
---言語と運動の結合(指示&視覚 → 行動)行動を指示する。
---運動と言語の結合(行動&視覚 → 説明)行動の説明をする。

***その他 [#pab08cf9]
-汎用
--自動配送ロボット
--ピッキングロボット

-医療・介護
--認証([[顔認証>画像処理とコンピュータビジョン(AI)#l5485c45]])による受付~会計の自動化
--検査補助ロボット(患者の問診、誘導)
--モノ、患者の配送ロボット
--調剤調合ピッキングロボット
--微生物検査のロボット化

*認知発達ロボティクス [#lb46c796]

**導入 [#n740fda0]
-人の知能や脳のメカニズムを理解したい(と言う動機らしい

-相互作用を置き換えて実験
--人:脳・身体・環境
--ロボット:計算モデル・ロボット・環境

***アプローチ [#n45b230f]
-○:構成論的アプローチ ≒ [[行動規範型>#rf677d21]]
-✕:分析的アプローチ ≒ [[モデル規範型>#p4af08e6]]

***研究の流れ [#t475ca56]
-理論の構築(認知神経科学
-具現化(機械学習
-検証(ロボティクス

***関連する分野 [#a3490340]
機械学習的アプローチの分野
-計算論的神経科学(人の知能や脳のメカニズムの理解)
-認知発達ロボティクス
-ロボット学習(ロボットのため知能の実現)

**予測と認知機能 [#bf67c81b]
知覚・行動・学習といった認知機能は予測誤差最小化プロセスとして説明可能

***予測符号化理論 [#q21b4172]
脳を予測生成器として捉える
-トップダウンに言語・運動などの予測を生成
-ボトムアップに感覚入力を受け取る
-両者の間の差(予測誤差)を算出

***FNNとRNN [#g784cc88]
-FNN(Feedforward Neural Network)~
入力層で受け取ったデータが出力層へ向け、一方通行で処理されていく一般的なDNN

-[[RNN>ニューラルネットワーク#sa1d8d21]](Recurrent Neural Network)~
時間順序などを持つ系列データの入力を扱える再帰型ニューラルネットワーク

-RNN with PB
--Recurrent Neural Network with Parametric Bias (RNNPB) 
--RNNでは学習で過去の記憶を持つ事が出来る。
--これにPBを追加することで未来の計画を考慮する事が出来る。
--1つのRNNで複数系列(感覚・言語・運動)パターンの学習が出来る。
--このPBベクトルで言語や行動を生成できる。

**学習方法(模倣学習 [#bb07c7f0]
2つの学習(模倣学習)が行われている。

***直接操作 [#ka7e77a8]
[[エクスペリエンス・ベースド・ロボティクス>#o1cea037]]の所に書いた方法

***他者の観察 [#i7b96f6c]
-行動の違いを表現するPBと視点の違いを表現するPBを分けてRNNに与える。
-すると、自己行動と他者行動が同じであると認識可能になる(らしい)。

**言語・コミュニケーション [#t1ee4838]

***統合学習 [#ce0dd2cf]
-[[コミュニケーション・ロボット>#m45c557e]]の所の話。

-言語と運動の統合学習(記号接地問題)には深層学習が使える。
--言語RNNPB、行動RNNPBの2つを用意する。
--双方のRNNPBが互いに近づくように拘束
--言語RNNPBでPBを生成し行動RNNPBにPBを渡す(指示されたとおりに行動)。
--部分的な文章例で未学習文の指示にも対応する汎化学習を実現できる。

***二台ロボット間インタラクション [#qf292d30]
予測符号化理論によるRNNPBを二台のロボット実装

-ロボットは感覚・%%言語・%%運動パターンを学習
-ロボットは互いに協調の形成が実現可能か?
--PB切り替え
--新しい協調の形成
--協調の崩壊(→ 最初に戻る

***人とロボットの模倣インタラクション [#w715670a]
-インタラクションを通じて人の認知特性を抽出する事を目指す。
-ロボットは感覚・%%言語・%%運動パターンを学習
-人はロボットが事前に学習した運動パターンを探し出す。
-自閉症の人は模倣が苦手とか、そう言う話になるらしい(ミラー・ニューロン仮説

**深層学習の応用例 [#ec602ae4]

***[[オートエンコーダー>深層学習(deep learning)#q7a47678]] [#db3fefad]
[[模倣学習(直接操作)>#ka7e77a8]](エクスペリエンス・ベースド・ロボティクス)の所に書いた話(行動学習)。

***[[RNN Enc-Dec、Seq2Seq>RNN Encoder-Decoder(Sequence-to-Sequence)]]モデル [#o2f748d6]
[[RNN Encoder-Decoder(Sequence-to-Sequence)]]モデルで、~
日本語英語変換などが可能だが、これをロボティクスに応用すると、

-[[模倣学習(他者の観察)>#i7b96f6c]]~
視覚 → 行動

-[[統合学習>#ce0dd2cf]]~
音声+視覚+関節⾓度 → 行動

トップ   編集 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS