スタンフォード大学の研究チームは、昨年11月に開催された第7回ロボット学習年次会議で発表した論文の中で、脳信号によってロボットを制御できるインテリジェントな人間の脳とロボットのインターフェースを発表した。Neural Signal Operated Intelligent Robotsの略でNOIRと名付けられたこのシステムは、脳波(EEG)を使って人間の意思をロボットに伝える。
研究者たちによると、彼らの脳とロボットのインターフェースは、料理、掃除、身の回りの世話など、20種類の日常作業を行えることが証明されたという。タスクの実行能力だけでなく、NOIRはAIを使ってユーザーの意図を学習し、より適切に適応することも目指している。
ロボットの学習アルゴリズムを相乗的に統合することで、システムの有効性が向上し、NOIRは個々のユーザーに適応し、その意図を予測することができる。私たちの研究は、人間とロボットとのインタラクションの方法を強化し、従来のインタラクションのチャンネルを、神経を使った直接的なコミュニケーションに置き換えるものである。
NOIRは、脳信号を処理する目標をデコードする最初のコンポーネントと、原始的なタスクのライブラリをサポートする別のコンポーネントを使用している。
最初のコンポーネントは、EEG信号を使用してユーザーの意図を解読するモジュール式パイプラインとして実装されている。どの物体を操作すべきかを理解するために、最初のパイプライン・モジュールは定常状態視覚誘発電位(SSVEPs)、すなわち一般に視覚野と関連する後頭葉で生じる周期的周期的な刺激に依存する。これらの刺激は次に正準相関分析(CCA)を用いて分類され、正準参照信号が作成される。正準参照信号はEEG信号と照合され、その周波数で明滅させられた物体を識別する。
次のパイプライン・ステージでは、ターゲット・オブジェクトに対して実行するアクションをデコードする。これは運動イメージ(MI)信号を用いて達成される。MI信号は4つの利用可能なクラス、すなわち左手
、右手
、脚
、安静
のいずれかに変換され、ユーザーがタスクを実施するとイメージしている身体部位を特定する。
最後に、EEG信号がスクリーン上のカーソルを操作し、スキルを実行する位置を特定するために再び使用される。この段階では、ユーザーが操作を確認したり中断できるように、特別な安全メカニズムが実装されている。この目的のために、システムは顔の筋肉から発生する電気信号を収集する。例えば、ユーザーが顔をしかめたり、顎をしゃくったりすると、その信号が否定的な反応として解釈される。
2つ目のコンポーネントは、ピッキング、プッシュ、配置などを含むロボットスキルのパラメータ化されたライブラリを実装している。これらの基本的なスキルを組み合わせることで、より複雑なタスクを作り出せる。
研究者たちによると、NOIRは、食事の準備、掃除、身の回りの世話、娯楽など、4~15のスキルからなる20の長期的なタスクを達成できたという。各タスクには1~3.33回の連続試行が必要で、タスク完了までの平均時間は約20分であった。
これらの結果は、NOIRのようなシステムは、人間が同じタスクを達成するのに比べて、特に最初の試行では非効率的な部分があることを示しているが、研究者たちは、ロボットの学習方法は、時間の経過とともにこれらの非効率的な部分を解決する可能性があると確信している。