バイオフィードバックを利用した視線入力&BCI統合型インターフェースの開発
背景
子どもたちが認知と知覚のスキルを伸ばす方法は、物体を探索し、その物理的環境を探索することに大きく依存します。私たちが子供の認知発達に言及するとき、私たちは子供たちが学び、感じ、考え、問題を解決し、環境を知る方法を指します。物体を操作して環境を探索することは、遊びを通じて行われることが多く、これは子供の発達に不可欠です。ヒューマンテクノロジーインターフェースは、機能的な遊び活動を実行するために支援テクノロジーを制御する際に基本的な役割を果たします。ロボットは身体に障害のある子供たちが活動を行うための手段として使用でき、ロボットにアクセスするために「ヒューマン・ロボット・インターフェース」が使用されます。ただし、これらのインターフェイスにアクセスして操作するには、通常、ある程度の物理的能力が必要です。ユーザーに自発的かつ反復可能な筋肉制御がなく、正確な身体動作を開始することが困難な場合、これらのインターフェイスを操作することは不可能です。視線データや脳信号を利用したインターフェースなど、身体の動きを制御する能力を必要としないインターフェースもあり、近年では病院や家庭で使用できる価格になりつつあります。
目的
この研究の主な目的は、統合された視線およびBCIベースのヒューマン・ロボット・インターフェースを開発およびテストすることであり、ターゲットを選択するための視線に対する振動触覚触覚フィードバックと、ロボット制御のための運動イメージに対する運動感覚触覚フィードバックを提供します。
実験方法
このプロジェクトでは、レゴロボットを制御するためのヒューマンロボットインターフェースとして視線と脳信号が統合され、障害のない成人5名と脳性麻痺のある成人1名でシステムがテストされました。課題は、2 つのブロックの山のうちの 1 つを倒すことでした。この研究の実験セットアップは、図 1 に示すように、視線追跡システム、BCI システム、触覚フィードバック システム、移動ロボットの 4 つのコンポーネントで構成されています。システム全体の図を図 2 に示します。
このヒューマン ロボット インターフェイスにより、ユーザーは、1) 固定アイ トラッカーである Tobii アイ トラッカー 4C (Tobii Technology、ダンデリード、スウェーデン) によって検出された視線に基づいて、物理環境内の所望の空間ターゲット オブジェクトを直接選択することができます。2)ブレイン コンピューター インターフェイスである OpenBCI (OpenBCI, Inc.、ブルックリン、ニューヨーク州、米国) を介してキャプチャされたモーター イメージに基づいて、ロボットをターゲットに向かって移動させます。USB カメラをタスク環境上にマウントし、環境全体の画像データを取得しました。アイ トラッカーは 2 次元画面で使用するように設計されているため、参加者の視線は射影等次変換を使用してタスク環境の 2 次元平面にマッピングされました。脳の前運動野にわたる 8 つの EEG チャネル (つまり、Cz、Cp、F3、C3、P3、F4、C4、および P4) を 250 Hz のサンプリング周波数で記録しました。ノイズ除去のための 60 Hz ノッチ フィルターと、EEG 信号の感覚運動成分を取得するための 7 ~ 30 Hz FIR バンドパス フィルターを実行した後、共通空間パターン (CSP) フィルターを信号に適用して、脳波信号の特徴ベクトルを抽出しました。運動の意図。CSP フィルターによって抽出された特徴ベクトルの対数パワーは、線形判別分析分類器の入力として使用され、参加者の運動イメージと静止イメージをリアルタイムで識別しました。
さらに、このヒューマン ロボット インターフェイスは、ユーザーに 2 種類の触覚バイオフィードバックを提供しました。一般に、ユーザーが視線制御と運動イメージをどの程度うまく実行しているかを視覚的に表現できることは、これらのインターフェイスの操作にとって非常に重要ですが、コンピューター ディスプレイが関与していないこの実験設定では、視覚的なフィードバックを提供するのが困難です。したがって、視覚フィードバックの代替手段が提供されました。1) ユーザーが対象物体を注視し続けるのに役立つ振動触覚触覚フィードバック、および 2) 触覚ロボット インターフェイスを介して手の受動的な動きを容易にする運動感覚触覚フィードバック (Novint 氏) Falcon (Novint Technologies, Inc.、米国ニューメキシコ州アルバカーキ) は、生成されたモーター画像に基づいています。
結果
身体障害のある参加者とない参加者は、統合インターフェースを使用したロボット制御のデモンストレーションに成功しました。障害のない成人参加者全員が、触覚フィードバック条件を使用したロボットタスクをフィードバックなしのタスクよりも早く達成し、そのうちの 2 つは有意性を示しました (p=0.01)。
NASA タスク負荷指数 (NASA-TLX) による精神的作業負荷評価への回答により、障害のない参加者 5 人中 4 人が、触覚フィードバック条件下でのタスクはフィードバックなしのタスクよりも作業負荷が低いと回答したことが明らかになりました。また、記述的分析により、身体障害のある人は触覚フィードバック条件下でより速くタスクを実行し、作業負荷が少ないと報告されたことが示されました。
結論
この研究における統合ヒューマン ロボット インターフェイスが、低コストの消費者向けアイ トラッカー、BCI、および触覚ロボット インターフェイスを使用して開発されたことに言及することも重要です。ロボット制御のための視線やBCI研究に使用される典型的な機器は、一般に高品質で高価なシステムですが、それらはシステムを必要とする多くの人々にとって手頃な価格ではありません。この装置は通常、システムの総コストの少なくとも 10 倍の費用がかかります。私たちが提案するインターフェースは、これらの研究で報告されている機器よりも大幅に手頃な価格になるはずです。この提案システムの開発は、家庭や病院における視線とBCIの統合インターフェースの実用化に向けた一歩となる可能性がある。
出典元:Integration of an Eye Gaze Interface and BCI with Biofeedback for Human-Robot Interaction