ロボット工学者と計算機科学者は、向上したコンピュータの視覚を、心理学で行われていた感情のシグナルに関する研究の成果に適用した。現在、感情を理解できるマシンのほとんどは、例えばボディランゲージや表情の動きなどの、人間が見ているのと同じ種類の感情のシグナルを見て判断している。しかし機械学習を利用すれば、機械が感情を解釈するために使える、人間が捉えることのできないシグナル、あるいは少なくとも、人間が気づいていないシグナルが発見されるかもしれないという期待がある。これによって、いずれ人間よりも感情を読み取る能力に長けたデバイスが生まれるかもしれない。
すでに感情を読み取る機械は登場している。一般販売もされている、ソフトバンクのショップ内店員として登場したAldebaranのロボット「Pepper」は、人間に対して冗談を言い、その反応を読み取る能力を持っている。Pepperはその情報に基づき、機械学習アルゴリズムを用いて行動を改善する。
- TechRepublic Japan関連記事
- JAL、IoTと人工知能で従業員満足度を向上--仮説の設定と検証を自動化
- リアルタイム分析の課題--データをどう組み合わせるべきか
ピッツバーグ大学で心理学を研究するJeff Cohn氏は、うつ病の治療に効果があったかどうかを調べるため、機械に表情や話し方のトーンの読み取り方を教えている。またMoore氏が計算機科学部の責任者を務めるカーネギーメロン大学では、Justin Cassell教授が教育の場面でアニメーションキャラクターを使って子供とやりとりをする研究を進めている。Cassell氏の研究によれば、子供の感情の状態に応じてシミュレーションされたキャラクターが効果的に反応すると、子供の関心度と学習成果は大きく改善された。
「われわれの数字は、教員や学生がこの分野に非常に力を入れていることを示している」とMoore氏は言う。「3年前にはこの分野に取り組む教員は1人しかいなかったが、今では6人になった。コンピュータビジョンの効果は証明され、感情を読み取る機械の技術は次の段階に入るだろう」(Moore氏)
「Jibo」やAmazonの「Echo」などが家庭に進出すれば、テーブルの上に置かれたパーソナルアシスタントが、人間の気分を読み取って、それに応じて音楽を鳴らしたり、予定を伝えたり、その時の気分に基づく提案をしたりする時代が来ると考えても、それほどおかしいことではない。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。