海外コメンタリー

機械は人の感情をますます理解する--元グーグル幹部らの展望 - (page 2)

Greg Nichols (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2015-12-21 06:15

 ロボット工学者と計算機科学者は、向上したコンピュータの視覚を、心理学で行われていた感情のシグナルに関する研究の成果に適用した。現在、感情を理解できるマシンのほとんどは、例えばボディランゲージや表情の動きなどの、人間が見ているのと同じ種類の感情のシグナルを見て判断している。しかし機械学習を利用すれば、機械が感情を解釈するために使える、人間が捉えることのできないシグナル、あるいは少なくとも、人間が気づいていないシグナルが発見されるかもしれないという期待がある。これによって、いずれ人間よりも感情を読み取る能力に長けたデバイスが生まれるかもしれない。

 すでに感情を読み取る機械は登場している。一般販売もされている、ソフトバンクのショップ内店員として登場したAldebaranのロボット「Pepper」は、人間に対して冗談を言い、その反応を読み取る能力を持っている。Pepperはその情報に基づき、機械学習アルゴリズムを用いて行動を改善する。

 ピッツバーグ大学で心理学を研究するJeff Cohn氏は、うつ病の治療に効果があったかどうかを調べるため、機械に表情や話し方のトーンの読み取り方を教えている。またMoore氏が計算機科学部の責任者を務めるカーネギーメロン大学では、Justin Cassell教授が教育の場面でアニメーションキャラクターを使って子供とやりとりをする研究を進めている。Cassell氏の研究によれば、子供の感情の状態に応じてシミュレーションされたキャラクターが効果的に反応すると、子供の関心度と学習成果は大きく改善された。

 「われわれの数字は、教員や学生がこの分野に非常に力を入れていることを示している」とMoore氏は言う。「3年前にはこの分野に取り組む教員は1人しかいなかったが、今では6人になった。コンピュータビジョンの効果は証明され、感情を読み取る機械の技術は次の段階に入るだろう」(Moore氏)

 「Jibo」やAmazonの「Echo」などが家庭に進出すれば、テーブルの上に置かれたパーソナルアシスタントが、人間の気分を読み取って、それに応じて音楽を鳴らしたり、予定を伝えたり、その時の気分に基づく提案をしたりする時代が来ると考えても、それほどおかしいことではない。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

自社にとって最大のセキュリティ脅威は何ですか

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]