感情認識AIとは? 人の感情を読み解く革新的技術の仕組みと未来展望
(画像=samael334/stock.adobe.com)

人工知能(AI)の実用化が急速に進み始めています。セキュリティ、マーケティング、エンターテインメントなど様々な分野で、すでに利用が始まっているのはご存じでしょう。

その中で、人間の感情を推定できる感情認識AIは、ヒトの感情に応じて行動する能力を機械に与える革命的な技術だといえます。その革命的な技術もすでに応用が開始されています。

この記事では、感情認識AIの基本概念から応用、技術的課題、倫理的考慮、そして未来の展望までを解説します。

監修者

松本豊(まつもと・ゆたか)
新規事業開発本部 Affdexプロダクトオーナー
1998年早稲田大学人間科学部卒業後、医療サービス会社に勤務。2001年からアメリカに留学し、2005年にCAC Americaに入社。 2012年に日本に帰国しCACへ、複数の新規サービスのマーケティングや運営、プロダクトグロースなどを担当。2022年4月より感情認識AI『Affdex』のセールスを担当、感情センシング技術の展開を推進している。2024年1月からはプロダクトオーナーを務める。

目次

  1. 感情認識AIとは?
  2. 感情認識AIの応用例
  3. 感情認識AIの技術的挑戦と倫理的考慮
  4. 感情認識AIの未来
  5. まとめ

感情認識AIとは?

感情認識AIとは、人間の感情を自動で推定・識別するAI技術です。顔の表情、音声のトーン、言葉遣い、場合によっては心拍数や体温の変化などから感情を読み取り、その人がどのような感情を持っているのかを数値化して分析します。

誕生と歴史

人間の表情から感情を読みとる行為は、人がコミュニケーションの手段として普段より行っていることです。しかしながら、これまでは感情を客観的に機械で測定することはできませんでした。

マサチューセッツ工科大学(MIT)のロザリンド・ピカード教授は、脳の機能を模倣するコンピュータの研究に携わっていました。

教授は人が物事を認識する過程において感情が重要な役割を果たしているはずだと考え、これを客観的に証明するためにエンジニアリングツールを持ち出したのが感情認識AI誕生のきっかけとされています。ピカード教授の著書「Affective Computing」(1997)によってその研究は広く知られることとなりました。

その後、ピカード教授は、ラナ・エル・カリウビィ博士と共同で、Affectiva(アフェクティバ)社を起業し、そこで感情認識AI『Affdex(アフデックス)』を開発します。

今や、感情認識AI「Affdex」は、教育、医療、自動車など様々な分野で広く活用され始めています。日本では株式会社シーエーシー(CAC)が唯一の代理店となっており、Affdexを販売するとともに、これをプラットフォームとした独自製品の開発を行っています。

感情認識AIの仕組み

感情認識AIはコンピュータに人間の表情を機械学習させて作成しています。前述のAffectiva社では90ヵ国、約1,000万の人の表情が写ったビデオを収集し機械学習をさせたといいます。

人の表情を作る筋肉の動きを「アクションユニット」と呼び、これを45種類に分類しています。その45種類のアクションユニットが組み合わせられ、何百種類もの感情を認識できるようになっています。

こうして機械学習させたAIは、多種多様な人間の表情を識別できるようになり、例えば同じ笑顔でも、本当の笑顔なのか、作り笑いなのかも推定することができます。

音声や文章についても同様で、音声の波形と感情、文章の表現と感情の組み合わせを学習させ、機械学習モデルを作り上げていきました。

感情認識AIの応用例

実際に感情認識AIが、どのような分野で役立っているのか、その実例をいくつか紹介しましょう。人間の感情と直接相対する仕事である、カスタマーサービス、医療、そして人を楽しませるエンターテインメントなどの例があります。

顧客サービス

感情認識AIは、営業窓口などで、顧客対応に当たる社員の表情のトレーニングにも使用されています。

明治安田生命保険相互会社(以下、明治安田)では、営業職員が外出する際に笑顔をチェックしたり、ひとりでも行えるセルフトレーニングをしたりできるようにCACの「心sensor for Training」を導入しました。

全国約3万8千人の営業職員の業務用スマートフォンにインストールして使用しており、営業職員はスマートフォンの画面を見ながら、感情表現の練習ができるようになっています。カメラを作動させたスマートフォンに向かって話をすることで、その時の表情をAIがリアルタイムに分析して採点し、振り返りに役立てています。

また、明治安田ではCAC独自開発のSpeech Rating Systemを使い、AIで発話の練習もできるように共同開発し、すでにスピーチ採点機能として実装しています。商談は緊張するものですが、日々AIでトレーニングを積むことで自信をもって商談に臨めるでしょう。

ヘルスケア

ヘルスケアの分野で活躍する感情認識AIは、障害を持った子どもたちのケアなどに役立っています。Brain Power(ブレインパワー)社は、Affectiva社のソフトウェア開発キット(SDK)を使って自閉症患者のための社会的スキルや認知能力の学習を支援するAR(拡張現実)スマートグラスシステムを開発しました。

感情は人間の表情や言葉の調子に表れますが、自閉症の患者は人の感情を読み取るのが難しいため、これを学習するための教材をARスマートグラスで開発したのです。

患者がこのスマートグラスをかけると、会話する相手の表情が認識されて、「この表情は、どんな表情?」というクイズがアイコンで表示されるゲームが始まります。正解するたびに、患者は表情と感情の組み合わせを認識していける仕組みになっています。

エンターテインメントとゲーム

音声・言語解析AIがゲーム開発に多大な貢献をしている事例があります。音声感情解析AI『Empath』は、ゲーム開発時にかかる表情アニメーターの工数を95%削減することに成功したのです。

これは、2024年1月に発売されたゲーム「FORSPOKEN」の開発時に活用された技術です。ゲーム中の3Dキャラクターの表情は、セリフを聞きながらアニメーターの手作業によって作成していたため非常に時間がかかりコストが高くなっていました。

Empath

『Empath』は収録したセリフを解析し、感情を数値で生成する技術を開発してゲーム会社に提供しました。その技術は、『Empath』の持つ感情を表す音声をもとにディープラーニングで、平常、怒り、恐怖など9つの感情を推定するものです。

これにより、1000分のセリフを処理するのに500人日の労力が必要だった作業が、25人日の労力でできるようになると想定できます。

感情認識AIの技術的挑戦と倫理的考慮

感情認識AIは画期的技術であり、これから様々な分野で活用されることが期待されますが、いくつかの課題も残されています。技術的には、精度の向上やマルチモーダルデータの統合が課題となっています。倫理的には、プライバシーの保護やデータの取り扱い、バイアスの問題が重要な課題です。

技術的挑戦

感情認識AIにおける技術的挑戦として、マルチモーダルへの挑戦が挙げられます。この場合のマルチモーダルとは、複数の入力データ(例えば、表情、音声、テキストなど)を統合して人間の感情を識別・分析する技術のことを指します。

このアプローチにより、画像のみ、音声のみなどの単一のデータソースだけでは捉えられない感情のニュアンスや複雑さを明らかにすることが可能になり、感情認識AIはより包括的な感情理解を達成することができるようになります。

画像だけでは見分けることができない感情を正しく判別するには音声も必要になる場合があることを、我々は経験的に知っています。普通の顔をしているのに、声が怒っている人を見たことはないでしょうか。こうした場合でも顔の表情の映像と音声の波形データの両方をもって感情認識ができれば、認識の精度はさらに高まるはずです。

こうした試みはすでに各企業で始まっており、感情認識AIの精度のさらなる向上が期待されています。

倫理的考慮

感情認識AIの発展は、多くの倫理的な課題を内包しています。その1つがプライバシーの保護です。感情がデータ化されて記録されることは、個人の内面的な状態という私的な情報が社外に提供されることになります。表情が無断で収集されたり、それが漏洩したりするなどの可能性を含んでいます。

また、感情認識AIが不正確、あるいは偏った結果を出すことによる誤解や偏見の問題もあります。AIが特定の感情表現を誤って解釈すれば、不当な扱いや判断につながる可能性があります。

さらに、感情認識AIの使用目的に関する透明性についても配慮が必要です。企業や政府がこれらの技術をどのように使用しているかが明確でない場合、社会に対する信頼を損なう可能性があります。例えば、感情認識AIを用いた監視や評価システムが、個人の自由や権利を侵害する形で利用される危険性もあるでしょう。

これらの課題を解決するためには、次のような対処が望まれます。

  • 感情認識AIの開発と使用に関する倫理ガイドラインの策定
  • データの収集と処理における透明性の確保
  • 利用者の同意の徹底、個人データの保護の優先

他にも感情認識AIに対して人種や性別、年齢などによってバイアスがかからないようにアルゴリズムを構築することも必要になるでしょう。また、AIが生成する結果の精度と公平性を高めるための技術や運用体制も求められます。

実際に、感情認識AIを取り扱う企業はデータの利用目的の開示などを行い、プライバシーに配慮した運用を行っています。

参考:J-Stage「文化と感情:比較文化的考察と組織論への意義/内田由紀子

感情認識AIの未来

感情認識AIの未来は、大きな社会変化をもたらすことが予想されます。技術の進化は、より精密で人間に近いAIの感情理解を可能にし、働き方や生活の質が向上する可能性があります。

技術の進化の方向性

感情認識AIは、技術の進化によって大きく変貌することが予想されます。コンピュータのハードウェア性能の向上や通信速度の向上に伴って、機械学習やディープラーニングの速度や量が進歩して学習量は巨大なものになっていくでしょう。

これに伴って感情認識の精度はさらに上がっていきます。マルチモーダルアプローチの発展により、表情、音声、テキストのデータを同時に分析できるようになれば、普通の人間なら見過ごしてしまいそうな感情の動きを、機械が認知できるようになるかもしれません。

こうしたレベルにまで進化した感情認識AIはさらにその応用範囲を広げるでしょう。例えば感情データを利用した、個人の健康やウェルビーイングをサポートする方向へと進化する可能性があります。ストレスやうつ病の早期発見、心理的なサポートの提供など、ヘルスケア分野での応用も考えられます。

例えば、2013年頃に東日本大震災の被災地で復興支援にあたるボランティアスタッフに向けて、『Empath』を活用したメンタルヘルスケアを提供しました。厳しい環境のもとでメンタルに不調を抱えてしまう方がいるため、メンタル不調者を早期に発見して休みを取ることを促す取り組みを行っていました。

さらに、教育や仕事の環境においても、個人の感情や状態を理解し、適切なサポートやフィードバックを提供することで、学習効率の向上や職場の生産性の向上に貢献することができるでしょう。また、小売業やサービス業などでは、より人の感情に配慮したサービスが実践されるようになるはずです。

感情認識AIの技術的進化はこのように社会にポジティブな結果をもたらすことが期待されると同時に、先に述べたようなプライバシーの課題も考えられます。双方のバランスを保ちながら発展していくことが望まれます。

まとめ

感情認識AIは人の感情を読み解くことができる画期的な技術で、すでに各方面で実用化が進んでいます。

さらに今後は、顧客サービス、教育、ヘルスケアなど多くの分野で、人と人、人と機械の間のやりとりを、より人の感情に沿った形で実現し、社会にポジティブな影響をもたらすのかもしれません。しかし、これにはプライバシー侵害やデータの不正利用といった倫理的課題への対応が必要となります。

感情認識AIの未来は、技術の進歩と倫理的な管理のバランスをどのように取るかにかかっています。社会全体での議論と合意形成が、感情認識AIを使いこなす明るい未来を創造するカギとなるでしょう。