感情認識AIとは?表情・音声から読み取る方法・活用事例まで紹介!

感情認識AIとは?表情・音声から読み取る方法・活用事例まで紹介!

記事更新日: 2023/09/11

執筆: 遠藤亜美

最近では、AIを活用したさまざまなサービスが続々と登場しています。

その一つに「感情認識AI」があります。

表情や生体反応などに現れるさまざまな情報から、その人の抱く感情をAIがつぶさに読み取るのが特徴で、その精度の高さから接客、社員研修といった分野で導入され始めています。

感情認識AIを利用すると、従来のAIでは把握できなかった人の気持ちや心の動き、思考にまで深くアプローチできるため、ビジネスシーンにおけるパフォーマンスの向上に役立つと期待してよいでしょう。

本記事では、そんな「感情認識AI」の種類や仕組み、活用事例を紹介します。

感情認識AIとは

まずは、感情認識AIの概要について解説します。

人の表情などから感情を読み取る

感情認識AIとは、人の表情やテキスト、音声、脈拍や脳波などをもとに、その人が抱く感情や気持ち、思考の変化をAIが読み取る技術のことです。

人の感情は表情に出やすいですし、それ以外にも声色や発汗量、呼吸数などさまざまな生体現象と深く連動しています。

昔から多用されてきた「目が泳ぐ」「手に汗握る」「息つく暇もない」といった慣用句をみてもその理屈は納得できるのではないでしょうか。

そんな細やかな変化をAI技術により察知、分析することによってその人の心情や心の変化を的確に認識できるのが、「感情認識AI」の大きな特徴です。

AIが感情を持っているわけではない

人の感情が分かると聞くと、あたかも「AIが感情を持っている」かのごとく錯覚するかもしれませんが、そうではありません。

AIに、人の感情と連動するさまざまな要素に関する膨大なデータを学習させることで、「瞳孔の動き」「声の高さ」「発汗量」「呼吸数の増減」など本人でも気づかない細かな変化が捉えられるようになります。

これらを、サービスを提供する企業が独自開発したアルゴリズムによって分析することで、どのような感情の変化が起きているのかを具体的に察知するのです。

感情認識AIが急速に発展した理由

感情認識AIが急速に発展してきたのは、機械学習や自然言語処理、ディープラーニング(深層学習)の進歩と、それらを後押しするビッグデータの存在によるところが大きいです。

喜び、感動、感謝、悲しみ、不安、恐怖、迷いなど、どのような感情を抱くと生体などにどんな変化が起きるかを機械学習で学びます。

その機械学習には膨大なデータが必要ですが、近年では従来に比べて精度の高いビッグデータの収集と活用が極めて容易になりました。

学習したデータを単にパターン化したものに当てはめるだけでなく、追加されるデータを活用し、ディープラーニングによってAIがさらに応用・予測できる技術が発達したことも、感情認識AIの精度を飛躍的に向上させています。

感情認識AIの4つの種類と仕組み

続いて、感情認識AIの種類と仕組みについて解説します。

具体的には以下の4つになります。

  • テキストから読み取る
  • 音声から読み取る
  • 表情から読み取る
  • 生体情報から読み取る

テキストから読み取る

人が話す言葉や文章の内容から感情を読み取る技術です。

人が発する言葉を機械に理解させる自然言語処理によって、その人物が選択する単語や言葉遣い、語順、語尾などから感情を認識します。

しかもAIは、サービス開始後も日々のやり取りから新たなデータを蓄積し、分析力を高めることができます。

これによって、例えばコールセンターや接客といった場面で、相手の感情を読み取りながらのチャット式による応対が可能となるのです。

音声から読み取る

マイクで人が発する音声を聞き取ることにより感情を読み取る技術です。

人の声は、感情によって周波数(抑揚)や大きさ、速さなどに変化が起きます。

この特徴を活かして、その人の喜びや悲しみ、怒りや疲れといった心の様子を分析するのです。

具体的には、音響分析技術によって音声をデータ化し、そこから音素を抽出、アルゴリズムで感情と紐づけていきます

言語の種類(日本語や英語など)に左右されず、音声の特徴をとらえるので、コールセンターや自動接客などで役立ちます。

表情から読み取る

カメラを使って人の表情の細かな変化から感情を読み取る技術です。

目、鼻、口、眉といった顔のパーツに、多ければ100個ほどタグ付けします。

そのタグごとに大量の画像データを学習させて、どこにどんな変化が現れたらどんな感情を抱いているかを明らかにします

パーツはかなり細かく細分化されるため、肉眼では気が付かないような微妙な変化も逃しません。

これによって、細やかな感情の動きと種類を特定するのです。

生体情報から読み取る

脳波、心拍数、発汗量といった生体情報から感情を読み取る技術です。

このタイプは、上記のようなマイクやカメラなどとは異なる機器が必要になります。

スマートウォッチやリストバンド、専用のメガネといったウェアラブル端末を使って、各データを測定し、それらを感情の種類と紐付けします。

メカニズムが複雑なため、まだ実践段階のものが少なくありませんが、上述の「テキスト」「音声」「表情」といった別の感情認識AIと複合的に活用することにより、より高い精度を発揮できるようになると期待されています。

感情認識AIが出来る事とは?導入事例と共に紹介

それではここから感情認識AIができることについて、具体的な導入事例とともに紹介しましょう。

営業向けの表情トレーニング

明治安田生命相互保険会社は、株式会社シーエーシーが開発した表情トレーニングアプリ「心sensor for Training」を約32,000人の営業職員のスマートフォン内に導入しました。

これにより、「表情練習」「表情採点」「スピーチ採点」が可能となります。

「喜び、驚き、恐怖、嫌悪、怒り、軽蔑、悲しみ」の7つの感情に加えて、「笑顔、真剣、好感度、お詫び」といった表情を練習したり採点したりすることができます。

スピーチ中の話す速度や発音、抑揚、使う単語などからそのレベルを採点することもできるので、営業トーク力の向上にも役立ちます。

参考元:明治安田生命様 営業向け表情トレーニングに心sensor for Trainingを採用

アンケート分析

株式会社ユーザーローカルは、自由記述のアンケートを自動集計するツール「自動アフターコーディングAI」を提供しています。

アンケート内容から類似の回答をまとめて集計する作業を「アフターコーディング」といいますが、大量のアンケートを人力で捌いていくには、膨大な時間と手間がかかります。

同ツールは、AIと自然言語処理技術を活用することで、自由回答の内容から不満点や改善提案といった指摘を抽出

意見毎に集計・分析を行って可視化します。

集計担当者の負担を軽減し、生産性の向上につながるとされています。

参考元:ユーザーローカル、自由記述アンケート自動集計サービスを提供

メンタル管理

株式会社シーエーシーは、音声の特徴などから気分や状態を独自に解析する音声感情認識AI「Empath」を活用した「Beluga Box SaaS」を提供しています。

数万人の音声データベースを使って、利用者の声から、喜怒哀楽や気分の浮き沈みを判定できます

たとえば、オペレーターの通話音声から、感情解析、話し方分析なども可能。会話分析などから顧客満足度の測定も行えます。

また、オペレーターの音声から元気度合いを測定できる「メンタル支援機能」があるのもポイントです。

顧客対応しているオペレーターのストレスなどを早めに察知できれば、スタッフのメンタル管理はもちろん、サービスの向上にも役立つツールとなるでしょう。

利用シーンとしては、オペレータのコーチング、ロボットの音声対話における感情解析、バーチャル面談における面接者の適正タイプ診断など、幅広い用途で導入。

多くの実績があり、Webサービス、通信、メーカー、ゲーム業界など、業界を問わず展開中です。

参考元:CAC、音声感情解析AI「Empath」を活用したクラウド型対話データ解析サービス「Beluga Box SaaS」を販売開始

感情認識AIの課題と今後の展望

最後に、感情認識AIの持つ課題と今後の活用が期待されている分野について解説します。

人間のWチェックが欠かせない

感情認識AIは決して完璧な技術ではありません。

活用したデータや言語モデル、アルゴリズムの品質によってパフォーマンス精度はまちまちです。

また人の感情は複雑なうえ、人によって表情や声、話し方、発汗などへの影響の出方もさまざまですから、一様に決めつけるのはいささか危険が伴うでしょう。

よって感情認識AIから得られる結果を鵜呑みにするのではなく、生身の人間によるチェックや確認が不可欠といえます。

一部の業務でのみ活用されているのが現状

目に見えない人の感情を解析するのは、決して容易ではありません。

感情認識AIの信ぴょう性に疑問を持つ人も少なくないうえ、人権やプライバシーといった問題もあります。

実用化に至っているのは、リスクの低い社内での使用に限定したサービスやコールセンターなど、一部の用途に限られるというのが現状。

ただし、現在は複数の企業が感情認識AIサービスの開発・研究を進めており、今後さまざまな分野への導入が期待されています。

メンタルヘルスケア領域も開発が進んでいる

株式会社電通デジタルは、リモートワーク中の社員の表情をパソコンカメラやWEBカメラで読み取れる「​​INNER FACE™(インナーフェイス)」を開発。

心理学・人間科学の研究者と産学共同で「リモートワーカーの表情とメンタルヘルスの相関性を観測する」研究を進めています。

コロナ禍をきっかけにメンタルに支障をきたすビジネスパーソンが急増したことを受け、リモート社員のメンタル異常をいち早く察知し、悪化を防ぐことが狙いです。

オフィスで互いに顔を見ながら仕事をしている場合は、様子がおかしいことに気がつきやすいです。

しかしオンラインとなるとそれが難しくなるため、感情認識AIを使って画面上では気づけないメンタルの変化をキャッチしやすくするのです。

参考元:世界初となる「Webカメラを利用した連続的な表情分析システムによるリモートワーカーのメンタルヘルス研究」を産学共同で開始

医療・介護の現場への本格活用にも期待

感情や心理に深くアプローチできる可能性をもつ感情認識AIは、医療や介護の現場でこそ有効利用できるという声も多く聞かれます。

医師の問診・検査以外に感情認識AIを活用すれば、患者の健康状態や感情状態をより深く理解することができ、適切な治療法を提案できます

感情認識AIで患者のもつ本質的な解決課題を浮き彫りにできれば、医療技術の進歩に寄与すると期待されているのです。

まとめ

感情認識AIには、4つの種類があります。

すでにビジネス利用されている例もありますが、それらはほんの一部にすぎません。

将来的に活用できそうなジャンルや用途は多岐に渡ります

AI技術を使った新たなサービスは、次々と凄まじい勢いで登場していますが、その精度や信ぴょう性などについては曖昧な点が多いのも事実です。

感情認識AIもその例に漏れませんが、度重なる検証によって信頼性や社会におけるコンセンサスが今以上に得られるようになれば、画期的なイノベーションを生む可能性を十分に秘めていると期待してよいでしょう。

その日が来るのが、今からとても楽しみです。

画像出典元:Pixabay

最新の記事

ページトップへ