サイト内の現在位置を表示しています。

感情認識の倫理的側面:データ化される個人の終着点

   『日本セキュリティ・マネジメント学会誌 Vol.36, No.2』(2022年度第2号)に、当社主幹研究員小泉雄介の研究ノート「感情認識の倫理的側面:データ化される個人の終着点」が掲載されました。
   感情認識技術は比較的新しい技術として、様々なサービスへの応用が期待されており、日本でも人事採用やドライバーモニタリング、マーケティング、パブリックセキュリティ等の分野で実用化されつつあります。しかし欧米では、人権に与える影響や、科学的根拠の欠如などの点から感情認識技術に対する批判・懸念が多く見られ、原則禁止を含む規制が提案されるなど、その社会的評価は十分に定まっていない状況にあります。本稿では、感情認識技術を用いたサービスの海外事例(米国、EU、香港)と規制動向(米国、EU、日本、国際機関)を調査し、感情認識技術に対する主な懸念・批判を(1)個人に対する透明性の欠如、(2)科学的根拠の薄弱さ、(3)内心の自由・表現の自由などの基本的権利の侵害、(4)感情認識技術におけるバイアス、の4つに分類しました。特に(2)と(3)の懸念・批判が、個人の感情や意図などの心的状態を外部から推測できるとする感情認識にとって本質的なものです。そして本稿では、各々の懸念・批判に対して、感情認識技術を開発・提供する企業や利用する企業がサービス設計や利用に当たってどのような保護措置を取ればよいのか、対応の方向性を検討しました。このような感情認識技術の倫理的側面について、我が国ではほとんど議論されていない状況でありますが、社会に受容される感情認識技術の利用方法を模索するためにも、パブリックな議論を一歩一歩積み重ねていくことが重要です。