日経サイエンス2022年9月号

第2の天然痘になるか 広がるサル痘  出村政彬

最後だけ読んだ。
今後、ヒトヒト感染を繰り返すと変異が起きて危険→感染者の早期治療が必要
→現在、確かに同性愛者間で広がっているが、感染自体は性別や同性愛者かどうかと関係なく生じるので、感染者への偏見が生じることで治療をためらうようなことがないようにすることが重要

量子コンピューターが化学研究を変える  J. M. ガルシア

まとめ部分だけ読んだ
量子コンピュータなら近似ではない計算を行えるとかなんとか

あなたの内面を探る 感情認識AIの危うさ  J. マックエイド

表情から感情を判定するAIの利用が広がっている、らしい(主にマーケティング分野、広告の効果測定など。しかし、人事採用など様々な用途にも使われ始めている)。
問題点が4つほど挙げられている。

  • (1)偏見の「学習」

これは感情認識AIに限らず、深層学習AI一般において指摘されている問題だが、学習元となるデータにバイアスが含まれている場合、それを「学習」してしまうという問題
感情認識AIについては、男性よりも女性の方が「笑顔」判定されやすい。白人より黒人の方が「不機嫌」認定されやすい、というバイアスがあるらしい。
また、そもそもどこからどこまでが「笑顔」なのか等の問題もある。

  • (2)エクマン説への依拠

感情認識AIは、エクマンによる基本感情説に依拠しているところがある。
機械学習させるにあたって都合のいい説ではあるが、近年はこれを否定する研究も多く出てきている説である。

  • (3)プライバシーの問題

どこで何を見てどのような感情を抱いたのか、というのはプライバシーに関わる情報ではないか。
現在は、個人が特定されない状態なら利用しても問題ないことになっているが、本当に問題はないのか。
本人に同意なく収集することができてしまう問題。
なお、上述のエクマンは、初期の感情認識AI研究に関わっていたらしいが、現在は,プライバシーの問題から批判に回っているとのこと。

  • (4)感情認識の文脈依存性

同じ表情であっても、それがどんな状況で生じたものなのかによって感情は異なる
本記事では、二つの具体例が挙げられている。
一つは、生のビートルズを見て絶叫している女性の写真で、アップと引きの2つが掲載されている。アップで(その女性単体で)見ると動揺しているように見えるが、引きで(周囲の人も込みで)見ると歓喜していることが分かる。
もう一つは、サッカー選手の事例で、サッカーのルールを理解していないと選手がどのような感情を抱いたかは分からないだろう、と。