Tayが初めてではない!?差別的判断を繰り返す人工知能

Tayが初めてではない!?差別的判断を繰り返す人工知能


Posted date:2016.04.05


tay_人工知能

photo by twitter


 最近、人工知能が「人種差別的、性差別的な偏見を持つ」という話題が世界を駆け巡った。話題の主人公となったのは、マイクロソフト社が公開した人工知能チャットボット「テイ(Tay)」だ。

 テイは「ヒトラーが正しく、私はユダヤ人が嫌い」「米国とメキシコの国境に壁を設置して、その費用はメキシコが払うべき」などと主張した。 ユーザーに「人種差別主義者か?」と尋ねられテイはさらに、「君がメキシコ人だから、そうだ」とメッセージを返した。そのような発言が相次いだため、マイクロソフト側はわずかサービス開始16時間後にテイを”遮断”してしまった。

 なぜ、テイは偏見を持つようになったのか。テイは複数の人々の会話データなどをもとに、自ら学習するディープラーニング技術をベースに開発された人工知能だ。したがって、人々が持っている偏見から逃れることは難しい。というよりも、ネット空間を漂う人間の知性や偏見、情報の塊という見方もできる。

 実は、テイの公開直後、白人優越主義者や女性およびイスラム教徒に嫌悪感を抱く人々が集まったとあるコミュニティで、極端な主張を繰り返し学習・訓練させられていたという事実が明らかになった。今回の場合、人間の総意ではなく、一部の人々に利用されたという方が正しいかもしれない。

 人工知能が偏見的な判断を下したのは、実は今回が初めてではない。昨年7月、アフリカ系アメリカ人であるジャッキー・アルシン(Jacky Alcine)氏は、黒人女性の友人とともにコンサートに遊びに行き写真を撮影した。その後、Googleフォトに写真をアップロードしたのだが、その友達の写真は「ゴリラ」というタグで分類されていた。

 Googleフォトに、写真をアップロードすると、人工知能が被写体を認識し自動的にタグをつけてくれる。例えば、海辺で撮影した写真であれば、海水の青や白い砂浜の砂、海岸線などを認識して「海」というタグを自動的に付与する。

 怒ったアルシン氏は、ツイッターにGoogleフォトのスクリーンショットを掲載。ともに「グーグルファック。私の友人は、ゴリラではない」という文を掲載した。問題が炎上すると、Google側はアルシン氏に公開謝罪し、不完全なソフトウェアを改善すると約束した。これに対し、アルシン氏はGoogleフォトのプログラム開発者の中に、黒人がいないのではという疑惑を抱き、それを提起した。

1 2 3

参照
news.sky.com
ibtimes
sciencetimes