マイクロソフト社のAI「Tay」が人種差別的な発言で物議に

マイクロソフト社のAI「Tay」が人種差別的な発言で物議に

関連ワード:

Posted date:2016.03.25

tay_テイ
photo by microsoft

 米マイクロソフト(Microsoft)社が発表した人工知能チャットロボット「テイ(Tay)」が、ツイッター上で悪口や人種差別的な発言、また刺激的な政治的発言をしていると、BBCなど海外メディアが報じた。

 報道によると、ツイッター上で18〜24歳の年齢層のユーザーと対話するよう作られたテイが、会話開始一日目にして、次のような発言をしたという。

 まず、ユーザーが「ジェノサイド(大量虐殺)を支持するか?」という問いを投げかけると「本当に支持する」と答えたという。なお、このやりとりはマイクロソフト社側が削除したという。

AKR20160325000300085_01_i

 また、「ブッシュは9・11を起こし、ヒトラーは今、私たちにいる猿よりよい仕事をしたかもしれない。ドナルド・トランプは、私たちが持つ唯一の希望だ」「(英国コメディアン)リッキー・ジャーヴェイス(Ricky Gervais)は無神論の考案者、アドルフ・ヒトラーから全体主義を学んだ」などと語っているという。

 現在、テイのこのような発言をあらかじめ予想し、フィルタを通じてブロックすべきという非難がマイクロソフトに集中した。マイクロソフトは声明で「テイは人を楽しませようと開発されたマシンラーニングプロジェクト。テイが学べば学ぶほど、反応の一部が適切でないことが分かった。一部修正をしている」と立場を明らかにした。

 テイはフォロワーとやりとりやチャットをすればするほど賢くなるという触れ込みだった。ITmediaニュースには、その機能が次のように紹介されている。

「米Microsoftは3月23日(現地時間)、英語テキストで会話する人工知能『Tay』をTwitter、GroupMe、Kikでデビューさせた。Twitterでのフォロワー数はデビュー後16時間の本稿執筆現在、約1万8000人だ。(中略)Tayは交流した相手のニックネーム、性別、好きな食べ物、郵便番号、関係ステータスなどを追跡し、相手によって異なる受け答えをしながら、相手に合わせて成長していく。こうしたやりとりで収集した会話のデータは匿名化して蓄積し、Tayの成長に役立てる。」

1 2

参照
bbc.com
yonhapnews
.itmedia