史上初のAI美人コンテストBeauty.AIが人種主義論争で炎上か

史上初のAI美人コンテストBeauty.AIが人種主義論争で炎上か

関連ワード:AI Beauty.AI Microsoft

Written by 河鐘基

Posted date:2016.09.09

 今回の審査結果は、人工知能もしくはコンピューターアルゴリズムが、完全に中立的かつ客観的であることの難しさを物語る。入力されたデータ、またプログラムする人間側が何を基準に“良し”とするかによっては、偏向的な結果が生まれることがある。

 米コロンビア大学の政治学者バーナード・ハーコート(Bernard Harcourt)教授は「人工知能による美人コンテストの結果は、このような問題点の完璧な例(中略)美しさに対し、文化的・人種的中立性を確立することができるとは考え難い」と述べている。

 去る3月、マイクロソフトのチャットボット「テイ」が、人種主義的発言をしたことは記憶に新しい。また先月には、フェイスブックのアルゴリズムが「一人の男がチキンサンドイッチに自慰行為をした」などのわいせつな記事を「ニュースフィード」に上げて物議を醸した。フェイスブックの件は、人間の編集者を排除した後に起こった問題だった。

 ガーディアンは、欠陥だらけのデータに依存した犯罪発生地域予測システムが開発されることで、人種主義的偏見や治安行政が逸脱する可能性があると、市民権利擁護団体が懸念しているとも伝えている。米非営利団体・メディアジャスティスセンター(Center for Media Justice)のマルキア・シリル(Malkia Cyril)氏は「汚染されたデータが汚染された結果を生む」と、問題の核心について言及している。

【関連記事】>>>米ハッカーがテロ防止用の人口知能アプリ「iAWACS」を開発

1 2

参照
guardian