史上初のAI美人コンテストBeauty.AIが人種主義論争で炎上か

 今回の審査結果は、人工知能もしくはコンピューターアルゴリズムが、完全に中立的かつ客観的であることの難しさを物語る。入力されたデータ、またプログラムする人間側が何を基準に“良し”とするかによっては、偏向的な結果が生まれることがある。

 米コロンビア大学の政治学者バーナード・ハーコート(Bernard Harcourt)教授は「人工知能による美人コンテストの結果は、このような問題点の完璧な例(中略)美しさに対し、文化的・人種的中立性を確立することができるとは考え難い」と述べている。

 去る3月、マイクロソフトのチャットボット「テイ」が、人種主義的発言をしたことは記憶に新しい。また先月には、フェイスブックのアルゴリズムが「一人の男がチキンサンドイッチに自慰行為をした」などのわいせつな記事を「ニュースフィード」に上げて物議を醸した。フェイスブックの件は、人間の編集者を排除した後に起こった問題だった。

 ガーディアンは、欠陥だらけのデータに依存した犯罪発生地域予測システムが開発されることで、人種主義的偏見や治安行政が逸脱する可能性があると、市民権利擁護団体が懸念しているとも伝えている。米非営利団体・メディアジャスティスセンター(Center for Media Justice)のマルキア・シリル(Malkia Cyril)氏は「汚染されたデータが汚染された結果を生む」と、問題の核心について言及している。

【関連記事】>>>米ハッカーがテロ防止用の人口知能アプリ「iAWACS」を開発

河鐘基

記者:河鐘基


1983年、北海道生まれ。株式会社ロボティア代表。テクノロジーメディア「ロボティア」編集長・運営責任者。著書に『ドローンの衝撃』『AI・ロボット開発、これが日本の勝利の法則』(扶桑社)など。自社でアジア地域を中心とした海外テック動向の調査やメディア運営、コンテンツ制作全般を請け負うかたわら、『Forbes JAPAN』 『週刊SPA!』など各種メディアにテクノロジーから社会・政治問題まで幅広く寄稿している。