史上初のAI美人コンテストBeauty.AIが人種主義論争で炎上か

ロボティア編集部2016年9月9日(金曜日)

 史上初の人工知能(AI)による美人コンテスト「Beauty.AI」が、いわゆる“人種主義論争”で炎上している。同コンテストには、今年7月の1ヶ月間、世界100カ国以上から6000人以上の応募者が参加。応募者が提出した写真を人工知能が審査し、世界一の美人を決定するというものだった。

 しかし、8月2日に発表された結果に対し、また同プログラムを組んだ人々について、英メディア「ガーディアン」が「非常に失望した」と書き立てた。というのも、人工知能が選択した最終受賞者44人の大多数は、「明るい色の肌」、つまり白人女性であり、アジア系の受賞者は数えるほどで、暗い色の肌を持つ受賞者は一人もいなかったからだ。大会への応募者には白人が多かったが、インドやアフリカ出身など「有色人種」の応募者も多く含まれていた。これについて、明らかに「肌の色による差別」だと指摘したのだ。

 今回の美人コンテストは「ユースラボラトリー(Youth Laboratories)」というディープランニング研究グループが主催し、マイクロソフト(MS)社が後援した。人工知能の美人コンテストの基本的な仕組みとしては、アルゴリズムが多数の人物の写真で構築されたデータベースを分析し、美しさを判断するというものであった。事前の触れ込みでは、人の顔の対称性、しわなど、客観的な要素を“美の指標”とするとしていた。

 今回、人工知能が白人を多く選んだ最大の原因は、さまざまな肌の色を持つ美しい人々の写真=データが不十分だったからだといわれている。大会側は、「さまざまな肌の色のデータが十分でない場合、偏向的な結論が出る場合がある」と説明している。

 今回の審査結果は、人工知能もしくはコンピューターアルゴリズムが、完全に中立的かつ客観的であることの難しさを物語る。入力されたデータ、またプログラムする人間側が何を基準に“良し”とするかによっては、偏向的な結果が生まれることがある。

 米コロンビア大学の政治学者バーナード・ハーコート(Bernard Harcourt)教授は「人工知能による美人コンテストの結果は、このような問題点の完璧な例(中略)美しさに対し、文化的・人種的中立性を確立することができるとは考え難い」と述べている。

 去る3月、マイクロソフトのチャットボット「テイ」が、人種主義的発言をしたことは記憶に新しい。また先月には、フェイスブックのアルゴリズムが「一人の男がチキンサンドイッチに自慰行為をした」などのわいせつな記事を「ニュースフィード」に上げて物議を醸した。フェイスブックの件は、人間の編集者を排除した後に起こった問題だった。

 ガーディアンは、欠陥だらけのデータに依存した犯罪発生地域予測システムが開発されることで、人種主義的偏見や治安行政が逸脱する可能性があると、市民権利擁護団体が懸念しているとも伝えている。米非営利団体・メディアジャスティスセンター(Center for Media Justice)のマルキア・シリル(Malkia Cyril)氏は「汚染されたデータが汚染された結果を生む」と、問題の核心について言及している。

【関連記事】>>>米ハッカーがテロ防止用の人口知能アプリ「iAWACS」を開発
【関連記事】>>>アルゴリズムが顔を判断、AIが美人コンテストの審査員!?
【関連記事】>>>人工知能が審査するAI美人コンテスト…開催の本当の目的とは!?