人工知能が”偏見学習”する!?「AIは人間から悪意を学ぶ」英論文が憂慮

ロボティア編集部2017年4月28日(金曜日)

 人工知能(AI)が社会的偏見を猛スピードで学んでいる――。そんなショッキングな内容を含んだ論文が、バース大学のジョアンナ・ブライソン(Joanna Bryson)教授らによって発表された。論文は、人工知能技術のひとつ「ワードエンベディング(word embedding)」を用いて訓練されたAIが、人間に対する偏見を学習する可能性があるとした。 

 ワードエンベディングとは、テキストを構成する単語を数値化する方法の一種。人が入力した表現や形が異なっても、関連性を計算し適切に答えを返したり、よく一緒に使われる言葉を分析し、それらをベースにテキストを構成できるようにする技術だ。特徴としては、辞書における言葉単体の定義を超えて、文化的・社会的文脈を言葉に込めることができるという点。例えば「花」は愉快な他の言葉に、「虫」は不快な他の言葉にそれぞれ関連付けられる。 

 研究者たちは今回、ワードエンベディングで訓練されたAIが「女」を芸術や人文系の職業、「男」を数学や理工系の専門と関連付ける傾向を発見。また、ヨーロッパ系アメリカ人の名前を「幸せ」、や「プレゼント」など、主に肯定的な言葉と関連付ける一方、アフリカ系アメリカ人の名前を“不快な言葉”と関連付ける傾向を確認したという。 

 英オックスフォード大学のサンドラー・ウォッチャー(Sandra Watcher)教授は、「歴史資料には偏見があるので、このような結果は驚くべきことではない」と、楽観的な見解を述べている。一方、ブライソン教授は「人工知能が、私たちの偏見を学ぶ可能性がある。(中略)道徳的な制御装置がない人工知能は危険だ」と言及。加えて「AIが偏見を持っている訳では決してない。私たちの中に偏見が潜んでおり、それをAIが学んでいる」と指摘した。

photo by 新浪博客