新しい”説明可能な人工知能”「XAI」に注目…自動化された”不平等”を解決するか

新しい”説明可能な人工知能”「XAI」に注目…自動化された”不平等”を解決するか

Posted date:2018.02.26

XAIは、医療・法律・金融・国防など、透明性およびユーザーから“信頼”が要求される分野で活用できるよう、意思決定の理由を人に提示できる人工知能だ。現在、この分野の研究に最も積極的なのは、米国防総省・国防高等研究計画局(DARPA)で、約80億円の予算を投入して研究を進めていると言われている。 MITとグーグルなど民間でも関連研究も活発化している。彼らは主に、ディープラーニングの可視化の過程を研究している。

人工知能が人間の偏見と、誤ったデータを根拠に学習していけば、日常を破壊するほどの危険性を発揮することになる。昨年9月、米スタンフォード大学の研究者は、顔写真だけで同性愛者を識別することができる人工知能を開発していると発表した。出会い系サイトに上がってきた写真を利用して、男性の場合91%、女性の場合83%の精度で同性愛者を区別するというのだ。中国では、潜在的犯罪者を予想する顔認識ソフトウェアまで開発している。

人工知能が誤った判断を下したときにその理由を知ることは、個人の権利でもある。欧州連合は、今年5月25日に施行される個人情報保護法(GDPR)のなかで「欧州連合市民は、法的効力をもたらすか、同様に重大な影響を与える事項について、プロファイリングなどの自動化された処理の適用を受けない権利を有する」と規定している。

プロファイリングとは、アルゴリズムを利用して「私」を特定のタイプに識別することを指す。個人や集団の情報を集めて、職場の業務遂行、経済状況、個人的嗜好、健康、関心ごと、信用度、行動パターン、場所、または移動経路などを分析し、対象を予測・評価する手法だ。「パーソナライゼーション」という名で流通している映画や書籍などの推薦サービス、またカスタマイズ広告は、プロファイリングを利用したものだ。

GDPR 22条は「プロファイリングを含む自動化された意思決定」という項目を扱っている。そこでは、アルゴリズムによる自動化された決定に反対して人間の介入を要求する権利、アルゴリズムの決定についての説明を求め、それに反対する権利などを規定している。つまり欧州連合は、企業の自動化された決定が利用者に大きな影響を与えるという前提で、例えば、信用評価などにおいては、データの主体である自分自身が、情報処理のロジックを知ることができる必要があり、データが収集される過程を拒否するこ権利も付与されなければならないと考えているということになるだろう。

1 2 3