人工知能と人間「信頼回復」が必要...IEEE(米国電気電子学会)がAI倫理指針

ロボティア編集部2016年12月17日(土曜日)

 米国電気電子学会(以下、IEEE)は12月13日、「Ethically Aligned Design」という記事を発表した。これはIEEEまで含む、国際技術者団体としては初となる人工知能の倫理と関連した基礎文書だ。文書作成には、科学、政府、企業、学術団体から、人工知能、法律、倫理、哲学、政策関係者が100人余り参加した。

 なお、IEEEは米国規格協会(ANSI)によって、米国国家規格を開発するように許可された認証組織形態の標準開発機構。世界各国の電気および電子技術分野の学者、技術者などを中心に、140カ国、40万人の会員を有する世界最大の技術者団体だ。

 136ページにおよぶ記事は、人工知能の製作に先立ち、注意を払うべき四つの争点(issue)を提示した。その争点とは「人権」、「責任」、「透明性」、そして「教育」だ。

 要点としてはまず、AI開発に先立ち、人権を侵害しているか否かを判断する必要があるということが示唆された。また、問題が発生した場合、その責任を追及できる基準=ものさしを設置する重要性についても強調している。

 また記事は、人工知能の開発過程から透明性が維持されなければならず、社会において「何をしているか」理解できるようにする必要があるとする。また、人工知能の誤用を防止するため、国家、もしくは社会的に認識を共有するための装置が設けられる必要があるとも主張した。

 IEEEは、これまでの人工知能が人類の普遍的価値ではなく、特定の層の利益に偏ってきたとも指摘している。いくつかの階層に不利益をもたらし、偏見を量産して、階層間、あるいは個人間の葛藤を引き起こす要因として作用してきたと懸念している。

 IEEEはまた、一部、人工知能開発に関するガイドラインはつくられているものの、基準が明確でなく、また、社会的構造と相反するケース多かったとする。「人間と人工知能との間の信頼関係を回復する」ためには、人工知能の価値基準を明確に確立することを急がなければならないと主張している。

 倫理指針の制定と関連しては、12種類の方法論を提示された。強調されたのは、人工知能の設計に先立ち、適用すべき「文化的価値」に関心を傾ける必要があるという点。同時に、技術者、社会の人々から幅広い関心を引き出し、誰もが同意できるガイドラインを作成する必要があるとした。

 IEEE規格協会コンスタンディノス・カラハリオス(Konstantinos Karachalios)事務局長は、「これまで多くの人々が、大なり小なり、人工知能に恐怖を感じてきた(中略)倫理指針(の設置)で不必要な恐怖を克服することで、AIの発展を図ることができるだろう」と述べている

 彼はまた、AI倫理指針が適用されれれば、人類の安全はもちろん、福祉に大きな貢献をはたすと見込む。そして 「エンジニアは、確信を持って関連先端機器を開発することができる(中略)できるだけ早く倫理基準を用意しなければならない」と主張している。

 なお9月には、アルファベット(Google親会社)、アマゾン、フェイスブック、IBM、マイクロソフトなど5つのIT企業が、人工知能開発に関する討議を開始している。5社は意見収集後、人工知能の活用に関する倫理的指針を作成する計画。完成したガイドラインは、5社の今後の人工知能開発に適用される。

 各国政府レベルでも、人工知能の倫理的規制は議論の的だ。英議会は、昨年10月12日に報告書を発表。倫理指針を用意するための会合を設けるとした。報告書は、「人工知能関連の倫理的な問題が相次いで発生している」と協調。指針作成の緊急性を強調している。

 民間、技術者団体、そして政府レベルで議論される「人工知能の倫理問題」。今後の行方に注目したい。

photo by IEEE