GoogleやfacebookなどIT大手5社がAIの倫理基準を作成か

ロボティア編集部2016年9月4日(日曜日)

 Googleの親会社であるアルファベット社など5つの世界大手IT企業が、人工知能(AI)に関する倫理の基準を共同で作成する計画だ。

 米メディアが報じたところによると、アルファベットとアマゾン、フェイスブック、IBM、マイクロソフトなど5つの企業の研究者が、人工知能と関連した各種問題を議論したという。そこには、人工知能が及ぼす人間の仕事、交通、戦争などへの影響が含まれた。5つの企業は、9月中旬に新たな団体を発表する暫定的な計画を立てており、これに関連する資料を共有している状況だという。

 今回、企業らがこのような動きを見せる理由は、「人工知能研究が人間に害がなく、恩恵を与えることに焦点をあてていることを保証するため」と、複数の関係者は語っているという。なお、IT業界側の事情としては、規制を担当する各国当局が、企業の人工知能研究を締めつけることを懸念しているという側面もある。関連団体が人工知能にまつわる基準をつくり、独自の枠を設ける必要性に駆られていると言い換えることもできる。

 スタンフォード大学が公表したAIレポート「2030年の人工知能と生活(ARTIFICIAL INTELLIGENCE AND LIFE IN 2030)」の作成に参加した、テキサス大学のコンピュータ科学者ピーター・ストーンは「規制が必要ないという訳ではない。私たちが言及したいのは、(規制)正しい形と、誤った形がある」としている。

 AIレポートは「AIを全体的に規制しようという試みはうまくいかない可能性がある(中略)AIの明確な定義がなく、AIのリスクと考慮すべき点は、領域に応じて大きく異なるため」と指摘している。一方、IBMの人工知能開発を率いるデビッド・ケニー氏は「政府の役割があり、それについては尊重する(中略)政策が技術より遅れてしまうことが多い」と過度な規制をけん制するコメントを残している。