AIのブラックボックスの解明…日本でも議論進む「説明可能な人工知能」

【関連記事】>>>ゲイを見分ける人工知能が登場...「顔には性的指向が潜んでいる」米大学が開発
【関連記事】>>>顔の情報から政治思想・IQ・犯罪傾向を判別するAIがいずれ登場する...米専門家が警鐘

また病気を診断する人工知能と、人間の医者の意見が異なった際、どのような治療を行うべきかという判断にも、説明可能な人工知能が必要になるとする。人工知能の診断根拠が分かれば、医療スタッフとの見解の相違をすり合わせることが可能となり、また人工知能に対する患者の不安も解消することができるからだ。

チェ教授は「国防高等研究計画局(DARPA)は、人工知能が問題をどのように解決したか、自ら説明させるプロジェクトを進行中だ(中略)現在、人工知能が画像を認識したり、車を運転する際、どのようなプロセスを通じて問題解決に到達したかAIの専門家も把握できずにいるが、それを正確に理解できるようになればこそ、AI開発の限界を超えることができる」と言及した。

説明可能な人工知能の必要性はより広範だ。現在、金融分析や記事作成に活用されている「AIの未来予測」の信頼性を高める上でも、説明可能な人工知能が大きな役割を果たすというのがチェ教授の主張だ。

米AP通信では、毎日3000個の記事がAIによって生成されているが、野球の試合に関連する記事を見ると、人が書いたのか、ソフトウェアが書いたのか区別が難しいほど精度が高い。データをもとにAIを利用して文書を自動生成する場合、誤字やミスがあまりなく、ユーザーのニーズに合った記事をいくらでも作成できるので、人件費削減という大きな利点がある。

しかし、AIが文脈を理解しているという訳ではなく、決められたテンプレートに沿って数字だけ置き換える形式で記事が生成されており、将来予測性がある記事を作り出すのが難しいと課題もある。そして仮に書けたとしても予測の根拠が提示されないので、信頼しにくいという致命的な欠点がある。チェ教授は、そのような欠点も説明可能な人工知能で解決できると自信を示す。

「もし人工知能が、アルゴリズムによって生成されたデータの分析理由を説明することができれば、金融・住宅市場、また政府の政策決定にまで影響を与えることができるだろう」(チェ教授)

河鐘基

記者:河鐘基


1983年、北海道生まれ。株式会社ロボティア代表。テクノロジーメディア「ロボティア」編集長・運営責任者。著書に『ドローンの衝撃』『AI・ロボット開発、これが日本の勝利の法則』(扶桑社)など。自社でアジア地域を中心とした海外テック動向の調査やメディア運営、コンテンツ制作全般を請け負うかたわら、『Forbes JAPAN』 『週刊SPA!』など各種メディアにテクノロジーから社会・政治問題まで幅広く寄稿している。

URL:https://roboteer-tokyo.com/about