AIのブラックボックスの解明…日本でも議論進む「説明可能な人工知能」

AIのブラックボックスの解明…日本でも議論進む「説明可能な人工知能」

Written by 河鐘基

Posted date:2017.12.21
Photo by Pixabay

ここ数年、ビジネス領域において大きな注目を浴びているディープラーニング(人工知能=AI)だが、ひとつの問題が長らく議論されてきた。「ブラックボックス化」の問題だ。

現在、ディープラーニングは画像解析などの用途に用いられているが、例えば、なぜ画像を猫や犬と判断したか、人間側には理由が分からないという現状がある。検索サイトにおける画像検索などの分野では、そのようなブラックボックスが多少あっても実用化に差し支えはないだろう。しかし、工場で働くロボット、自動運転車などに応用しようとしたらどうだろうか。何か故障や不具合が起こったり、不良品が発生した場合、人間のエンジニアはその理由を特定することができない。よって、企業にとっては非常に扱いにくい技術となってしまう。

「日本の学界でも、実はディープラーニングに否定的な人は少なくないんです。理由はブラックボックスの問題があるから。それよりは、しっかりと機械の思考の過程を追える人工知能の方が有益であるとの意見があります」(日本の学界関係者)

そんななか、韓国・蔚山科学技術大学校(以下、UNIST)のチェ・ジェシク教授ら研究チームが、ディープランニングの新しい可能性を拓く「説明可能な人工知能(EXplainable Artificial Intelligence)」(日本では可読性のあるAIとも表現される)を開発しているとのニュースが報じられた。12月19日、科学技術政策研究院(STEPI)主催で開かれた「韓-カナダ科学技術革新シンポジウム」で、チェ教授は、自ら開発するそのAIについて語っている。

「UNIST説明可能な人工知能研究センター」の所長でもあるチェ教授は「現在、人工知能は多数の猫の写真や絵を見て特徴を把握し、ディープラーニングの過程を経て、他の画像を見た際に猫か否かを判断しているが、『説明可能な人工知能』は、どのような特徴を持って猫と判断したのか、その理由まで説明することができる次世代AIを指す」と定義した。

つまり、ビッグデータの因果関係を分析し下した判断について、合理的な理由と根拠を提示しながら、人間が理解できる形で説明することができる人工知能ということになる。チェ教授は「最近では、同性愛的傾向を持つ顔を見分けることができる人工知能が開発され人権侵害が起こるという議論もあるが、『説明可能な人工知能』であればそのような危険性を回避できる」とも述べている。

1 2 3