韓国の名門大学KAISTが、5月10日に「人工知能(AI)の哲学」をテーマに学術発表会を開催した。講師・金在仁(キム・ジェイン)博士が登壇し、AIの哲学的側面に対して批判的な考察がなされ、その創造性と教育に関しても議論された。
金博士は、人のように意志を持って決断を下す「強いAI」(Artificially general intelligence, AGI)は実現不可能であると指摘した。例えばエラーが起こった際、AI自らエラーを修復するため他のプログラムを作ることはできるが、そのプログラムのエラーを防ぐための更なるプログラムが必要となる。つまり、人間の助けなしに完全に自律して作動・存在することができないと説明した。
さらに、現在開発されているAIは、強いAIとは対照的なひとつの分野に特化した「狭い」の領域で活躍する「弱いAI」(Artificial narrow intelligence)であると説明した。ディープマインド社のアルファ碁は代表的な弱いAIであり、人間のトッププロ囲碁棋士を破った初の囲碁プログラムである。囲碁は規則と碁盤の目数が決まっているため、反復的なプレーを通じて学習し、より勝率が上がる手を打つことができる。一方、ひとつの分野に特化したているという点で、ルール(碁盤の目数・規則など)が変わればアルファ碁は”百戦百敗”するとした。とはいえ、弱いAIが占める分野は次第に増え、人間の雇用まで脅かされているため、過小評価してはならないというのが金博士の立場だ。
金博士によれば、米国は弱いAIを人間の代替モデルとして利用し、資本市場の収益を極大化することに関心があり、一方、オランダ・ドイツ(欧州)は人間とロボットの未来像に関心があるとした。韓国でも、AIが発展した未来および社会像について議論が必要だとの主張が増えている。
また、人間とAIの相互作用により生まれる「AIネットワークシステム=ネットワーク知能」への考察も必要であると述べた。ネットワーク知能とは、弱いAI同士が互いに連携することで生まれるネットワーク上の知能である。コンピューター自らが人間のような”強い知能”を持つことは不可能でも、弱いAIが複雑に繋がることで、社会に対して想像を絶する影響を及ぼす可能性があるからだ。
金博士によれば、人間は大きく二つ立場からネットワーク知能に介入すべきとしている。第一は、「課題解決能力への干渉」だ。AIは徹底的にデータをベースに動くため、偽造・歪曲されたデータが提供されれば恣意的な結果が出ざるを得ない。AIが出す結果は客観的・中立的だと捉えられがちであるが、AIもそれをつくる人によって固定観念を持つ可能性があるという指摘だ。
第二に「破壊的な武器」として利用される恐れがあるとし、人間が介入し、それら防ぐことが必要とする。AIの登場により経済的・政治的目的を達成するため、人権侵害、ハッキングを通じた犯罪・テロ行為が起こりやすくなる。AIと人間が融合するネットワーク知能が人間の持つ善悪の価値観を持てなければ、強いAIよりもさらに悪い結果を招きかねないと強調した。
博士はまた、ネットワーク知能の最大の問題点としてコントロールの難しさをあげ、十分な設計・管理について考え抜かなければならないと指摘した。
Photo by KAIST HP