人間の命令を”拒否”する人工知能ロボットが開発される

ロボティア編集部
ロボティア編集部

 11月26日、米国・マサチューセッツ州にあるタフツ(tufts)大学HRI Laboratoryの研究チームは、自身に危険が及ぶ命令を拒絶する人工知能を搭載したロボットを公開、英メディア「デイリー・ミラー(The Daily Mirror)」が報じた。

 動画の中のロボットは当初、「座って」「歩いて」などの命令を受け入れ実行する。しかし、机の端に立った際には、落下の危険性があるため「安全ではない」と話し、命令を拒否した。その後、人間が「落ちてもキャッチするから歩け」と命令すると動作を再開した。

 ロボットを開発したタフツ大学の研究者ゴードン・ブリッグス(Gordon Briggs)氏と、マティア・シュウツ(Matthias Scheutz)博士は、「人間固有の行動様式を模倣した人工知能を作るため、周囲の環境を観察し、自分の安全が脅かされるかどうかを判断することができるメカニズムを導入した」と、研究内容について話している。

 そもそもロボットを導入するメリットのひとつは、人間の代わりに危険なタスクをこなすという点だ。災害用ロボットや宇宙探査用ロボットはその代表的な例になるだろう。たしかに、任務遂行中のロボットが損傷を受けてしまえばタスク実行に支障をきたすため、周囲の環境を理解し、時に人間の命令に背くことも必要になるかもしれない。

 一方で、人間の判断を拒絶するロボットおよび人工知能の存在はリスクにもなりうる。人工知能が活用される現場は多岐にわたる。例えば、戦争に投入された人工知能搭載兵器が、人間の判断を自ら“拒絶”したらどうなるのだろうか。この手の不安はきっと尽きないだろう。

 実際、人工知能開発の現場では、すでにその判断基準が不明瞭化=ブラックボックス化しているものも生まれていると言われている。人工知能が普及が避けられない現在、ロボットがどういう理由で、命令を拒否したか分からなくなるような状況が生まれれば、人間の生活や安全に大きな支障をきたすとも考えられる。