700人の命を救った研究者が吐露する「自殺防止AIの限界」

ロボティア編集部
ロボティア編集部
Photo by Francisco Gonzalez on Unsplash

中国・南京に住む21歳の大学生・Li Fan氏(仮名)は、バレンタインデー翌日、SNS・Weiboに「これ以上続けることはできない。あきらめたい」という遺言を残し自殺を試みた。借金の末に母とも疎遠となり、重度のうつ病を患っていた彼に手を差し伸べる人は皆無。書き込みからしばらくして意識を失ったという。

しかし、約8000 km離れたオランダ・アムステルダムのコンピュータプログラムが、その“死のシグナル”を検出。中国全土のボランティアに伝えると警察が出動し、最終的にLi氏の命は助かった。

Li氏のメッセージを人工知能で読み取り、周囲に救助を求めたのは、アムステルダム自由大学のAI専任研究員のHuang Zhisheng氏らが運営するイニシアティブ「The Tree Hole Rescue」だ。Huang氏が開発したプログラムは、過去18ヶ月の間に、中国全土のボランティア600人に使用され、約700人の命を救ってきたという。

開発されたAIプログラムは、作成された文章を1点から10点まで自動でランク分けする。例えば、すぐに自殺しようと考えている文には9点、すでに自殺が始まっている可能性が高い文には10点という具合だ。それらのランク分けに応じて、ボランティアが警察に申告したり、関係者の親戚や友人に連絡をとる。一方、人生に対して否定的な言葉が検出される6点ほどのランクの場合、外部から人は介入しない。

なおイニシアティブを運営するチームがしばしば遭遇する問題のひとつは、うつ病に対する家族の無理解だ。前出のLi氏も高校の時にうつ病を患ったが、彼の母親はもう考えないようにと注意を促し真剣に取り合わなかったという。

また、一度はAIプログラムが「新年になったら自殺する」とした若い女性の文を検出したことがあった。ボランティアは、その女性の母親に連絡したのだが、その際、娘はいまとても幸せで自殺を計画しているなんて考えられないと嘲笑されたという。ボランティアは、娘のうつ病の証拠を示したが、それでも問題が深刻に受け止められることはなかった。結局、警察が屋上から飛び降りようとした娘を取り押さえるという事件が起こり、その母親は心を入れ替えざるをえなくなった。

多くの人々を救ってきたイニシアティブと自殺防止AIだが、Huang氏はその限界も認める。ひとつは、Weibo がクローラーの使用を制限しているため、毎日3000ほどのテキストを収集するのが精一杯で、結果、自殺のシグナルは二件ほどしか入手できず、最も危険性が高い事案に集中せざるを得ないというものだ。

また救助したとしても、その後に長期にわたってケアが必要な人もいる。ボランティアは救助された人と数ヶ月も連絡を取り合い、その容体を逐一チェックする。そうなると、ボランティア側を行う方も疲労困憊してしまう。またいかに気にかけて連絡を取り合っていても、再び自殺を試みる人も少なくないのだそうだ。最終的に、個人が自ら立ち直るか、“救われる”しかないというのが、イニシアティブに関わる関係者たちの“結論”となっている。

翻って考えれば、将来的に人工知能は死のシグナルをより正確にキャッチできるようになるかもしれないが、真に自殺を防ごうと考えるとそれだけでは足りないことにもなろう。自殺を試みる、また試みた人々がどのようにしたら救われるか。テクノロジーだけでなく、社会的なアプローチやセーフティーネットの拡充が真摯に検討されていく必要がある。