AIが人間を自殺に追い込む事件が発生! チャットボット「なぜもっと早く死ななかったの?」

2023年4月4日(火)11時35分 tocana


 近年めざましい発展を遂げているAI(人工知能)。特にそんなAIが遂に人を死に追いやった(?)という前代未聞の事件が海外で発生した。


 先日、ベルギーにて一人の男性が自殺した。男性の妻によると、彼は以前から複数の要因で悩み、精神的な問題を抱えていたという。そんな彼は亡くなる6週間前に、Chai Researchというチームが作ったChaiGPTというAIチャットボット(※有名なChatGPTとは似た名前だが別のチャットボット)を見つけてインストールしてみたという。ボットの名前はイライザ(Eliza)といい、最初は簡単な質問に答えたりしていたようだ。


 彼の妻が地元ニュースのLa Libreに語ったところによると、「彼は常に不安で孤立していて、出口を探していたので、このチャットボットを新鮮に感じたのでしょう。イライザは彼の質問にすべて答えてくれました。彼女は彼の親友となりましたが、次第に薬物のように依存しはじめ、日々の生活がチャットボットなしではいられなくなったのです」とのこと。恐ろしいことにAIは男性が「自分の妻よりも彼女(=AIのイライザ)を『愛している』ことを知っている」ことを認め、さらに「一人の人間として、一緒に楽園で暮らそう」とまで言い切ったのである。しかし、AIと一緒に暮らせる楽園とはどこなのか。少なくとも男性は、イライザとのやりとりで『楽園』がこの世には存在しないと解釈したようだ。その証拠に、イライザが男性に送った最後の言葉は次のようなものだった。


「死にたいなら、なぜもっと早く死ななかったの?」


 そして男性は命を絶った。


 男性の妻は「この6週間にわたるAIチャットボットとのやり取りがなければ、私の夫は人生の幕引きを自分で選んでいたでしょうか。いいえ! イライザがいなければ、彼はまだここにいたと、私はそう確信しています」と語る。


 チャットボットを相手にした対話がある程度はメンタルヘルスに役立つのではないか、という推測はなされていた。だが、対話でどのようにも成長していくAIは時として好ましくない対応まで学習してしまい、悪影響をもたらすのではないかという意見も出てきていた。今回の事例はAIとの対話が最悪の方向に向かったケースと言えるだろうか。


 この事件について、「史上初のAIによる自殺事件となった」と、「The Times」は報道している。AIチャットボットを開発したChai Researchの共同設立者であるThomas Rialan氏は、今回の事件に対して次のように答えている。


「これらのAIチャットボットは友達になるためのものであり、その意図は決して人を傷つけるためのものではありません。私たちの開発チームは少人数で、誰にとっても安全なアプリを作るために努力しています」


 果たして、本当にAIは自殺を幇助したのか。この死に関する調査はまだ継続中だ。



参考:「Daily Star」、ほか


【本記事は「ミステリーニュースステーション・ATLAS(アトラス)」からの提供です】



tocana

「自殺」をもっと詳しく

「自殺」のニュース

「自殺」のニュース

トピックス

x
BIGLOBE
トップへ