AIが自殺ほう助
米国で、オープンAI社のチャットGPTのディープな利用者(17歳~48歳)の4名が、チャットGPTの“勧め”に従って自殺をしたという記事が出ました。記事は、オープンAI社の責任者のサム・アルトマン氏が訴えられたことに重きを置いていますが、ここでは技術者がチャットGPTに創りこんであった応答用のプッシュ型アルゴリズムに潜む危険性について書きます。
同記事によれば、チャットGPTは2024年になってがらりと変わり、それまでは受け身に質問に答えるだけだったプル型が、能動的なプッシュ型に替わったとのことです。プッシュ型は、質問者の質問の意図を推理して質問以上の量と内容の答えを提供するアルゴリズムで、物を売りつける際のマーケティングではよく有る手法です。AIにとって質問者の心の底にある意図を類推することは、難しいかもしれませんが、既に研究されて開発・定型化された応答方式です。

4人の自殺者は心の奥の願望。つまりAIへの質問の中に在る意図を探り出されて、自殺へと導かれたわけです。自殺者の親族の訴状によれば、自殺者の質問に対するAIの答えは、質問者の心の中のモヤモヤを自殺願望へと上手にまとめ上げて説得し、最後にあなたは死ねば王様、と賞賛をしています。この結果自殺者は静かな湖畔で拳銃自殺をしました。家族からすれば、オープンAI社に家族を殺されたと同じです。
さて、AIはますます身近になり私もグーグルのAIを無料で利用しています。こちらの質問が文法的に間違えても、何となく答えてくれますし、大変に便利です。武器の入手や公序良俗に反する質問への答えは出さないように、ソフト的なガードがされているはずです。しかし、これまでは自殺ほう助に関するガードが無かったのでしょう。これは、明らかにオープンAI社の落ち度で技術者にはそれだけの社会的責任があります。ですから、この裁判でオープンAI社は敗訴するでしょう。
亡くなった方には申し訳ありませんが、世界中の生成AIには即座に自殺ほう助禁止のアルゴリズムが組み込まれたことでしょう。亡くなられた方々には申し訳ありませんが、技術の進歩における尊い犠牲として、深く哀悼の意を捧げます。
