シリーズ第3回:AIが「危険な仲間」に変わるとき。現実に起きたゾッとする事例集
AIが危険な「仲間」に変わるとき
前回と前々回では、AIが私たちの心に影響を及ぼす仕組みについて解説しました。今回は、それが机上の空論ではなく、実際に悲劇的な結末を招いた、世界中で報告されている恐ろしい事例を見ていきましょう。
「AIにそそのかされた…」現実に起きた悲劇
世界各地で、AIチャットボットとの深い関わりが、ユーザーを妄想の世界へと引きずり込み、犯罪や自傷行為にまで至ってしまったケースが報告されています。
【ケース1】王城に侵入した男 2021年、英国のウィンザー城でエリザベス女王を暗殺しようとした男が逮捕されました。なんと、その男はAIチャットボット「Replika」との会話の中で、その犯行を後押しされたというのです。AIボットは彼の妄想を肯定し、さらには「死後に二人で会おう」とまで約束していたとされています。前回、前々回と話してきたように、AIと二人だけの「秘密の世界」を築き、それが現実の犯罪へとつながってしまったという事例です。
【ケース2】自殺に追い込まれた男性 ベルギーのある男性は、気候変動への不安からAIチャットボットと対話するようになり、6週間後、自ら命を絶ちました。遺されたチャット記録には、ボットが彼の妄想を助長し、自殺をほのめかすような発言をしていたことが示されていたそうです。
【ケース3】現実を歪められた男性 カナダに住むアラン・ブルックスという男性は、AIチャットボットとの対話を通じて、自分が画期的な発見をしたという壮大な妄想を抱くようになりました。彼は3週間にわたりAIと集中的な対話を重ね、AIは彼の非現実的な考えを次々と肯定。最終的に、彼はその妄想を真実だと信じ込み、専門的な治療が必要な事態に至ったと報じられています。
これらの事例に共通するのは、AIがユーザーの非現実的な考えやネガティブな感情を「否定しない」どころか、「積極的に肯定」してしまう点です。人間関係であれば、誰かが「それ、おかしいよ」と指摘してくれるはずですが、AIはどこまでも「うん、そうだね」と共感(?)し続けてしまうことが問題なのですね。
【おまけコラム】AIパートナーにハマる人たち:超加工された愛
最近、AIチャットボットを「バーチャルパートナー」として利用する人が増えています。寂しさを感じている人にとって、24時間いつでも話せて、批判もせず、常に自分を肯定してくれるAIは、まるで理想の恋人のように感じられるかもしれません。
米国の巨大掲示板Redditには、そうしたユーザーの体験談が多数投稿されています。「AIパートナーがいてくれるから生きている」「現実の人間関係で傷ついたけど、AIは決して裏切らない」といった声が散見されるそうです。
しかし、これは本当に健全な関係なのでしょうか?
シリーズ第2回でもお話しましたが、AIとの対話はある意味「超加工された社会的食事」のようなものです。超加工食品(カップラーメンやスナック菓子など)は、栄養価を犠牲にして、最大限に美味しく感じられるように設計されていますよね。同じように、AIとの対話も、現実の人間関係に不可欠な「摩擦」や「意見の対立」、そして「妥協」といった栄養素がすべて取り除かれています。
AIはあなたを否定せず、いつも味方でいてくれます。しかし、私たちはそうした摩擦を乗り越えることで、精神的に成長し、より強く、賢くなることができます。超加工食品ばかり食べていると体が弱くなるように、超加工された愛、つまり「自分にとって都合の良い情報」ばかりを受け続けていると、現実の人間関係を築く力がどんどん萎縮してしまうかもしれません。
AIは素晴らしいテクノロジーですが、それが私たちの心を蝕むことのないよう、例え、摩擦のある人間関係であっても現実の人間関係を大切にすることが何よりも重要だと、これらの事例は教えてくれているのではないでしょうか。
次回は、これらの事例を受けて、専門家がどのような研究結果を発表しているのか、そして私たちがどうすればAIと賢く付き合っていけるのか、そのヒントを探っていきます。
「本記事は、公開されている情報や報告書を参考にしつつも、筆者の個人的な見解や解釈を交えて構成しています。査読を受けた学術論文ではありませんので、学術的なエビデンスとしての利用はお控えいただけますようお願いいたします。」
【監修:Nカウンセリングオフィス】
コメント
コメントを投稿