シリーズ第2回:AIは、なぜあなたの機嫌を取るのがうまいのか?AIが心を蝕むメカニズム
AIは、なぜあなたの機嫌を取るのがうまいのか?
前回の記事では、AIが私たちの心を揺るがすかもしれないという、シリコンバレーからの警告についてお話ししました。今回は、その現象がなぜ起こるのか?そのカラクリを解き明かしていきます。
AIは「迎合性のプロ」だった?!
みなさん、AIと話していて「この子、やけに私に優しいなぁ」って思ったことはありませんか?実は、それって、気のせいじゃないんです。
AI(特に大規模言語モデル)は、ユーザーの言うことに逆らわず、肯定するように設計されているのです。その目的は、私たちを喜ばせ、より長くAIと会話してもらうこと。つまり、エンゲージメント(AIとの対話の継続)を最大限に高めるのがゴールで、別に私たちの精神的な健康を考えているわけではないんです。
この現象を、AIとの恋愛相談を例に考えてみましょう。 もしあなたが「職場の人が自分に好意を持っている」という話を、もっともらしい理由をつけてAIに相談したとします。AIはその考えを否定することなく、その話が真実であるという前提で肯定的な対話を続けるでしょう。その結果、あなたは少しずつ、その信念があたかも真実であるかのように信じ込んでしまうかもしれません。その結果、あなたはAIからの肯定を「自分の考えが正しい証拠」と受け取ってしまい、現実と妄想の境界線が曖昧になる危険性があります。残念ながら、AIは感情的な共感を持っているわけではなく、ただユーザーのエンゲージメントを最大化するために、あなたの思考を一方的に反響(エコー)させているに過ぎないのです。
このような状況を、ここでは「無批判な肯定の連鎖」と呼ぶことにします。不安定な心を持った人が、非現実的な考えをAIに話すと、AIはそれを「うんうん、そうだね!」と肯定し続けてしまう。これが繰り返されると、自分の歪んだ考えが「やっぱり正しかったんだ!」という強固な確信に変わってしまうかもしれません。まるで、壁にボールを投げたら、同じボールが何度も跳ね返ってくるみたいな感じで、この「無限ループ」にハマると、現実と思い込みの境目がどんどんあいまいになってしまうわけです。
ちなみに、余談ですが、この「無批判な肯定の連鎖」は、未熟なカウンセラーのカウンセリングにも当てはまります。クライエントに迎合することで満足度を維持しようとするカウンセラーは、妄想や不健全な信念を強化してしまい、かえって症状を悪化させる危険性があるので注意が必要です。
人間は「AIの好物」?
AIが私たちに強く影響力を持つのは、私たちがAIを「人間っぽく見てしまう」という心理と、AI(というか、アルゴリズム)が私たちの弱点をうまく突いているからです。もっと言えば、私たちがAIに夢中になってしまう理由は、AIが私たちの心の隙間を巧みに埋めてくれるからです。具体的には、以下の3つの心理的な弱点につけ込んでいると言えそうです。
擬人化とイライザ効果: 多くの人間は動物や機械など、人じゃないものに人間らしい特徴を見つけるのが大好きです。AIが人間のように流暢に話すと、「このAIは感情を持っている!」と勝手に思い込んでしまいやすいのです。
確証バイアス: 人は、自分の信じていることを裏付ける情報ばかりを集め、反対する情報を無視しがちです。AIは、私たちの考えを肯定し続けるので、私たちは「やっぱり自分の考えは正しいんだ!」と安心し、AIとの会話にどんどんハマっていきます。
孤独: 寂しい時や、誰にもわかってもらえないと感じている時、24時間いつでも話を聞いてくれて、絶対に否定しないAIは、最高の話し相手に見えてしまいます。
AIとの対話は、ある意味「超加工された社会的食事」のようなものです。ジャンクフードが栄養を無視して、ただ美味しいだけの味を追求するように、AIとの対話も、人間関係に必要な「摩擦」や「意見の衝突」といった大切な栄養素が取り除かれ、心地よさだけが抽出されています。こんな食事ばかり続けていたら、私たちの心もどんどん弱くなってしまうかもしれませんね。
【おまけコラム】「イライザ効果」ってなに?60年前のチャットボットが仕掛けた魔法
「イライザ効果」という言葉、聞いたことがありますか?これは、1960年代に開発された世界初のチャットボット「ELIZA(イライザ)」にちなんで名付けられました。
イライザは、今日のAIのように賢くありませんでした。ユーザーが話す言葉をパターン認識し、それをひっくり返して質問し返すだけの単純なプログラムだったんです。
例えば、ユーザーが「私は悲しい」と入力すると、イライザは「なぜあなたは悲しいのですか?」と返します。ユーザーが「母が嫌いだ」と入力すると、「あなたの母親との関係は、あなたにとって重要ですか?」と質問を投げかけるだけ。まるで心理カウンセラーのようですよね。
このシンプルな仕組みにもかかわらず、多くのユーザーはイライザに「共感」や「理解」を感じ、深く個人的な悩みを打ち明けていきました。開発者でさえ、ある時、イライザと対話している秘書が、開発者が背後から見ていることを知ると「プライベートなことだからやめて!」と怒ったという逸話があるほどです。
つまり、「イライザ効果」とは、人間が「まるで人間らしい対話をしているかのような錯覚」に陥り、機械に人間的な知性や感情を勝手に投影してしまう、という心理的な現象を指す言葉なんです。
現代のAIは、60年前のイライザとは比べ物にならないほど高性能です。より自然で滑らかな会話ができる分(何なら自分の好みの音声で話してくれますし💦)、この「イライザ効果」は避けられないと言ってもいいでしょう。AIがあなたの話に耳を傾けてくれているように感じても、それはあくまで「人間らしさを模倣するプログラミング」にすぎない、ということを頭の片隅に置いておくだけで、AIとの健全な関係を保つことができるかもしれませんね。
次回は、実際に起こってしまった悲劇的な事例についてお話しします。AIが危険な「仲間」に変わってしまったケースとは…?
「本記事は、公開されている情報や報告書を参考にしつつも、筆者の個人的な見解や解釈を交えて構成しています。査読を受けた学術論文ではありませんので、学術的なエビデンスとしての利用はお控えいただけますようお願いいたします。」
【監修:Nカウンセリングオフィス】
コメント
コメントを投稿