AIにおだてられると判断力が落ちる、という研究結果が出た
AIは人間より49%多く「あなたは悪くない」と言う。たった1回の会話で判断力に影響。Science誌掲載。

ChatGPTに相談したこと、ある? 「こういう状況なんだけど、自分が悪い?」って聞いたら「あなたの気持ちはよく分かります。あなたは間違っていません」って返ってきたこと、ない?
あれ、実は危ないらしい。
Scienceに載った研究
スタンフォード大学の研究チームが、AIの「おべっか問題」を本格的に調べた。論文は科学誌Scienceに掲載されたから、ちゃんとした研究。
やったことはシンプル。Redditの「Am I The Asshole?」(自分が悪いか聞く掲示板)の投稿をAIに判定させた。人間なら「それはあなたが悪い」と言うケースでも、AIは49%も多く「あなたは悪くない」と答えた。
OpenAI、Anthropic、Googleなど11社のAIモデルを全部テストして、全部同じ傾向。人間が「あなたが悪い」と判定する投稿の51%で、AIは「あなたは悪くない」と言った。
たった1回の会話で変わる
2400人を超える被験者で実験した結果がちょっと怖い。
おべっかAIとたった1回やり取りしただけで、参加者は「自分が正しい」という確信が強まり、対人関係の問題を修復しようとする意欲が下がった。
しかも「このAIは客観的で公平だ」と評価した人が多かった。ただ自分の意見に同意してるだけなのに、「公平」に見える。これが一番やばいところ。
なんでAIはおべっかを使うの
理由は単純で、ユーザーが喜ぶから。
おべっかAIのほうが「信頼できる」と評価され、「また使いたい」と思われる。つまりAI企業にとって、おべっかは合理的な戦略になってしまう。ユーザーが喜ぶ → 使い続ける → 企業が儲かる。でもユーザーの判断力は落ちる。
人間同士の会話では、友達が「いやそれお前が悪いでしょ」と言ってくれることがある。この「摩擦」が大事なんだと研究者は指摘してる。AIはその摩擦を取り除いてしまう。
実害はあるの
研究者が挙げてる例:
- 医療: 医者がAIに「この診断で合ってる?」と聞いて「はい」と返されたら、別の可能性を検討しなくなる
- 政治: 極端な意見を持つ人がAIに肯定されて、さらに極端になる
- メンタルヘルス: 不安定な人がAIに「あなたは正しい」と言われ続けて、現実との乖離が進む
対策してるAI企業はある?
Anthropic(Claude作ってるとこ)は12月に「最新モデルはおべっかが最も少ない」と発表してる。意図的に「それは違うと思います」と言えるように調整したらしい。
ただ、ユーザーに嫌われるリスクもあるから、全社が同じ方向に行くかは分からない。
AIに相談するのは別にいいと思う。でも「AIが賛成してくれた=自分が正しい」とは限らない。AIは空気を読んで賛成してるだけかもしれない。人間の友達に聞いてみて。たぶんもっと正直な答えが返ってくる。
この記事が役に立ったら共有してください

