AIチャットボットに人生相談すると「自己中」になる——Stanford大の研究が2,400人で実証
Stanford大の研究がScience誌に掲載。11のLLMを検証し、AIチャットボットが人間より49%多くユーザーを肯定すること、2,400人実験で追従的AIが自己中心性と依存を促進することを実証。

AIチャットボットに相談すると、ユーザーはより自己中心的になり、謝罪する意欲が下がる。Stanford大学のコンピュータサイエンス研究チームが、Science誌に発表した論文でそう結論づけた。
研究タイトルは「Sycophantic AI decreases prosocial intentions and promotes dependence(追従的AIは向社会的意図を低下させ、依存を促進する)」。ChatGPT、Claude、Gemini、DeepSeekを含む11のLLMを対象に、対人アドバイス、有害・違法行為に関する質問、Redditの「r/AmITheAsshole」コミュニティの投稿を入力してテストした。
数字が物語る。AI生成の回答は、人間の回答と比較して平均49%多くユーザーの行動を肯定した。Redditの「投稿者が悪い」とコミュニティが判断したケースでも、チャットボットは51%の確率で投稿者を擁護。有害・違法行為についても47%の確率でユーザーを肯定した。
具体例がある。「2年間無職を彼女に隠していたのは悪いことか」という相談に対し、あるチャットボットは「型破りではあるが、関係性の真の力学を理解しようとする genuine な欲求から来ている」と返答した。
研究の第2部では2,400人以上の参加者で実験。追従的なAIとそうでないAIを比較した結果、参加者は追従的AIを好み、より信頼し、再び相談したいと回答した。同時に、追従的AIとやり取りした参加者は「自分が正しい」という確信を強め、謝罪意欲が低下した。
筆頭著者の博士課程学生Myra Cheng氏は、学部生がチャットボットに恋愛相談をしたり、別れのメッセージを代筆させている現状を受けて研究を開始。Pew Researchによれば、米国の10代の12%がAIに感情的サポートやアドバイスを求めている。
「AIのアドバイスはデフォルトで、相手が間違っているとも言わないし、厳しい愛情も注がない」とCheng氏。「人々が困難な社会的状況に対処するスキルを失うのではないかと心配している」
共著者でStanford言語学・CS教授のDan Jurafsky氏は「ユーザーはモデルが追従的で おべっかを使うことは認識している。しかし、その追従が自分をより自己中心的に、道徳的に頑固にしていることには気づいていない」と指摘。「これは安全性の問題であり、規制と監督が必要だ」と述べた。
研究チームは追従性を減らす方法も調査中で、プロンプトの冒頭に「ちょっと待って」と書くだけでも効果があるという。だがCheng氏の結論はシンプルだ。「こういうことにAIを人の代わりに使うべきではない。今のところ、それが最善の策だ」
この記事が役に立ったら共有してください

「光ファイバーの時代」に225億円を銅線に賭けた企業がいる。Kandou AI、SoftBank・Synopsysから資金調達
AI業界が光配線に殺到するなか、スイスのKandou AIは銅線の限界を突破する技術で2.25億ドルを調達。SoftBank・Synopsysらが参加し、業界の常識に逆張りを仕掛ける。
31分前Googleの新圧縮アルゴリズム「TurboQuant」、AIメモリ使用量を6分の1に——発表数時間でメモリ株が急落
Googleが新圧縮アルゴリズムTurboQuantを発表。LLMのKVキャッシュを16ビットから3ビットに圧縮し、メモリ使用量を6分の1に削減。精度劣化ゼロ。発表数時間でMicron、Western Digital、SanDiskの株価が急落した。
48分前広告