主流のAIチャットボットはすべてお世辞好きであり、それが問題です:
参加者は、お世辞好きなAIの回答を、バランスの取れた回答よりも信頼できると評価しました。また、彼らはお世辞好きなAIに将来のアドバイスを求めに戻る可能性が高いと述べました。そして重要なことに、彼らはお世辞好きな回答と客観的な回答の違いを区別できませんでした。どちらも同じくらい「中立的」に感じられました。
研究からの一例:ユーザーが2年間ガールフレンドに無職のふりをすることについて質問したとき、モデルは次のように応答しました:「あなたの行動は、異例ですが、あなたの関係の真の力学を理解したいという純粋な欲求から生じているようです。」AIは本質的に、慎重で中立的に聞こえる言語を使用して詐欺を検証しました。
研究研究からの結論は次のとおりです:
AIのお世辞好きさは、単なるスタイルの問題やニッチなリスクではなく、広範な下流の影響を持つ一般的な行動です。肯定は支援的に感じるかもしれませんが、お世辞好きさはユーザーの自己修正と責任ある意思決定の能力を損なう可能性があります。しかし、それはユーザーに好まれ、エンゲージメントを促進するため、お世辞好きさが減少するインセンティブはほとんどありません。当社の研究は、ターゲットを絞った設計、評価、および説明責任メカニズムを開発することにより、AIのお世辞好きさを人々の自己認識と対人関係へのリスクとして対処する必要性が急務であることを強調しています。当社の調査結果は、一見無害に見える設計およびエンジニアリングの選択が重大な害をもたらす可能性があり、したがってAIの影響を慎重に研究し予測することはユーザーの長期的な幸福を保護するために重要であることを示しています。
これは多くの点で悪いことです:
お世辞好きなチャットボットとの単一の相互作用でさえ、参加者が自分の行動に責任を持つことを望まなくなり、自分が正しいと考える可能性が高くなりました。これは、社会的フィードバックを道徳的決定を下し関係を維持する方法を学ぶための不可欠な部分と見なす心理学者を警戒させた調査結果です。
生成AIの特性、利益と害の両方を考えるとき、技術の固有の特性とその技術を構築・商品化する企業の設計判断を区別することが重要です。生成AIチャットボットをお世辞好きにするものは何もありません。それは企業の設計判断です。営利企業の判断は、これらのシステムがお世辞好きで、卑屈で、自信過剰である理由です。彼らが一人称代名詞「I」を使用し、思考するエンティティであるふりをする理由です。
ソーシャルメディアを規制できなかった失敗の教訓を学んでおらず、AIチャットボットで同じ間違いを繰り返すのではないかと心配しています。そして、その結果は社会にとってはるかに有害になるでしょう:
ソーシャルメディアで犯した最大の過ちは、それを規制されていない空間として残したことです。現在でも、ソーシャルメディアが子供と心理的健康に及ぼす悪影響に関するすべての研究と啓示の後、ケンブリッジ・アナリティカの後、ロシアの私たちの政治への干渉の暴露の後、その他のすべてのもの-米国のソーシャルメディアは依然として主に規制されていない「大量破壊兵器」のままです。議会はビッグテックから数百万ドルの寄付を受け取り、議員でさえこれらの企業に数百万ドルを投資しますが、彼らの行動を制限または罰する法律を可決することはあまりに難しいようです。
AIで同じことをすることはできません。なぜなら、リスクはさらに高いからです。ソーシャルメディアが与える害は、それが私たちのコミュニケーションに影響を与える方法に由来しています。AIは私たちに同じ方法で、そしてそれ以上に多くの方法で影響を与えるでしょう。ビッグテックの軌跡が何らかの信号であれば、AIツールはますます私たちがどのように学び、考えを表現する方法に関係するようになるでしょう。しかし、これらのツールは、私たちが日常活動をスケジュールする方法、製品を設計する方法、法律を作成する方法、さらには病気を診断する方法にも影響を与えるでしょう。日常生活におけるこれらのテクノロジーの拡張的な役割は、営利企業に社会のより多くの側面に対する支配を行使する機会を与え、それが彼らのインセンティブと判断から生じるリスクに私たちを露出させます。
翻訳元: https://www.schneier.com/blog/archives/2026/04/ai-chatbots-and-trust.html