興味深い研究: “戦略ゲームにおけるLLM対戦相手からの合理性と協力を人間が期待する.”
抄録: 大規模言語モデル(LLM)が社会的・経済的な相互作用に統合されるにつれて、戦略的設定においてLLM対戦相手に対する人間の反応をより深く理解する必要があります。本論文は、複数プレイヤーp-ビューティコンテストで他の人間およびLLMと対戦する際の人間の行動の違いを調査した、初の統制された金銭インセンティブ付き実験室実験の結果を提示します。被験者内計画を使用して個人レベルで行動を比較します。この環境では、人間の被験者がLLMを相手にする場合、人間を相手にするよりも有意に低い数値を選択することが分かります。これは主に「ゼロ」ナッシュ均衡選択の普及が増加したことによって駆動されています。このシフトは主に高い戦略的推論能力を持つ被験者によって駆動されます。ゼロナッシュ均衡選択をした被験者は、知覚されるLLMの推論能力と、意外なことに協力への傾向にアピールすることで、彼らの戦略を正当化します。本発見は同時選択ゲームにおけるマルチプレイヤー人間-LLM相互作用に関する基礎的洞察を提供し、被験者の行動とLLMとの対戦時のLLMの行動に関する信念の両方における不均一性を明らかにし、混合人間-LLMシステムにおけるメカニズム設計に対する重要な含意を示唆します。
翻訳元: https://www.schneier.com/blog/archives/2026/04/human-trust-of-ai-agents.html
ソース: schneier.com