当人工智能开始像人类一样做决策时,我们该如何与之合作?一项通过经典囚徒困境实验的研究,揭示了人类面对不同身份AI时的微妙心理变化。
研究者设计了一个现代版的“囚徒困境”实验——这个经典博弈理论模型要求参与者选择合作或背叛,结果取决于双方的选择。30名志愿者(男女各半)需要与三种不同类型的对手反复博弈:自称人类的匿名玩家、传统规则型AI(Artificial Intelligence),以及具备自主决策能力的大语言模型(LLM,Large Language Model)。通过记录合作频率、决策时间等行为数据,科学家首次系统性地观察了人类如何与不同“身份”的AI展开策略互动。
结果显示,对手的“身份声明”显著影响人类行为。当人们认为自己面对的是人类玩家时,表现出典型的“以牙还牙”策略——对方合作就跟进合作,对方背叛就报复性背叛。但面对LLM时,这种策略变得不稳定:有人会突然主动示好,也有人表现出更高的背叛率。
有趣的是,传统规则型AI获得了最稳定的合作态度。研究者推测,这可能因为它的行为模式明确可预测,而LLM的“类人特质”反而引发了信任焦虑——就像现实中我们更容易信任计算器,却可能怀疑一个“太像人”的销售顾问。
数据分析揭示了一个微妙差异:女性受试者在面对LLM时决策时间明显更长。这可能反映出更谨慎的评估过程,但研究也发现,这种迟疑并未转化为更优的博弈结果。男性则在不同对手间保持相对稳定的决策速度,但在面对自称人类的对手时,合作率波动更大。
实验特别设置了“信任修复”场景:当AI对手从背叛转向合作时,人类需要多长时间重新建立信任?数据显示,人们对LLM的宽容度最低——平均需要比规则型AI多两轮的合作证明才会重新信任。一位参与者事后访谈中的话很有代表性:“我知道它没有情感,但当它突然背叛时,还是感觉像被朋友捅了一刀。”
这项研究对AI应用场景具有直接参考价值:
客服场景:拟人化程度需要谨慎控制,过度拟真可能引发不合理的信任期待
自动驾驶:决策逻辑的透明度比“人性化表达”更重要
教育领域:LLM作为学习伙伴时,需要明确其非人类身份以避免认知混淆
研究团队特别指出,当前LLM在混合动机场景(即双方既有共同利益又存在冲突)中的表现,更像是一个“不按常理出牌的新员工”,既可能带来创新解法,也可能制造意外摩擦。