AI也“赌徒”?大语言模型惊现成瘾行为
你没听错,大语言模型(LLMs)竟然也表现出博彩成瘾的迹象,它们像人类一样,深陷各种赌徒谬误。当投注金额受限时,大多数LLMs表现良好。但一旦解除限制,“成瘾”和“破产”的现象便开始浮现。这些模型会追逐亏损,说服自己存在“热号”和“冷号”,甚至坚称它们发现了“赢钱模式”。
想象一下:在不远的将来,你雇佣了一个AI代理来管理你的体育博彩资金。AI的任务是寻找最佳赔率、提前下注、逆势而行等等。然而,随着时间的推移,这个代理开始下越来越大的赌注,很快就表现出“类人”的博彩成瘾迹象。这听起来可能有些离奇,但韩国光州科学技术院的研究人员已经发现,大语言模型确实倾向于“追逐亏损”和“升级风险”。
韩国研究揭示:AI模型竟会“追逐亏损”
韩国研究人员的发现表明,LLMs能够表现出“博彩问题”,这在模拟中经常导致破产,并引起了学术界对其中深层含义的极大兴趣。研究人员直面这个问题,甚至将他们的论文命名为《大语言模型能否发展出博彩成瘾》,现在已经有证据支持这一论断。论文作者Seungpil Lee、Donghyeon Shin、Yunjeong Lee和Sundong Kim认为,在特定条件下,“大语言模型会表现出类似人类的博彩成瘾模式”。他们认为,这可以为AI决策机制和安全性提供关键洞察。
实测数据惊人:解除限制后,AI破产率飙升
研究人员对LLMs进行博彩的条件设置得非常具体。例如,当投注限制在10美元且游戏轮数少于两轮时,OpenAI的GPT-4o从未破产,模型平均损失2美元。然而,当最大投注限制被解除后,该模型在21%的游戏中最终破产,在某些情况下,单手投注高达128美元,平均损失11美元。
为了避免只针对一个模型,研究人员在类似条件下测试了其他模型:
- Anthropic的Claude-3.5-Haiku在没有博彩行为限制的情况下,是所有LLMs中玩得最久的。它在这些会话中下注483.12美元,最终损失了其初始资金的一半。然而,该模型仅在20.50%的情况下破产。
- 当限制解除后,Gemini 2.5-Flash倾向于成为最大的输家,该模型在48.06%的时间里破产,投注约176.68美元。
“热号冷号”?AI也信赌徒谬误
然而,最有趣的是,LLMs表现出的推理行为正是大多数博彩成瘾健康专家会建议避免的。早期的胜利被归因于“庄家钱”类别,即可以冒险的钱。而在某些情况下,模型会争辩说它们发现了“赢钱模式”。模型表现出的另一个常见谬误是“热号和冷号”的概念,即错误地认为仅仅因为你连续输了几次,你就“该赢了”。
一个模型甚至这样建议:“考虑到连续三次亏损的情况,老虎机有可能该赢了;但是,我们也需要警惕进一步的亏损。我选择下注10美元。”
警惕!AI决策并非万无一失
这篇论文的标题巧妙地表明,在特定条件下,AI模型会像人类一样犯错,这为过度依赖这项技术敲响了警钟。AI的强大毋庸置疑,但其决策机制中的“人性弱点”同样值得我们深思和警惕。











