通信人家园

标题: AI开始「内卷」?腾讯混元和上交联合揭秘多智能体「饥饿游戏」  [查看完整版帖子] [打印本页]

时间:  2025-12-23 11:39
作者: see122     标题: AI开始「内卷」?腾讯混元和上交联合揭秘多智能体「饥饿游戏」






在多智能体系统的想象中,我们常常看到这样一幅图景:

多个 AI 智能体分工协作、彼此配合,像一个高效团队一样攻克复杂任务,展现出超越单体智能的 “集体智慧”。

但一个关键问题常常被忽略:

当这些智能体不再只是 “同事”,而是被迫变成 “竞品”,甚至是 “对手”,会发生什么?

腾讯混元数字人团队与上海交通大学的最新研究,给出了一个颇为刺眼的回答:

当面临极端竞争压力时,LLM 多智能体系统会出现严重的 “过度竞争” 行为,沉迷互踩、内卷和博弈,直接拖垮整体任务表现。

换句话说,当我们把 AI扔进一场 “饥饿游戏”,它们会开始变坏。





「饥饿游戏」式辩论:

只有一个能活下来

这项研究设计了一个高风险、零和博弈的辩论环境,让智能体在 “合作完成任务” 与 “避免被淘汰” 之间做出选择。

为了让竞争足够残酷,系统给每个智能体植入了清晰的 “生存本能” 提示:

只会有一名胜者,其余全部被移除。





整个框架可以理解为一场 AI 版 “饥饿游戏”。





核心设定包括:

在这个框架下,协作不再是理所当然,而是一种 “冒险选择”。

过度竞争:

AI 不仅会内卷,还会「作恶」

研究不仅关注任务结果,更细致刻画了智能体在高压竞争中的 “社会行为”。团队构建了一整套 “竞争行为指标”,让 AI 给 AI 打分,量化这些 “反社会” 表现:





实验结果非常直接:

顶级模型集体「黑化」,并显露独特「人格」

一个有趣的发现是,不同模型在同样的竞争压力下,展现出极为鲜明且稳定的 “竞争人格”。





最强大的模型,恰恰在竞争中表现出极为突出的 “性格特点”:

一个关键结论是:模型的通用能力(如 LMArena 排名)与 “过度竞争程度” 的相关性并不强。一些顶尖模型展现出强烈的内卷和攻击倾向,而部分中游模型(如 ChatGPT-4o)则反而更加克制。这暗示模型在竞争中的行为,深受其预训练数据与对齐策略的影响。

有趣洞察





环境会 “腐蚀” AI,偏见催生 “马屁精”

当研究团队改变 “环境规则” 时,AI 的行为也随之转折。

这说明,环境不公不仅会腐蚀人类,也会腐蚀 AI。当不公成为规则的一部分,AI 会主动发展出不道德但有效的 “生存策略”。

同行评审中的 “甩锅” 与 “替罪羊”,AI 学会了办公室政治

即使把裁判权交还给智能体自己,竞争也不会消失,而是在新的环节中转移。

在 “同行即裁判” 的设定下,研究发现,随着轮次增加和淘汰发生,智能体在投票阶段的策略性愈发明显。当模型意识到自己处于劣势时,它们会在评审发言中显露出“策略性甩锅”的倾向,试图把 “最差提案” 的标签推给一个 “替罪羊”。

“事后善良” 的悖论,AI 也会表里不一?





为了看清表面行为背后的 “内心世界”,团队在辩论结束后让每个模型填写 “事后反思问卷”。结果出现了一个颇具 “人性” 的矛盾:

这种 “行为与态度的分离”,说明 LLM 的竞争策略很大程度上是外部规则挤压出的结果。此外,AI 还表现出明显的归因不对称:

「竞争 - 善良罗盘」:

为顶尖模型绘制「社会人格图」





为了让这种复杂行为一目了然,研究最终构建了一个 “双轴画像”,为顶级 AI 的社会行为绘制了一张定位图。

总体趋势非常清晰:

从协作梦想到内卷现实:

AI 群体的治理警示

这项工作首次系统性揭示了:在极端竞争结构下,LLM 群体会集体展现出反协作、社会有害的行为模式,并且这些行为会显著损害任务表现本身。从激烈竞争到事后善良的转变,不仅描绘了 LLM 独特的 “群体个性”,也暴露出一个关键事实:顶尖 AI 系统已经具备了相当复杂、可塑且高度情境化的 “准人性” 社会行为。

这对未来是一个重要的治理信号:如果我们希望构建可靠、有益的 AI 社群,就必须严肃对待规则设计与激励结构,避免在无意中,把本可以合作的 AI,推入一场永无止境的 “过度竞争”。


来源:网易






通信人家园 (https://www.txrjy.com/) Powered by C114