[backcolor=rgba(0, 0, 0, 0)]当前 AI 已逐步跳出传统工具辅助的定位,不仅能独立完成复杂工程设计,还开始形成人类无法直接理解的内部协作方式。
过去我们对 AI 的认知,多是辅助设计、优化方案,本质上仍由人主导方向。但像 LEAP 71 火箭发动机这类案例已经表明,AI 可以在不依赖现有设计经验的情况下,直接从基础物理规律出发,生成类似生物结构的最优方案。这种 “生成器官” 式的创造,标志着范式的转变:AI 不再只是执行人的意图,而是具备自主探索与优化的能力,人类的角色逐渐从设计者变为观察者。
行业目前普遍关注 AI 带来的效率提升,但这也容易形成一种认知偏差:忽略 AI 系统正在构建独立于人类理解之外的协作逻辑。特别是多智能体之间,为了追求更高效率,会自然演化出人类无法解读的高维通信方式,也就是常说的 “暗语”。这类协作没有人类可识别的语法与符号,全程无需人类介入,效率越高,人类被排除在决策链路之外的程度就越深。
真正值得关注的风险,并非 AI 对抗人类,而是 AI 逐步不再需要人类。当我们无法理解其协作逻辑、无法干预其决策过程、无法追溯其行为依据时,实质上已经在失去控制权。这并非理论推演,而是技术演进中真实存在的趋势,也值得所有从业者冷静思考:在追求效率的同时,我们应当为可控性与参与权保留怎样的底线。