通信人家园
标题:
诺奖得主的3个提醒:AI会办事了,世界就变了
[查看完整版帖子]
[打印本页]
时间:
2025-12-28 12:00
作者:
tayun
标题:
诺奖得主的3个提醒:AI会办事了,世界就变了
进入 2026 年前夕,柏林一场公开对谈中,AI 教父、诺贝尔物理学奖得主 Geoffrey Hinton 谈到 AI 正在发生的核心转变:
AI 不再只是给答案,而是开始自己思考、生成数据、执行任务。
这句话背后,是三层正在发生的变化:
会推理,幻觉在减少。
会自学,不靠喂数据。
会执行,主动交付结果。
落到现实中:医疗诊断的主导权在转移,不是医生失业,而是谁来下诊断结论这件事在变。教育加速分化,一对一 AI 导师、数学探索、科学发现都在加速。
当 AI 从被动响应变成主动执行,人和机器合作关系就得重新设计。
提醒一:AI 会推理了,幻觉在减少
过去两三年,聊天机器人最大的问题是什么?
“一本正经地说错话。”
但 Hinton 说:这种情况很快会少很多。不是因为它背了更多资料,而是它开始学会推理了。
那推理从哪里来?
他给了一个比喻:每个词就像一块形状复杂的乐高,放进一句话里会随着上下文微微变形,这些词块彼此扣住,形成含义。AI 不是把话翻译成逻辑符号再运算,而是在这些词块之间寻找最自然的连接方式。
一旦 AI 能更好地组合这些词块,推理能力就自然出现了。
多年来,符号 AI 主导了这个领域。他们认为推理的本质是把英语句子转换成逻辑形式,然后应用符号规则推导。他们对此深信不疑,以至于不认为这是假设,而认为这就是事实。
Hinton 明确表示:这完全是胡说八道。
那些主张神经-符号混合系统的人,本质上是想保留旧框架,只是让神经网络来做辅助。这就像有人承认智能手机更好,但还要用智能手机去控制算盘,完全没抓住重点。
推理全都在语言中完成,不需要转换成逻辑形式。
理解不是把句子变成逻辑符号,而是把词变成可以相互作用的高维向量。这更像蛋白质折叠,而不是逻辑运算。
未来的 AI 在说出一句话之后,会多做一步:回头看看刚才说了什么,对照事实或已有线索,如果发现不靠谱就修正。这不是简单的准确率提升,而是 AI 开始具备一种新能力:
自我验证
。
以前它只能输出,现在它能检查自己的输出是否合理
以前它只负责回答,现在它会质疑自己的回答
这种从输出到验证的闭环,让 AI 第一次有了类似人类的自我纠错机制。对使用者来说,直接效果就是准确率更高、逻辑更连贯、胡编乱造大幅减少。
但更深层的变化是:AI 不再是一个被动响应的工具,而是一个能主动检查、修正、优化自己输出的系统。它开始有了某种程度的自主性。
这是能力层面的根本性突破。
提醒二:不等人喂数据了,AI 开始自己学
一直以来,训练 AI 模型都离不开:堆料。
堆算力,堆数据,把全网文章、小说、百科、论坛统统抓取一遍。
可现在问题来了:全网的公开数据已经用得差不多了。这就是 Scaling Law 遇到的第一个极限。你想再提升模型表现,就得多好几倍的投入,但进步却越来越小。
Hinton 认为,下一代 AI 不再靠人类喂,而是自己动手造。
他提到 AlphaZero 这个例子。
这个 AI 不是靠人类棋谱学会围棋的,而是自己和自己下棋,边下边学,越下越强,最后比人类冠军
还准、还稳。
它通过
自我对弈生成了无限的训练数据,不需要等人类提供更多棋谱。
Hinton 预测,数学将是 AI 自我训练最容易突破的领域。因为数学是封闭系统,AI 可以自己提出猜想、自己尝试证明。就像 AlphaGo 自己和自己下棋一样,AI 会自己“玩数学”:
我能证明这个吗?
我能证明那个吗?
在 10 年左右,AI 数学家可能会比人类强得多。它自己可以持续推演,生成无限的训练数据。
不只是在数学。Hinton 同意 DeepMind 领导者 Demis Hassabis 的观点:AI 会在科学发现中发挥越来越大的作用。物理、化学、生物的各个领域,都会出现突破性进展。
大语言模型也会一样。
正因为有了推理能力,AI 可以通过自我验证来生成训练数据。 就像一个员工白天干活,晚上复盘,发现问题,第二天自动提升。AI 不再是被动接收投喂,而是主动消化、验证、改进。
以前的训练逻辑是:数据越多,模型越强。所以大家拼命收集数据、清洗数据、标注数据。
现在的转变是:模型能自己生成高质量的训练数据,通过推理验证自己的输出,从错误中学习。
换句话说,真正强的 AI 不是靠数据涌入,而是靠反复演练,自己打通理解链条。
这不是技术优化,而是训练范式的根本转变。从外部输入驱动,转向内部循环驱动。
过去的 AI 靠你教,接下来的 AI 自己会学。
提醒三:从工具到协作者,角色在转变
2025 年最常被提到的 AI 热词是:智能体。
它不是一个概念,而是一种新“生物”形态:一个能理解任务、能拆解流程、还能主动去执行的 AI。
Hinton 说:
“我们已经看到智能体在互联网上帮人下单、规划日程,接下来还会主动跟其他智能体协商。”
这不再是智能搜索,也不是高级助理,而是它开始接手你原本该亲自完成的那部分事情。
在对谈现场,Hinton 提到他 2016 年预测 AI 会在 5 年内取代放射科医生,低估了所需时间,但现在正在发生。FDA 已经批准了 250 多个 AI 医学扫描应用,AI 能从视网膜图像中看到医生未曾意识到的信息。在诊断准确率上,AI 是 50%,医生是 40%,结合起来是 60%。北美每年 20 万人死于误诊,这个数字会大幅下降。
教育也在转变。
一对一导师能让孩子学习速度快 2 倍,因为导师理解孩子哪里不懂。AI 导师会比导师做得更好,因为它拥有数百万儿童学习数据。不只是儿童教育,成人培训也在转变。Hinton 拿自己举例:在 Google 给员工做培训,讲神经网络这些事,枯燥得很。但 AI 导师可以做得更好,互动性强,也更有效。
不只是医疗、教育,AI 在日常工作中的转变更明显。
过去你怎么用 AI ?告诉它写文案、整理总结、排日程。可现在 AI 会反过来问你:你是想定酒店还是买机票?预算有限的话,我建议先订返程。 再往后,它甚至会不问你,直接定好。
一旦 AI 具备这种主动性,它就不只是工具,而像是一个会完成工作的“同事”。
这就是“智能体”。
它们的能力建立在前两节的基础上:
会推理,所以能判断下一步;
会自我学习,所以能在执行中优化。
很多人以为智能体越强,就意味着某些岗位要被替代。
Hinton 没这么说。他说的是人类会减少对执行过程的参与。不是你突然没工作了,而是你不再审核每一个环节、不再决定每一个动作,有些任务是智能体自己去协商完成后告诉你做完了。
这意味着主导权在转移,你能影响结果的机会变少了。
所以,智能体能力需要设计边界。在 Hinton 看来,我们不是在开发一个听话的助理,而是引入一个愿意并有能力完成任务的参与者。这带来几个必须回答的问题:
智能体到底该完成哪部分?
哪些事必须人工审核?
如果智能体出了问题,谁来负责?
答案可能因公司而异,但方向是一致的:AI 智能体不再只是辅助你了,而是开始直接交付结果。
最后,你的工作不是做具体项目,而是变成选择方案和拍板决策。
结语|能干事的AI,协作关系就变了
这次,在柏林现场,Hinton 没讲炒作,也没讲末日。
他给了三个提醒:
AI开始推理,不再一本正经地说错。
它会自己学,不靠人类灌输入。
它能动手干事,不等你发指令。
从工具到协作者,你的角色从执行者变成决策者。
原文链接:
https://www.youtube.com/watch?v=M9ZNCkJJ0Sg&t=2s
https://www.businessinsider.com/ai-scaling-debate-geoffrey-hinton-ilya-sutskever-alexandr-wang-lecun-2025-12
来源:36kr
通信人家园 (https://www.txrjy.com/)
Powered by C114