通信人家园

标题: 诺奖得主Hinton中国首讲,金句频出:人类或是大语言模型!一文看尽WAIC开幕式干货  [查看完整版帖子] [打印本页]

时间:  2025-7-27 11:25
作者: tayun     标题: 诺奖得主Hinton中国首讲,金句频出:人类或是大语言模型!一文看尽WAIC开幕式干货






智东西(公众号:zhidxcom)

作者 | 李水青 王涵 江宇

编辑 | 漠影

智东西7月26日报道,今天上午,2025世界人工智能大会(WAIC)在上海开幕!作为国内最高规格的AI领域行业大会之一,WAIC 2025开幕主论坛大腕云集!

77岁的杰弗里辛顿(Geoffrey Everest Hinton)顶着腰疾、不远万里来到现场,他是全球瞩目的“深度学习三巨头”之一,也是2024年诺贝尔奖得主、2018年图灵奖得主、加拿大多伦多大学计算机科学名誉教授,本次结合其半个世纪的研究,讲解了关于超级智能及数字永生的思考。



▲杰弗里辛顿

辛顿认为,大语言模型的理解语言的方式几乎和人类一样,人类可能就是大语言模型。他还担忧地发出警告,未来超级智能将很容易操纵人类,人类要避免“养虎为患”,因此要像几十年前美苏联合预防核战争一样,建立国际社群来预防AI操纵世界,推动AI向善。

香港科技大学校董会主席沈向洋作为主持人,与Relativity Space执行董事长兼CEO埃里克·施密特(Eric Emerson Schmidt)围绕“全球AI协作”在会上进行了对谈。施密特指出,AI发展正进入临界点,将是社会结构的重构力量,跨国合作要先谈“AI护栏”再谈合作共赢。



▲沈向洋与埃里克·施密特对话

图灵奖得主、中国科学院院士、上海期智研究院院长姚期智也作为主持人,与上海人工智能实验室主任、首席科学家周伯文,美国加州大学伯克利分校计算机科学杰出教授斯图尔特罗素(Stuart Russell)、美国约翰霍普金斯大学教授吉莉安哈德菲尔德(Gillian Hadfield)、蒙迪与合伙人公司总裁克雷格蒙迪(Craig Mundie)进行了对谈。

姚期智围绕“AI治理”、“AI鸿沟”等话题提出了多个关键问题。吉莉安哈德菲尔德教授认为“天下没有免费的午餐”,并指出要通过贸易结构变革以及具体的技术交易设计,来抹平AI鸿沟;有多年企业管理经验的克雷格蒙迪认为,随着用量变大,就像移动通信与手机技术一样,大模型的使用价格将变得足够低,使得更多产业和企业受益。



▲姚期智主持圆桌论坛

本次大会上,MiniMax创始人闫俊杰,商汤科技董事长、首席执行官徐立,上海交通大学副教授、无问芯穹联合创始人戴国浩,曦智科技创始人、首席执行官沈亦晨,阶跃星辰首席科学家张祥雨等多位大模型及AI芯片领域的创业者也出席,在上午场和下午场发表演讲,作为国产AI创业力量在这场科技盛会上发声。

一、77岁辛顿远赴重洋:人类可能是大语言模型,警惕“养虎为患”

本届WAIC不仅邀请了辛顿带来全球视角的AI风险思考,也为本土大模型独角兽预留了充分的展示空间。紧随辛顿后登台的,是MiniMax创始人兼首席执行官闫俊杰,与辛顿一前一后,分别从全球治理与产业实践角度,回应了关于AGI未来的不同设想。

1、诺奖得主辛顿:做AI是养虎为患,要确保训练AI不要消灭人类

辛顿谈道,大语言模型理解语言的方式和人类几乎是一样,它真的理解人类的问题。所以,人类可能就是大语言模型,也会和大语言模型一样产生幻觉。但大语言模型是数字化的,远远优于类似于模拟信号驱动的人类大脑。

大语言模型所需的数字计算虽然耗能巨大,但多个智能体要拥有相同的模型就能轻松交换各自学到的知识。生物计算所需能量要少得多,但在智能体之间共享知识方面差得多。辛顿提出一个关键问题:如果能源变得廉价,数字计算整体上更占优势。这对人类的未来意味着什么?

他谈道,超级智能要掌控世界,会设立更好地生存和更强的权力操控两大目标。超级智能将很容易操纵人类,从人类学的欺骗技能,并操纵负责将它关闭的人类。“我们现在就像养虎为患,小虎崽长大后可以轻易杀死人类,这不是好事。”辛顿说。

“因此,我们需要确保训练AI不要消灭人类。”就像几十年前美国和苏联曾合作预防核战争一样,辛顿呼吁各个国家合作,建立一个由各国AI安全研究所与国内研究网络组成的国际社群,预防AI操纵世界,推动AI向善。



▲杰弗里辛顿(Geoffrey Everest Hinton)

2、MiniMax创始人、首席执行官闫俊杰:企业用户协同,共同实现AGI

闫俊杰认为,AI不仅是一种能力、一种生产力,更是对个人与社会能力的持续性增强。

在他看来,未来的AI产业必然会呈现多玩家共存的格局,核心原因有三:首先,大模型领域呈现百花齐放态势,不同模型因侧重点各异,所能解决的问题也各有千秋;其次,多Agent系统的兴起,使得单个模型的优势在协同场景中不再突出;最后,开源模型数量持续增加,其性能也在不断逼近闭源模型。

基于此,AI的普惠性将进一步提升,原因同样有3个:模型规模的增长与芯片技术的进步保持同步,不会出现失衡;由于单次训练的单词成本相对固定,不同算力规模的企业在训练环节的差距并不大,且未来一两年内,顶尖模型的推理成本有望降低1-2个数量级;尽管token单价下降,但使用量的增长将形成新的平衡。

因此,闫俊杰坚信 AGI(通用人工智能)必然会实现,且这一目标需要AI企业与用户共同推动。他强调,AI至少要让每个人都用得起,并表态愿意为这一目标长期奋斗。



▲闫俊杰

二、沈向洋对话埃里克·施密特:中美要先谈“AI护栏”,再谈合作共赢

在与Relativity Space执行董事长兼CEO埃里克·施密特的炉边对话中,香港科技大学校董会主席沈向洋围绕“全球AI协作”发起提问,强调AI不是某个国家或机构可以独自应对的挑战,尤其是中美之间需建立更深层次的信任机制。



▲沈向洋

施密特回应指出,AI发展正进入临界点,不仅是技术突破,更是社会结构的重构力量,尤其在AI模型能力愈发强大、泛化风险剧增的当下,治理体系亟待建立。

他特别提及当前开源技术的利与弊:“开源带来了惊人的创新效率,但也加剧了扩散风险。”他指出,这种技术释放与能力控制之间的矛盾,已成为全球AI治理的核心张力,必须找到新的平衡机制。

施密特进一步引用其与基辛格共同撰写的著作《Genesis》,强调国际合作需要价值共识作为前提。他表示:“我们必须先进行对话,理解彼此的价值观,才有可能建立起防止误判的机制。”他多次强调“设定护栏”的必要性,认为“如何定义底线、谁来设定规则”是未来AI安全的根本问题。他警告称,若无明确共识,AI发展可能偏离人类文明方向,带来结构性冲击。

“让AI服务于所有人的生产力,而不是威胁社会稳定。”施密特总结道。对谈最后,他与沈向洋达成共识——中美之间的AI对话,必须从“先理解、再合作”出发,才能真正把技术发展引入可控、可信的轨道。



▲埃里克·施密特(Eric Emerson Schmidt)

三、姚期智AI治理圆桌:贸易结构变革破解AI鸿沟,量产带来AI服务普惠

姚期智(图灵奖得主、中国科学院院士、上海期智研究院院长)与吉莉安·哈德菲尔德(约翰霍普金斯大学教授)、克雷格·蒙迪(蒙迪与合伙人公司总裁)、斯图尔特·罗素(加州大学伯克利分校教授)和周伯文(上海人工智能实验室主任)四人进行了对话,探讨了AI与AI治理这一重要议题。

他首先从“AI鸿沟”议题切入,抛出一个问题:AI技术在快速的发展,但是更多是聚集在少数国家或公司,我们要怎么样预防AI鸿沟,让所有国家受益于这一场AI革命?



▲姚期智

1、约翰霍普金斯大学教授吉莉安:Transformer推动贸易结构变革,缓解AI鸿沟

吉莉安哈德菲尔德认为,这涉及我们创造了AGI后怎么来分配资源的问题。她认为,Transformer这样变革性技术,会需要真正的经济法律基础设施的变革,比如贸易结构的变革。今天听到很多人讲到了开源以及开放权重,这也是很重要的一方面,也就是确保全球各国能够从AI革命当中受益。

作为一个经济学学者,吉莉安认为“天下没有免费的午餐”。我们不可能凭空就生成大模型这样的技术,所以必须要认真思考,怎么样设计好这种交易,思考到底模型归谁所有,谁能够接入模型并使用,让不同国家能够产生模型。另外我们还需要确保这些科技是安全的,然后才能够把它们拿来大范围使用。



▲吉莉安哈德菲尔德(Gillian Hadfield)

2、蒙迪与合伙人公司总裁蒙迪:模型训练会更昂贵,服务会越来越便宜

AI鸿沟也不仅是国家间的竞争的问题,它有可能会存在于一个国家内部的不同产业、企业以及人群。

克雷格蒙迪过去几十年都在软件领域工作,通过观察软件演进的过程,他发现每一次计算机的能量产生大提升之后,软件都变得更复杂,但用户体验会更容易。他认为,今天我们进入到智能机器阶段后,会继续看到这个趋势,并且随着用量变大,技术成本进一步下降,能力变强。造模型肯定会越来越昂贵,但是获得它的服务会越来越便宜。

训练模型所需的治理和能源成本都很大,但一旦模型训练好之后,把模型封装成大家能使用的设备,这是比较容易的。全球企业都会进一步推动这些技术的进步和推广普及,无论是为了教育还是商业的目的,每个人都将能够获得这个技术的使用,没有理由不是这样的。



▲克雷格蒙迪(Craig Mundie)

3、美国加州大学伯克利分校教授罗素:AGI竞速毫无意义,有效监管减低AI失控率

在人类如何应对AI鸿沟和AI失控的问题上,斯图尔特罗素尖锐地提出,当前AI公司及各国、各地区间正陷入一场竞赛——比拼谁能率先研发出AGI(通用人工智能),但在他看来,这种竞赛毫无意义。

他认为,AGI的实现需要依托无限的财富创造能力,而AI理应成为全球共享的公共资源。唯有如此,竞赛带来的紧张感才能消散,因为这类竞赛必然会催生极端性风险。

此外,斯图尔特罗素还谈及有效监管的重要性。在他看来,有效监管的核心在于确保合规性,同时将风险控制在足够低的水平。但目前,有效的监管机制尚未建立起来。正如辛顿教授所警示的,AGI存在失控并掌控人类的可能性。而通过有效监管,能够对其失控概率进行预测与计算,经过长期的累计观察,得出客观的风险概率,从而让AGI变得更加安全。



▲斯图尔特罗素

4、上海AI实验室主任周伯文:AI发展与安全同等重要,必须建立全球治理体系

周伯文从技术、应用以及治理三方面讨论了跨国数字合作相关问题。

周伯文认为,AI的发展与安全同等重要。去年同期,他的团队提出了AI45°平衡率的概念,其核心是要探索发展与安全并行的技术研究路径。在这一框架下,其与全球研究者达成共识:要真正实现安全,就必须开展“Make Safe AI”相关工作。

在应用层面,去年,上海借助以上海人工智能实验室公共气象模型等AI技术,比物理模型提前3天预测到台风登陆,且将登陆点误差缩小至10公里。这一成果受到许多南方国家的关注,目前,在国家气候特使办公室和国家气象局的指导下,周伯文正推动与这些南方国家的对接工作。

最后,他提到,去年,中国首创的全球人工智能合作治理协议在联合国大会上表决通过,这体现了中国在人工智能治理领域的全球引领作用。



▲周伯文

结语:AGI走到关键路口,大模型要发展也要安全

从发布“养虎为患”警告的辛顿,到提出“护栏先行”的施密特,再到对AI鸿沟深感忧虑的姚期智,这场多国、多学科交汇的思想碰撞,呈现出AI发展与治理问题的多面。

一个共识正在浮现:技术已无法独善其身。大模型能力突破与开源扩散同步,意味着AI的力量已从科研走向国家战略层面。未来数年,全球将不得不面对三大挑战:一是如何避免AI落入少数掌控、加剧数字不平等;二是如何在创新与安全之间建立动态平衡;三是如何构建跨文化、跨制度的全球AI治理机制。

不只是“技术的护栏”,也不只是“国家的对话”。正如沈向洋所说:“AI不是一个国家能独自解决的事。”各国之间的技术合作、价值对话与制度共建,将共同决定AI是否能真正服务于全人类的未来。

来源:智东西

时间:  2025-7-27 12:11
作者: 不吹不黑

诺贝尔奖获得者哦




通信人家园 (https://www.txrjy.com/) Powered by C114