这个结果,好似当头一棒重重敲向了此时正往北京师范大学副校长一职奔赴的刘嘉。他火速向学校递交辞呈,重新钻进实验室,将全部心思转投到了脑科学与 AI 的交叉研究中。
回到 2025 年的今天,我们更是已置身于一个几乎被 AI 包围的时代。去年,诺贝尔物理学奖和图灵奖双双花落 AI 领域。今年年初爆火的 DeepSeek 让“无所不知”的大模型遍布朋友圈,随后 Manus 的横空出现又将 AI 完全自主的蓝图放到大众眼前。AI 真的将超越人类吗?身处于现在的时代,这个话题已被推至现实议程,越来越多的人能够感觉到一种深切的危机感。
在今年 6 月出版的新书《通用人工智能:认知、教育与生存方式的重构》中,刘嘉用“近乎疯狂”几个字来形容 AI 的进化速度。在他看来,这场人造的进化史诗,已不再是一场静观其变的外围变革,而是每一个人都必须直面的“新生存现实”。因此,这本书从认知底层逻辑讲起,一步步帮助读者清晰认知 AI、审视自身定位,堪称是一则给所有人的“AI 时代生存指南”。
近期,刘嘉接受了我们的专访,如今,他不仅是清华大学基础科学讲席教授,也是北京智源人工智能研究院首席科学家。访谈中,刘嘉不仅具体谈了 AI 在认知科学视角的真实智能级别,而且明确指出了 AGI 实现的能力标志与技术路径的方向。
同时,作为一名多年扎根科研与教育一线的学者,刘嘉剖析了当前高校 AI 教育中存在的现实问题,并结合具体案例提出许多切实可行的教育改革建议。对于大众,刘嘉也全方位给出了如何与 AI 抗衡的多方面秘诀。
在机器人领域,核心是探索 AI 这个智能体如何在真实生活中与人类交互,目前我看到了一个很好的现象:大家开始关注 AI 如何在真实世界里工作、与人交互,以及从事一些社会相关事务,像宇树科技的机器人、上海的智元机器人等,都是现在大家比较关注的。不过,整体趋势向好的同时,这个领域也有需要改进提升的地方。现在大家更多还是关注机器人的稳定性、动作协调性等基础层面,没有真正用 AI 去控制它的行为,在开放环境中让机器人像人一样做出自适应行为。这一点上,目前还没有较大突破,仍处于比较传统的阶段。
至于第二个让人振奋的领域,是虚拟世界里的“机器人”,也就是智能体(Agent)。我们知道,AI 或基于大模型的 AI,虽然擅长推理和内容解释,但没法具体做事,比如订一张去西安的机票、了解股票行情及民众反应等,它都做不好。但现在出现的智能体技术,能给大模型装上各种各样的“手脚”和工具,让它具备实际办事能力:有的能订票,有的能写程序查询具体问题,比如通过写程序、做统计来分析近五年股票走势,还能查询天气并形成综合报告。如今,大模型结合各类工具形成的智能体,是非常好的发展方向,这表明 AI 现在能具体帮人做实际的事。
所以总结一下我个人的观点:“大模型是随机采样还是模仿人类推理”这件事,现在无需再详细讨论,因为大模型确实能理解我们的需求,还能模仿人类、按照人类的思维模式进行推理。也正是“思维链(Chain of Thought)”带来的这种推理能力,让智能体可以用起来,而且现在大模型的智商已经远超人类,毫不夸张地说,在国际奥林匹克数学竞赛中,它也基本达到或超越了人类最顶尖的水平。因此,现在大模型在智能层面已经达到甚至超过人类智能水平,这一点是毫无争议的。
Q:若未来 AI 不仅通过图灵测试、镜像神经元模拟甚至会表现出“痛苦”等情感状态,这是否意味着意识可从计算中涌现?
刘嘉:我觉得这是个非常好的问题。我们之前聊到了智商(IQ),我认为 AI 在智商层面已经比人类更强,这一点没问题,但你提到的两个关键问题:AI 是否会产生真正的情感(而非像自闭症那样推理出来的情感)、是否会产生意识,我的回答是“yes and no”。
先说说“yes”的部分:没有理由认为 AI 不能产生意识。从人类进化的角度来看,在人类出现之前,动物并没有“我是谁”这样的自我意识,但猴子逐渐进化成人的过程中,人类慢慢产生了自我意识,而人类复杂细致的情感、创造力等,也都是自然衍生而来,并非凭空赋予。既然人类能进化出这些特质,AI 理论上也没有理由进化不出来。
所以能看出,参数量大只是 AI 提升智能的必要条件,而非充分条件;简单的神经元模型也无法支撑起复杂的智能需求,神经元复杂度或许是影响人类智能的关键。这意味着,可能还有很多与架构复杂度相关的因素影响着智能,而现在的大模型远远达不到要求。
因此总结来说:AI 要实现人类级别的智能,或许还需要向人脑学习,需要新的 AI 架构或新的 AI 形式。简言之,“yes”的是,大模型或人工智能理论上没有理由不能实现人类的意识、情感与创造力;“no”的是,现在的大模型还需要在架构、底层神经元的复杂度与精细度上做出根本性改变,必须从脑科学中获取新启发,才能走向下一代人工智能。
回到你刚才的核心问题,现在大模型所谓的“自学习”功能,比如大家常说的无监督学习,本质上还是人类给它设定好的学习规则和要求,并不是像人类这样,有发自内心的自我驱动去学习。所以在我看来,目前大模型的学习无论是有监督学习还是无监督学习,都属于被动学习,和人类主动学习的模式有本质区别,这也是当前 AI 和人类最核心的划分之一。
刘嘉:我觉得从今年开始,AI 领域有三个比较火、能和人类直接互动的方向,但其中脑机接口离我们的生活还相当远,它有个重要瓶颈没解决,就是大脑信息的解码,这更多取决于脑科学进展,和当前 AI 技术关系不大,当下还无法发挥重要作用,所以我们先跳过这个方向。剩下两个方向不仅和我们生活密切相关,还会产生巨大影响。
刘嘉:在以 GPT 为代表的大模型出现之前,我把当时的 AI 称为“任务特异的 AI”,它们本质上就是一种工具,比如高铁机场的人脸识别,只能专注做人脸识别这件事,而且做得比人类好;再比如去年获得诺贝尔化学奖相关的 AlphaFold,能从氨基酸序列推测蛋白质结构,这项能力也远超所有人类,但它也只局限于解析蛋白质结构。
而另一类 AI 就是通用人工智能(AGI),它的核心不是在某一个专项领域超越人类,而是要全方位地和人类相似,做到“人能做的事我都能做,且做得更好”。就像现在的大模型,既能绘画、生成文字通过图灵测试,也能写代码、查天气、分析股票进展、帮忙订票,能胜任各种各样的事情,本质上和人类的能力范围很接近。之前我们也聊过,大模型有没有可能拥有意识、情感和创造力,其实背后探讨的也是大模型能否像人类一样,成为一个与人类相似的新物种。目前 AGI 还没有标准定义,但大家有个共识:它要具备和人类相似的通用智能。
这两种 AI 的发展方向完全不同,一个是成为专业工具,一个是朝着“通用新物种”的方向发展。也正因如此,从 ChatGPT 到现在的 AI,没有昙花一现,反而越来越火、越来越出圈,就连买大白菜的老大妈都知道 AI,因为它在模仿人类,和我们的关系越来越密切。而像 2016 年的 AlphaGo,虽然打赢了世界围棋冠军李世石,却只是昙花一现,没有真正出圈就归于沉寂了。
在我看来,AGI 真正实现需要两个标志。首先,图灵测试现在已经失效了,去年就有 AI 通过了图灵测试,所以不能再用它来衡量 AGI。第一个关键标志要从大模型本身来看,现在的大模型还没有零到一的创造力,只能做组合式创新。举个例子,如果让大模型学传统写实绘画,它能画出很精美的作品,但没法像塞尚、梵高那样,跳出传统绘画框架创作出印象派画作;就像在经典牛顿力学体系里,没法自然涌现出爱因斯坦的广义相对论、波尔等人的量子力学那样的颠覆式创新。这种零到一的创新,在计算机科学领域叫 OOD(Out of Distribution/Off Distribution,分布之外)问题,也就是在 AI 已学习的知识范围之外,创造出全新的东西,这是人类最核心的创造力,但目前 AI 还做不到,而这正是 AGI 需要具备的关键能力。毕竟 AGI 的“G”不仅是“通用(General)”,也该包含“创造(Generative)”,深层次的零到一创造至关重要。
第二个标志是 AI 需要达到足够的感知和运动能力。现在的大模型基本基于 Transformer 架构,它有个先天缺陷:只能串行加工,就像通过已有词汇预测下一个词,必须按顺序推进,和人类说话的逻辑一样。但人类感知外部世界是并行的,不会先处理左边视野再处理右边,也不会先处理视觉再处理听觉,而是多模态信息同时加工,效率很高,这是 Transformer 架构做不到的。运动能力也是如此,人类大脑有 860 多亿神经元,其中 690 多亿在小脑,小脑正因为要做大量并行运算,才能控制运动、帮助我们和外界交互,可现在的大模型在指导实际运动方面能力很有限。简单说,现在的 AI 没法像人一样“看”“听”外部世界,也没法对世界做出反应、改造世界,感知和运动能力都需要大幅提升。
不过目前能确定的是,至少有一个解决方向是明确的,那就是研究脑科学。因为人类本身就具备卓越的创新能力以及出色的感知和运动能力,所以现在 AI 发展的一个重要方向就是把目光重新投向人类脑科学研究,看看人类大脑的工作机制,能给 AI 带来哪些新的启发。也正因如此,我觉得当前 AI 领域一个特别火、也特别重要的方向,就是脑科学与 AI 的结合。
Q:您认为强化学习、脑模拟和自然语言处理哪条路径更可能实现真正的 AGI?为什么?
刘嘉:在我写的书中,我提到了通向 AGI 的三条路径,关于这个问题,我的看法是这样的:通向 AGI 的第一步,是通过语言来学习,而脑模拟和强化学习的速度相对慢一些。不过,要实现真正像人类一样的 AGI,脑模拟和强化学习都是必要的。比如机器人要和外部世界交互,就需要在具体场景中进行交互训练,这就像现在英伟达在做的 Isaac Lab 相关项目,他们构建了很多虚拟环境,让机器人在里面通过强化学习获取反馈,核心就是为了突破运动能力这一难题,这是强化学习发挥作用的重要方面。
就像以前在 NLP 领域,大家也长期在黑暗中探索,直到 Transformer 架构出现,才像是看到了曙光,虽然不知道具体什么时候能“天亮”,但能确定沿着这条路走,很快就能迎来突破。现在的情况是,我们知道强化学习对机器人领域至关重要,脑模拟对感知能力、创造力的提升很关键,也明确这些方向的重要性,但还处在黑暗中摸索的阶段,尚未看到一丝曙光。不过只要未来出现类似 Transformer 的关键突破或者“GPT 时刻”,大家就会信心十足地扑上去了。也正因为如此,我认为目前脑科学与 AI 结合的相关研究很值得投入,但要明确的是,它目前还处于实验室基础研究的范畴,距离走向商业应用,还有相当长的一段距离。
当 AI “停不下来”:未来教育必须改
Q:如果 AGI 最终超越人类智能,人类是否应限制其发展?
刘嘉:现在有个很关键的问题,不知道你有没有关注过 2023 年年底 OpenAI 的那次风波,当时萨姆·奥特曼(Sam Altman)和伊利亚·苏茨克维(Ilya Sutskever)之间爆发了严重冲突,他们一个是管公司运营,一个是管技术。一开始奥特曼被赶走,后来在资本支持下“王者归来”,反而把伊利亚排挤了出去。有意思的是,他们的争执根本不是因为股票、收入这些利益问题,核心矛盾在于对 AI 未来发展的看法:伊利亚非常担心 AI 会“接管”世界,所以他主张要让 AI 和人类“对齐”,还要限制 AI 的发展。
但在我看来,伊利亚的这种想法过于理想化了,原因有两点。第一,他说要让 AI 和人类的三观对齐,可人类的三观本身就从来没有统一过啊。你想,中国和美国的三观能对齐吗?显然不能;就连我们国内,四川人爱吃辣,广州人偏爱甜口,生活观念都有差异,更别说三观了。人的特点就是多元化,不存在一种“绝对正确”的三观,每个人都有自己认可的价值取向。那要让 AI 和人类对齐,到底该和谁的三观对齐、和哪种三观对齐?这本身就没有标准答案,从逻辑上来说,让大模型去接纳所谓“统一的人类三观”就是不成立的。
刘嘉:我先举个具体例子说说我是怎么做的,再聊更宏观的方向。现在我给学生布置作业时,会鼓励他们一定要用 AI 辅助完成,如果有学生不懂怎么用,我还会教他们方法。之所以这么做,是因为让学生学会用 AI 后,他们能快速把作业中基础性的部分完成好。当每个人在 AI 帮助下都能达到 80 分的基础水平,我真正关注的重点就来了:在 80 分之上,你能做出什么和 AI 不同的东西?你的独创性、原创性体现在哪里?这才是人能超越 AI、基于 AI 产生新价值的关键。这样一来,学生就会把更多精力放在如何创造、如何变得与众不同、如何打造自身稀缺性上。
把视角放到大学教学上,现在再像以前那样单纯讲授具体的科学知识、学科知识,已经没有任何价值了,不管多复杂的知识,学生都能通过 ChatGPT 这类大模型学到。所以我认为,现在大学老师要教给学生的核心是两点:第一点就是刚才提到的,引导学生找到和 AI 的差异点,充分激发他们的创造力,培养批判性思维,让学生学会展现独特的创造能力;第二点是帮助学生打通不同学科的知识壁垒,比如学物理的学生,不能只局限于物理领域,还要去了解生命科学、人文社科等领域的知识。
道理其实很简单,所有创新点、新领域基本都诞生在学科交叉处。单一学科发展到现在,大多已经是“红海”,体系成熟,想在里面创新难度极大,而且 AI 已经把单一学科的知识掌握得非常全面;但学科与学科之间的交界地带,就像一片全新的“大陆”,AI 目前还不知道该如何探索,而这正是零到一创新的核心领域。所以从大学层面来说,必须大力推行通识教育,鼓励学生跳出单一学科的局限,打通不同学科的知识,这样才能为创新打下基础。
也正因如此,未来大学的分化会特别严重。以前的大学大多以传授知识为主,比如讲大学物理,清华北大和普通大学的教学内容差别不大;但未来,像清华北大这样的顶尖大学,绝不能再抱着一本《大学物理》照本宣科,而是要推动学生打通物理与其他学科的关联,深入开展通识教育。这类优质大学有能力推动这种变革,而普通大学可能需要付出更多努力才能跟上。在这个过程中,谁率先开展真正的通识教育,谁就有可能成为新的优质大学;如果还固守传统教学模式,只沿着单一学科讲授知识,即便曾经是好大学,也必然会逐渐落后。可以说,未来新的教学方式会重新定义“好大学”与“普通大学”,也会重新区分“好老师”与那些过时、即将被 AI 淘汰的老师。
Q:中国多所高校已开设"AI+ 专业"交叉学科,您认为这类教育改革的核心应该侧重哪一方面?
刘嘉:在我看来,“AI+ 学科”的发展既有好的方面,也有需要改进的地方。首先,从好的方面来说,现在所有学科都必须与 AI 结合,不存在不需要 AI 的学科,AI 就像当年的计算机一样,一定会渗透到每个学科中,这是学科发展的必然趋势。比如清华大学今年新开的“无穹书院”,就扩招了 150 人,这个书院的核心就是“AI+”模式:学生可以选择自己喜欢的方向,无论是生物、绘画、艺术还是其他领域,都要先学习 AI,最终目标是把 AI 和自己的专业深度融合,我认为这是非常好的方向,也是现代学科发展的关键。
但坏的方面也很明显,现在有相当一部分推动“AI+ 某学科”的人,包括一些学科带头人,其实并不真正懂 AI。这就导致“AI+ 学科”的发展很容易变成“袋装土豆”,表面上让学生既学 AI 又学本学科,甚至把学分加倍,却没有将两者有机融合。最后学生看似学了两个专业,却不知道如何融会贯通,使得“AI+ 学科”只停留在“1+1=2”的层面,甚至可能“1+1<2”,没能实现真正的融合增效,这和很多教育推行者自身不懂 AI 有很大关系。
所以我觉得,对于推动学科改革的学科带头人、系主任甚至校长们,有两件事必须做:第一,要亲自系统学习 AI,深入了解 AI 的细节和原理,进行综合训练,而不是只知道几个 AI 名词、参加几次表面培训就够了,这是做好“AI+ 学科”的关键;第二,大学改革应该吸纳更多年轻老师参与,因为年轻老师对 AI 的理解和应用能力更强,也更能接受新事物,让他们来推动“AI+ 学科”的发展会更有优势。
总结来说,“AI+ 学科”是所有学科的必然选择,这一方向本身是好的,现在很多大学也在积极行动,比如开设人工智能必修课、建立“AI+”书院等;但要警惕把“AI+ 学科”搞成简单的“学两个学科”,必须实现两者的深度融合,把学生培养为“AI原生/AI Native”人才。而要做到这一点,一方面推动学科改革的老师们需要真正懂 AI、站在 AI 应用的第一线,另一方面要依靠更多年轻老师的力量来推动改革。
普通人如何建立 AGI“防线”?
Q:您提到“在 AGI 时代,基于知识和技能的白领行业寂然倒下,甚至包括教师和科学家”,那么未来哪些职业反而会因 AI 变得更稀缺?这类岗位需要具备哪些能力?
刘嘉:在我看来,当前所有以知识密集型为核心的职位,都会受到 AI 的巨大冲击,像律师、程序员、会计、医生,还有我和你所在的教师行业都不例外。就拿教师来说,我们的核心工作是“传道、授业、解惑”,可现在“授业”(讲授知识)根本不需要我们了,ChatGPT 讲得比我好,知识面也更广;“解惑”也轮不到我,它比我更有耐心、解释更细致。剩下的“传道”(传递三观),我未必能比 ChatGPT 做得更好。这么一来,传统教师的核心功能大多被替代了,就连我前几天碰到的一位家长都问:“我孩子才幼儿园大班,刘老师,您说他还有必要读小学吗?” 这个问题很关键,未来小学、初中、高中是否还有存在的必要?我觉得这会是个很大的问号,毕竟美国 AI 进入教育领域已是普遍趋势,学生靠 AI 加持,每天花两小时学专业知识就够了,剩下的时间能做课外活动、发展兴趣。
所以从职业角度看,一部分初级和中级职业的消失是必然的,但也有相反的情况。我前段时间和一位音乐人聊过,他说现在请他作曲的客单价不仅没跌,反而涨了。原因很简单,在大量 AI 生成的“鸡肋音乐”中,他的原创反而更让人眼前一亮,像他这样顶尖创作者的稀缺性变得更突出了。
把“大范围初级中级职业消失”和“顶尖人才更值钱”这两件事结合起来,能得出一个结论:至少目前,AI 淘汰的只是平庸的初级、中级从业者,而那些稀缺、有才华的人会更耀眼。进一步说,现在不是 AI 取代人,而是懂 AI 的人取代不懂 AI 的人,掌握稀缺技能的人取代平庸、无稀缺技能的人。这就意味着,在当下社会,我们每个人要追求的关键,是让自己的价值、才华更具稀缺性和不可替代性。以前,比如做程序员,只要懂点简单编程、能完成基础任务,就能在软件公司或大厂找到初级职位“躺平”,可现在不行了,“滥竽充数”的人迟早会被淘汰,必须展现出自己的独特性。
其实从这个角度看,对人类而言反而是一种新的进化。过去我们把太多时间精力花在低端、简单重复的事上,只用极少时间做创造、做零到一的全新发明。但现在,有了 AI 的帮助,那些低端重复性工作可以交给 AI,我们人能专注去做更具稀缺性的事。还是以教师为例,把重复性的知识讲授交给 AI 后,我们可以更多关注学生批判能力、创造力的培养,去激发他们成长的内驱力和自我学习的动力。这才是教师的本质,而不是日复一日地重复讲解勾股定律、分析李白杜甫的诗歌。我觉得,未来人类的职责会发生这样根本性的变化。
所以,人类该大力发展这种全新的颠覆性创新能力,在 AI 时代,有创造力的人会更稀缺、价值更高;而那些只能做模仿、模拟的人,以及传统以知识为导向、侧重学习和应用前人知识工具的教育模式下培养的人,会逐渐被 AI 取代。相反,擅长创新、能开拓全新领域或在交叉学科工作的人,其能力会越来越受重视。可以说,组合式创新 vs 零到一颠覆性创新,是人和机器的一大核心区别,而且我相信在相当长一段时间里,AI 都很难实现零到一的创新。
刘嘉:首先我想澄清一个概念:学习一定是终身学习的概念,所有人的知识过一段时间都会过时,不管是正在上学的中学生、大学生,还是像我这样在大学工作多年、在某个领域有一定积累的人,我们的知识都处于随时可能过时的状态,所以终身学习是必然的,这是一个大前提。如果从更具体的层面来说,在这个时代要想不被 AI 落下,我认为有三点很关键。
第一点,一定要善用 AI 这个工具。目前的竞争,更多不是人和 AI 的竞争,而是“会用 AI 的人”与“不会用 AI 的人”、“善于用 AI 的人”与“不善于用 AI 的人”之间的差距。AI 现在是人类非常好的助手和老师,把它用在工作的各个方面,能极大提升效率。比如我写稿子,以前要逐字逐句从开头写到结尾,现在我可以把更多时间花在构思布局、搭建结构和创新点上,只要给出框架,就让 AI 帮我填充细节;再比如做绘画、动漫,我可以专注于奇思妙想的构思,而不是耗费精力在一笔一画的绘制上。
第二点,要借助 AI 培养批判性思维能力,让它成为我们的批评者。在现实生活和工作中,我们很难得到有价值的负面反馈或批评意见:老板批评我们“做得不好”,往往不够具体,没什么实际价值;朋友的批评又会因为顾及社交关系,不敢过于尖锐,怕伤感情。但 AI 不一样,我们可以主动让它批评我们、挑我们的刺、跟我们“抬杠”。在这种激烈的思辨过程中,人的认知会不断深化,而且因为 AI 没有情感关联,即便“抬杠”也不会伤感情,我们更容易接受这种批评。这其实很像苏格拉底强调的“产婆术”,通过辩论求真,AI 能在这方面给我们很大帮助。比如我做研究时,提出一个新想法,不会先让学生尝试,而是先让 AI 来挑战、批评这个想法,直到它无法再提出新的质疑,我就知道这个想法可能是全新且可行的,这对保持进步、让观点更严谨很关键。
第三点,要让 AI 成为我们情感支持的伙伴。它能在我们生活、工作遇到问题时,提供情感上的解释和帮助。比如和同事发生冲突、老板对自己不满意时,我们可以向 AI 求助,一起探讨如何找到好的解决方案,它能在情感层面给我们有力支撑。
总结来说,在这个时代不被 AI 落下,首先要树立终身学习的意识,这是基础;其次要明白,现在的竞争对手不是 AI,而是“会用 AI”与“不会用 AI”的差距,我们要充分利用 AI,让它从助手、老师到批评者、再到情感支持伙伴,全方位助力我们完成工作、提升自我。