在2016年AlphaGo与围棋世界冠军李世石的对决中,AlphaGo在第2局比赛中走出了一个出乎意料的棋步,第37步,尽管看似不合常规,甚至被当时的棋评人士认为是一个错误,但最终被证明是一个极其深远且精准的棋步,帮助AlphaGo获得了胜利。这一棋步被誉为“神之一手”。
“第37步”后来成为了AI领域的重要象征,它被用来代表AI在复杂决策中做出的突发性、创新性和超出人类直觉的重大突破。
近日,诺贝尔化学奖得主、谷歌DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)参加了AI领域知名播客主持人莱克斯·弗里德曼(Lex Fridman)的节目,
深入讨论了关于通用人工智能、自然系统建模、科学创造力及人类文明未来前景的探讨。
这些探讨都直指一个值得深思的话题——AI是否已经走到了“第37步”?AlphaGo在人类尚未察觉全局之势时,悄然走出颠覆性的第37手,而此刻的AI,是否也正悄悄逼近一场技术变局的临界点?
此外,哈萨比斯也带来警告,虽然AI带来了巨大的变革潜力,但它同样伴随着难以预见的风险。他强调,AI的进步可能引发“末日风险”,尤其是当技术失控或被滥用时,后果可能不堪设想。
以下为对话核心观点:
<ol>
哈萨比斯认为,所有能够生成或被发现的自然模型都可以通过经典学习算法进行高效建模,尤其是在生物学、化学和物理学等领域。
2030年实现AGI的概率约为50%,提出测试AGI的标志性标准,如提出新的科学猜想或发明类似围棋的复杂游戏。
自然界的进化过程为系统提供了结构性,这些结构可以通过AI学习并用于建模。比如AlphaGo和AlphaFold通过智能引导搜索解决复杂问题。
虽然过去人们认为理解物理规律需要具身AI,但Veo 3通过观察视频展现了类似理解的能力,挑战了这一观点。
哈萨比斯过去曾与马斯克讨论过合作开发游戏的构想,到现在为止,哈萨比斯仍希望有机会与马斯克在该问题上合作。
未来AI可以为玩家量身定制游戏世界,AI可以根据玩家的决策自动生成剧情,提升游戏的沉浸感和灵活性。
核聚变和太阳能将成为未来主要能源,解决能源问题有望推动人类迈向卡尔达舍夫类型I文明。
哈萨比斯表示Meta高薪挖人策略合理,因为它当前在AI前沿研究中处于较落后地位,如今实习生的薪资已超过DeepMind早期种子轮融资总额。
哈萨比斯未来我们将进入“AI生成界面” 时代——界面会根据用户个性化定制,匹配用户审美、习惯和思维方式,AI会根据任务动态生成。
哈萨比斯认为,虽然无法量化“末日概率”,但AI技术的风险和不确定性不容忽视,必须采取谨慎乐观的态度。
</ol>
谷歌DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)
以下为访谈内容精华版:
01. AI如何模仿自然进化
弗里德曼:在你那场诺贝尔奖的演讲中,你提出了一个很有意思的观点:“自然界中任何能够生成或被发现的模型,都可以通过经典学习算法高效地发现和建模。”你认为这其中可能涉及哪些领域的模型?比如生物学、化学、物理学,还是宇宙学、神经科学之类的领域?
哈萨比斯:我觉得诺贝尔奖演讲有个传统,往往会有一些挑衅性的观点,所以我也故意提出了这样的想法。
如果你仔细看看我们做的所有工作,尤其是“Alpha系列”项目——比如AlphaGo(击败围棋世界冠军的AI系统)和AlphaFold(预测蛋白质三维结构的AI系统)——你会发现,它们实际上是在为非常复杂的组合空间构建模型。如果你想通过暴力计算来找出围棋的最佳走法,或者确定蛋白质的精确结构,就算耗尽整个宇宙的时间也不够。
所以我们必须用更聪明的办法来做。在这两个项目中,我们为这些环境建立了智能模型,通过引导搜索让问题变得可处理。以蛋白质折叠为例,这是一个自然过程,物理学已经解释了它为什么能发生。蛋白质在我们体内几毫秒就能完成折叠,这意味着物理学在其中已经解决了某些问题,而我们现在也通过计算成功地实现了这个过程。
我认为这种可能性存在,是因为自然界的系统本身有结构性。这些系统经历了漫长的进化过程,因此它们有了一些“固定模式”。如果这种结构性成立,那么我们或许能从中学习到一些规律。
弗里德曼:你刚才似乎提到,任何能够进化的事物都可以被高效建模。你觉得这有几分道理?
哈萨比斯:有时候我会用“最稳定者存活”(survival of the stablest)这个说法来解释。
因为生命有机体存在进化,但从地质时间尺度来看,山脉的形态是由千百万年的风化作用塑造的;甚至扩展到宇宙学领域,行星的轨道、小行星的形状,都经历了某种反复作用的“存续过程”。
如果这一说法成立,那么就应该存在某种可逆向学习的模型,一种类似于流形的结构,帮助我们高效搜索到正确的解决方案、正确的形态,并对其进行预测——因为这不是随机模型。
所以对于人造事物或抽象事物,比如分解,可能就无法适用。除非数字空间中存在模型,但如果不存在且呈现均匀分布,那就没有可学习的模型,没有能辅助搜索的模型,只能依靠暴力计算。
这种情况下,可能就需要量子计算机之类的工具。我们感兴趣的大多数自然事物并非如此,它们的结构是因某种原因进化而来,并历经时间留存下来。如果真是这样,我认为神经网络或许能够学习到这些结构。这些系统能够被高效地重新发现或还原,因为自然界并非随机的。我们周围的一切,包括更稳定的元素,都承受着某种选择过程的压力。
02. 谷歌Veo 3与对现实的理解
弗里德曼:我一直觉得,Veo 3这个视频生成模型真的很惊人。很多人会说它做出来的视频很好玩、很有梗,像搞笑短片、迷因视频这些。但我觉得最厉害的是——它真的能把人的动作表现得非常自然,画面也非常真实,再加上原声的加入,整体看起来特别有“人味儿”。但最关键的,也是你之前提到过的一点:它居然能“理解”物理规律。
哈萨比斯:没错。
弗里德曼:Veo 3还不算完美,但已经很厉害了。问题是它到底得多懂这个世界,才能做到这些?有人觉得,像扩散模型这种AI,根本不具备“理解”能力。但我不这么看。如果它完全不理解,怎么可能做出这些视频呢?这其实把“理解”这个词本身的含义给拎出来了。你觉得Veo 3到底理解了多少?
哈萨比斯:我觉得,它肯定有一定的“理解”,至少它能连续预测出画面的一帧帧变化,这本身就不简单了。当然,它的理解不是像人类那种深入思考的理解,不是我们哲学上说的那种。但可以说,它已经非常好地模拟了世界的运行方式。比如它能生成一段8秒钟的视频,看上去非常自然,几乎挑不出问题。进步真的快得难以置信。
大家都喜欢它生成的那种脱口秀演员视频,模仿人说话、做动作的样子很逼真。但我个人最被打动的,是它模拟现实世界里的光线、材料、液体这些物理效果的能力,这才是最让人震撼的地方。
它应该已经具备了一种“直觉物理”的能力。就是像小孩那样,知道杯子倒了水会洒、球滚下来会掉下去——这种对世界运行方式的直观理解,而不是搞科研那种解公式的知识。是一种靠感觉的,这是一种更偏向直觉的物理理解。
弗里德曼:是的,它确实理解了一些东西。我觉得这让很多人感到意外。它也让我深受触动。我从未想过,不依靠理解就能生成如此逼真的内容。有一种观点认为,只有通过具身AI系统(通过物理载体与环境交互感知、决策并执行任务的智能系统),才能构建对物理世界的理解,但Veo 3似乎直接挑战了这种观点,好像纯靠看视频,就能学会了。
哈萨比斯:没错,这一点真的出乎我的意料。哪怕在五到十年前,如果你问我,我也会说:AI想理解像“直觉物理”这种东西,恐怕得真的有身体、能动手做事才行。
就比如我推一个杯子掉下桌子,水洒出来了、杯子碎了,这些都是我们通过生活经验学到的。神经科学里有些理论也说,要想真正“感知”这个世界,你得能参与其中,去行动,才能学得更深。
所以以前我也认为,AI要理解这些,至少得让它“动起来”,不管是给它身体,还是让它在虚拟环境里试着行动。但现在看,Veo 3好像只是看视频,就有了某种程度的理解。这真的让我很惊讶。
也说明,我们生活的现实世界,其实可能本身就包含了很多“可学”的结构,而AI通过观察这些结构,也能学到不少东西。不只是生成个炫酷视频而已。
未来,下一步可能是让这些视频变成“可以互动”的,比如你可以走进视频场景里四处看看,甚至参与其中。想一想都觉得刺激。
那时候,我们就真的接近“世界模型”了。就是AI能在脑子里模拟出整个世界的运行方式、规则和细节。这也是打造真正通用人工智能所必须的一步。
03. 未来用AI定制游戏世界
弗里德曼:未来五到十年的游戏会是什么样?
哈萨比斯:在我青少年时期,第一个专业做的事情就是为游戏做AI,我一直想有一天能重拾这个兴趣。我梦想如果我在90年代有今天这样的AI系统,我会做什么?我认为你可以构建绝对令人震撼的游戏。
我最喜欢的游戏类型一直是开放世界,我做的游戏也几乎都是这个方向。但你也知道,开放世界游戏的开发真的很难。因为玩家可能往任何方向走,你得准备好让每一种选择都足够精彩。很多时候,我们只能用一些像细胞自动机那样的系统,去试着做出“涌现行为”,但这些系统往往不稳定,做出来的内容也有限。
现在情况不同了。我觉得未来五到十年,我们有机会用AI构建出真正围绕玩家想象力展开的游戏系统。比如,AI可以根据你的每个决定自动生成剧情,还能让整个故事更有张力、更像电影。这些能力现在已经开始显现了。
你可以想象一下,如果有个可以互动的Veo版本,甚至更强大一些,在未来几年,我们可能真的可以做出那种“你想到哪儿、它就给你建到哪儿”的游戏。
弗里德曼:你说的开放世界核心是“选择定义世界”,而有些游戏的选择只是幻觉。早期如《上古卷轴:匕首雨》靠随机生成营造开放感,你觉得这够吗?
哈萨比斯:不够。用随机生成或者预先设定好的选项,其实做不到真正的开放世界。真正理想的状态,是玩家真的可以为所欲为,不被限制。这就需要强大的、实时生成的系统,AI能根据你做的每一个决定,即时生成反应。
而且,这样的开发成本非常高。现在做一个3A游戏已经要投入很多资源了,要实现真正动态的开放世界,就更难。我早期参与的《黑与白》用强化学习,游戏体验完全映射玩家行为,如今的通用学习系统仍在延续这一目标。
弗里德曼:你和埃隆·马斯克(Elon Musk)都爱玩游戏,你还有空亲自做一款像《黑与白》的游戏吗?
哈萨比斯:或许靠编码助手在业余时间尝试,或等通用人工智能落地后休学术假——那时计划开发游戏和研究物理学理论。
弗里德曼:你在“解决P与NP问题”和开发游戏(P问题:能在合理时间内找到答案的问题;NP问题:能在合理时间内验证答案是否正确的问题),你会选哪个?
哈萨比斯:两者相关。我想做逼真的开放世界模拟游戏,探讨“宇宙是什么”,这与P与NP问题的本质相通。
弗里德曼:游戏可能成为AI时代人类寻找意义的地方?
哈萨比斯:是的。游戏能释放想象力,90年代是黄金时代,开放世界让玩家共创故事,这是其他媒介没有的。但模拟越逼真,越需思考“现实本质”——虚拟与现实的区别究竟在哪里?
知名播客主持人莱克斯·弗里德曼(Lex Fridman)
04. AlphaEvolve与进化算法
弗里德曼:最近DeepMind发布的进化算法系统 AlphaEvolve,其实非常厉害,但外界关注不多。它使用的是一种类进化的技术,你觉得这种方法有可能成为未来超级智能系统的一部分吗?我理解的AlphaEvolve有点像这样:大语言模型负责提出方向和思路,然后由进化算法去广泛搜索可能的解法。是不是这么个逻辑?
哈萨比斯:没错。大语言模型提出可能的解决方案,再用进化计算探索搜索空间的新区域。我认为这是一个非常有潜力的方向,把基础模型(比如大语言模型)和其他类型的计算方法结合起来,像进化算法、蒙特卡洛树搜索这些,我们称之为“混合系统”(hybrid systems),未来很可能会有重大发现。
弗里德曼:不过也不能太过“浪漫化”进化过程。你觉得这类机制真的有效吗?我们目前对自然进化的理解,还能不能挖出一些“低垂的果实”,来帮我们做更聪明的搜索?
哈萨比斯:我觉得是有价值的。核心在于:你得构建出能够理解底层动态的系统。如果你真的想发现新的东西,你就得让搜索系统敢于跳出已知的边界,去探索那些人类还没涉足的区域。进化计算就是其中一种方法。比如以前AlphaGo通过蒙特卡洛树搜索,在围棋中找到了人类从没下过的“第37手”神之一步,那就是一种突破。
大模型可以覆盖已有知识,但如果你想让AI“创新”,那就得涉及系统怎么创造、怎么发现新点子,这对科学突破来说是非常关键的。当然,这种搜索也不能乱撞,必须有目标函数来引导优化过程,不然就是瞎试。
弗里德曼:我对进化在“程序空间”中的表现也特别感兴趣,比如它是怎么通过“突变”和“组合”组件去构建更复杂的系统的。感觉进化的强项不仅是“优胜劣汰”,更厉害的是它能组合出新结构、搭出分层的系统,这在AlphaEvolve里表现得尤其明显。
哈萨比斯:对,说得特别对。这种“组合产生新能力”的特性,就像生物进化一样,可能会带来真正的“涌现能力”。
问题是,以前那一代进化算法(特别是90年代到2000年初那批),其实是有局限的——它们最多只能从已有属性里选一部分重新组合,无法真正进化出全新的属性。但现在,如果你把它和基础模型结合,或许可以打破这个瓶颈。毕竟自然进化做到了,从最初的细菌一直进化到人类,每一阶段都在获得新能力。我觉得我们现在可能正处在真正理解并掌握这类方法的门槛上。
弗里德曼:AlphaEvolve是我见过最酷的成果之一。我桌上放着提塔利克鱼(最早从水登陆的生物之一)的头骨,看着它就觉得,进化的竞争机制太不可思议了。无论它是否正是我们需要的搜索方式,都不能否认自然的力量。
哈萨比斯:确实不可思议。进化本质上是个相对简单的算法,在宇宙的物理基底上运行了40亿年,却生成了惊人的多样性和复杂度。
05. AI的“研究品味”与科学创造力
弗里德曼:我有很多问题想问你。比如,你一直梦想着对细胞等自然系统进行建模。另外,从更广泛的人工智能科学家角度来说,丹尼尔科科塔格利奥(Daniel Kokotajlo)、斯科特亚历山大(Scott Alexander)等人写过一篇关于超级人工智能(ASI)发展路径的文章,其中提到了“编程超人”(superhuman coder)和“AI研究者超人”(superhuman AI researcher)等有趣概念,还涉及一个很有意思的术语——“研究品味”(research taste)。
结合你所见,你认为AI系统有可能具备研究品味吗?比如像“AI联合科学家”那样协助顶尖人类科学家把握方向,甚至自主探索能产生全新想法的研究方向?这似乎是开展卓越科学研究的关键要素。
哈萨比斯:我认为“品味”或“判断力”是最难模仿和建模的能力之一,也是区分伟大科学家与优秀科学家的核心。所有专业科学家在技术层面都很出色,否则难以在学术界立足。但真正的差距在于,能否凭借品味洞察正确的方向、实验和问题——选择合适的问题并提出合理的假设,是科学研究中最困难的部分,而当前的AI系统显然做不到这一点。
我常说,提出一个出色的猜想比解决它更难。我们可能很快会拥有能解决复杂猜想的系统——比如去年我们的Alpha Proof在国际数学奥林匹克中获得银牌,攻克了许多难题,未来甚至可能解决千禧年大奖难题。
但一个系统能否提出足以让陶哲轩这样的学者认可的猜想——关于数学本质、数字本质或物理本质的深刻问题,这种创造力的难度要大得多。当前系统显然无法做到,我们也尚未明确实现这种能力的机制,就像爱因斯坦在当时的知识基础上提出狭义相对论和义相对论那样的想象力飞跃,仍是未解之谜。
弗里德曼:提出极难或极易的猜想都很容易,但处于两者之间的那个临界点很难,是吧?
哈萨比斯:这个“最佳平衡点”,本质上是推动科学进步,并理想地将假设空间一分为二。无论猜想最终被证实还是证伪,都能让人学到真正有价值的东西,这才是难点。同时,猜想还需具备可证伪性,且在当前技术范围内可实现。这实际上是一个高度创造性的过程,仅靠在模型上进行简单搜索是无法实现的。
弗里德曼:将假设空间一分为二的想法很有意思。我听你说过,只要问题和实验设计得当,就不存在真正的“失败”,因为失败和成功同样有价值——它们能像二分搜索一样,将假设空间一分为二,是这样吗?
哈萨比斯:是的。在真正的基础研究中,其实没有失败可言。只要选择的实验和假设能有意义地分割假设空间,就能从中学习。即使实验未达预期,也能收获同等价值的信息。
如果实验设计合理、假设本身具有研究价值,结果会清晰地指引下一步方向。这本质上是一个搜索过程,而这些信息能起到极大的辅助作用。
06. 生命起源的模拟与探索
弗里德曼:你认为我们能模拟生命起源吗?也就是从非生命体到生命体诞生的过程。
哈萨比斯:这无疑是最深刻、最迷人的问题之一。我很喜欢生物学的这个领域。尼克·莱恩(Nick Lane)是该领域的顶尖专家,他写了本很棒的书《进化的十大发明》(The Ten Great Inventions of Evolution),里面也谈到了“大过滤器”——它是存在于过去还是未来?我觉得更可能在过去。如果你读这本书,会发现生命的诞生本身是多么不可思议。从单细胞到多细胞生物的跨越尤其艰难,在地球上花了十亿年才完成,这足以说明其难度。
弗里德曼:的确如此。细菌在很长一段时间里都活得很 “滋润”。
哈萨比斯:确实,直到它们以某种方式捕获了线粒体。我认为AI完全可以帮助解决这个问题,比如通过模拟——本质上是在组合空间中进行搜索。假设初始条件是地球热液喷口附近的“原始化学汤”,能否从中生成类似细胞的结构?或许在“虚拟细胞项目”之后,下一步就是探索这样的结构如何从化学汤中涌现。
弗里德曼:我希望生命起源也存在类似“第37步”的关键突破。这是最大的谜团之一。我认为最终会发现,非生命与生命之间是连续的,没有明确界限——如果能严谨证明这一点就好了。从大爆炸到今天,整个过程是连贯的,打破我们心中“非生命到生命”的壁垒,会发现这是连接物理、化学与生物学的连续体,不存在割裂的界限。
哈萨比斯:这正是我一生研究AI和通用人工智能的原因——我认为它能成为解答这类问题的终极工具。我实在不明白,为什么普通人不更关注这些:我们甚至没有对“生命与非生命”的清晰定义,更别提意识、引力、量子力学的怪异之处了。
对我而言,这些问题一直像在眼前尖叫,追问着“究竟发生了什么”。说到底,现实的本质是解答所有这些问题的终极核心。想想多不可思议:我们能观察彼此和所有生物,能用显微镜研究到原子层面,却仍无法简单清晰地定义“生命”,这太令人惊讶了。
弗里德曼:生命的定义或许能回避,但意识不行——我们都有鲜明的主观体验,感觉自己是世界的中心,这种“存在感”如此真切。面对这些奥秘,人怎么可能无动于衷?人类一直都在应对世界的未知,比如过去会困惑“太阳和雨水的规律”、“为什么去年多雨今年干旱”,我们做错了什么?
哈萨比斯:我想我们发展出了很多机制来应对这些深层奥秘——虽然无法完全理解,却必须继续生活,于是让自己忙碌起来,某种程度上也是在分散注意力吧。
07. 通用人工智能的“第37步”:我们真的能认出它吗
弗里德曼:你曾说过我们可能会在2030年前实现通用人工智能(AGI)。但这里有个关键问题我们怎么知道它真的来了?通用人工智能有没有类似AlphaGo“第37手”那样的标志性突破?
哈萨比斯:我的看法是,在未来五年,也就是到2030年左右,我们有大约50%的概率能实现AGI。这个预测背后,其实也取决于你怎么定义“通用人工智能”。
现在人们对此有不少争论,而我的标准一直很高,即系统要能匹配人脑的认知功能。我们知道人脑近似通用图灵机,正是凭借这样的头脑,人类创造了惊人的现代文明,这也体现了人脑的通用性。
要确认拥有真正的通用人工智能,就得确保它具备所有这些认知能力,不能像如今的系统那样“智能参差不齐”——某些方面很擅长,其他方面却有明显缺陷。当前的系统就是这样,表现并不稳定。所以我们需要的是在各个领域都保持一致的智能,还要具备我们之前谈到的真正的发明能力和创造力。
至于如何测试这些能力,一种方法是对数万个已知人类能完成的认知任务进行“全面测试”;另一种是把系统交给几百位各领域顶尖专家,比如像陶哲轩这样的人物,给他们一两个月时间,看他们能否发现系统的明显缺陷。如果发现不了,那我们就可以相当有把握地说,我们拥有了一个完全通用的系统。
弗里德曼:我想稍微反驳一下,人类自己也有局限。就算是顶尖专家,也很容易被AI的表现惊到几天,然后很快就把这些能力当成理所当然,开始挑毛病了。所以也许我们不需要几万个测试,更需要的是几个真正“让人震惊”的时刻,就像AlphaGo“第37手”那样的突破。
哈萨比斯:完全同意。全面测试是为了确保能力的一致性,而我更关注的是那些“里程碑式时刻”,就像围棋中的“第37步”。比如,系统能否像爱因斯坦那样提出全新的物理学猜想——我们甚至可以做个严格的回溯测试,给系统1900年之前的所有知识,看它能否推导出相对论。再比如,它能否发明一个像围棋一样深邃、优雅且富有美感的新游戏。这些突破需要在多个领域实现,才能证明其通用性。当然,在此基础上,我们还要检查系统的能力是否一致,确保没有漏洞。
弗里德曼:你会不会担心,我们人类,哪怕是专家,可能会错过这个时刻?
哈萨比斯:情况可能会很复杂,但我觉得顶尖科学家应该能理解。就像下国际象棋时,国际象棋大师会走出一步妙棋,但普通人可能想不出那步棋,但他们事后能解释为什么它有效。我们虽然理解得没那么深刻,但只要他们善于解释——这也是智能的一部分,能用简单的方式说明自己的想法——顶尖科学家应该能理解通用人工智能的突破。
弗里德曼:我在想,比如在围棋中,会不会有棋步一开始被认为是坏棋?但你会不会担心,人类可能会错过那个关键时刻?
哈萨比斯:当然有可能,但之后他们会凭直觉明白为什么那步棋有效。游戏的好处在于它像个科学测试,赢了就说明棋步或策略是好的,之后可以回头分析解释。可能我从小就接触这些,思维方式也受此影响。
弗里德曼:就算是现在,我生成代码时也会遇到一种有趣的情况:一开始觉得生成的代码在某些微妙之处有问题,但又会想,会不会是我自己没看到深层洞见?随着系统越来越智能,我们肯定会遇到这种问题:它提出的东西到底是漏洞还是亮点。
哈萨比斯:确实会很复杂。可以想象,AI生成代码后,人类程序员会去检查,而且他们也会借助AI工具,可能是与生成工具不同的监控工具,这会是种很有趣的互动。
弗里德曼:回到通用人工智能的话题。AlphaEvolve真的很酷,它在编程方面可能实现递归自我改进,你觉得通用人工智能会是什么样子?会很简单吗?比如一个能自我改进的简单程序?
哈萨比斯:理论上有可能,但“硬起飞”(快速失控进化)这种场景未必可取。目前像AlphaEvolve这样的系统,还是需要人类参与决策,是人机交互的混合系统。未来或许能实现端到端的自我改进,但现在的系统还不足以设计出代码架构。
这和提出新猜想的问题类似:给具体指令时它们表现很好,但给模糊的高层指令就不行了。比如让“发明一个和围棋一样好的游戏”,当前系统可能不知道如何下手,因为太宽泛了。“让自己变得更好” 也是如此,约束太少。不过我们已经有了一些进展,比如AlphaEvolve在加速矩阵乘法方面,只要任务足够具体,它就能做增量改进。但目前这些都只是小迭代,要实现理解上的大飞跃,还需要更大的突破。
弗里德曼:但也有可能反驳“硬起飞”的观点,认为通用人工智能会通过一系列增量改进发展,比如像优化矩阵乘法那样,花时间逐步改进,递归解决问题,随着改进增多,进展可能会放缓,所以通向通用人工智能的路径未必是平滑渐进的。
哈萨比斯:如果只是增量改进,确实会是这样。问题在于,系统能否实现像Transformer架构那样的飞跃?2017年我们和Google Brain提出Transformer时,现在的系统能做到吗?目前还不清楚,像 AlphaEvolve这样的系统可能还做不到。这些系统擅长在现有水平上“爬坡”,但关键是,仅靠这个够不够,还是说我们还需要一两个重大突破。
弗里德曼:那同一类系统能实现这些突破吗?比如在一系列S形曲线(增量改进)中,偶尔出现飞跃?
哈萨比斯:目前还没有系统明确展现出这种大飞跃,大多数系统都只是在当前的S形曲线上 “爬坡”。
08. 规模化法则与AI的突破路径
弗里德曼:你认为预训练、训练后及测试阶段的计算规模化法则(Scaling laws)仍在有效发挥作用吗?另一方面,你是否担心AI进展会遇到瓶颈?
哈萨比斯:我们确实认为在规模化方面还有很大空间——包括预训练、训练后及推理阶段,这三个层面的规模化正同步推进。关键在于创新能力,我们为拥有广泛且深厚的研究团队感到自豪,团队里有诺姆沙泽尔(Noam Shazir,Transformer架构提出者)、戴夫西尔弗(Dave Silver,AlphaGo项目负责人)等杰出研究者。
若需要类似AlphaGo或Transformer的突破性进展,我相信我们有能力实现。其实我反而期待挑战升级——当问题从单纯的工程问题转向“研究+工程”的复合领域,才更能发挥我们的优势。毕竟,发明比跟风更难,而这正是我们的擅长之处。
目前尚不确定是需要全新突破,还是现有技术的规模化就足够。因此,我们以实证方式双轨并行:一半资源投入“蓝天探索”(the new blue sky,全新构想),一半用于最大化当前技术的规模化潜力。从Gemini的每一代迭代来看,我们仍在取得显著进展。
弗里德曼:你提到团队的深厚积累,如果通用人工智能的突破不仅依赖计算规模的工程优化,还需要科学层面的突破,你对谷歌DeepMind在这一领域的竞争力有信心吗?
哈萨比斯:回顾过去十年到十五年,现代AI领域80%-90%的突破都源自Google Brain、谷歌研究院和DeepMind。我相信这种优势有望延续。
弗里德曼:数据方面,你是否担心高质量数据(尤其是人类生成的高质量数据)会耗尽?
哈萨比斯:我不太担心。一方面,现有数据已足够支撑系统达到出色表现;另一方面,这涉及模拟技术——只要有足够的真实世界数据构建基础,就能通过模拟生成更多符合分布规律的合成数据。我认为我们目前已进入这一阶段。
弗里德曼:你们在科学和生物学领域的成果很惊人,即便用相对较少的数据也能取得突破。
哈萨比斯:是的,虽然数据量仍不少,但已足够支撑这些研究的启动和推进。
09. 未来能源与文明发展
弗里德曼:如果让你下注,你觉得二三十年、四十年之后,人类的主要能源会是什么?会是核聚变吗?
哈萨比斯:我会把赌注押在核聚变和太阳能上。太阳能本质上是 “天空中的核聚变反应堆”,目前的问题主要在电池储能和传输效率上,未来可能会有更高效率的太阳能材料,甚至在太空中实现类似 “戴森球” 的构想。
而核聚变也是可行的,只要我们能设计出合适的反应堆,并且能更快更稳定地控制等离子体反应。虽然这些技术还在开发中,但我相信终会解决。
所以这两种能源——核聚变和太阳能,很可能会成为未来的主力:既清洁、又可再生,而且几乎是免费的。
弗里德曼:能活在这个时代真奇妙。如果我们一起穿越到一百年后的未来,若人类已达到卡尔达舍夫类型I文明(该文明是行星能源的主人,这意味着他们可以主宰这颗行星以及周围卫星能源的总和),你会感到惊讶吗?
哈萨比斯:在一百年的时间尺度里,我不会太惊讶。如果我们通过高效太阳能等方式解决了能源问题,那么免费、可再生的清洁能源将化解诸多难题。比如水资源问题——海水淡化技术已存在,只是成本过高,目前只有新加坡、以色列等富裕国家使用;若成本降低,所有沿海国家都能普及。此外,还能通过能源将海水分解为氢和氧,获得无限的火箭燃料。
再结合马斯克的自着陆火箭技术,太空往返可能会像公交车一样频繁,开启小行星采矿等新领域,让人类走向星辰大海。正如卡尔·萨根(Carl Sagan)所梦想的,将意识带入宇宙、唤醒宇宙。如果我们能正确运用AI解决这些问题,人类文明终会在时间长河中实现这一目标。
弗里德曼:我在想,若作为太空游客飞越地球,可能会注意到——能源问题解决后,太空火箭会像伦敦的交通一样密集;太空中可能漂浮着太阳能装置,地球表面会更具科技感,而这些能源将用来保护雨林等自然环境。
哈萨比斯:没错。人类历史上第一次将不再受资源限制,这会是一个全新的时代——不再是零和博弈:不再是“我占有这片土地,你就没有”,也不会出现“老虎需要森林,当地村庄就无以为生”的矛盾。这虽不能解决所有问题(人类的其他弱点仍会存在),但至少能消除资源稀缺这一重大问题,包括土地、材料和能源的短缺。
我们有时称其为“激进丰裕时代”——资源足够分配。当然,接下来的关键问题是确保这些资源公平分配,让社会中的每个人都能受益。
2024至2025年间,谷歌DeepMind发布的各个AI模型和产品的时间线
10. 谷歌与AGI竞赛
弗里德曼:谷歌DeepMind在通用人工智能竞赛中胜出的概率有多大?
哈萨比斯:我们做的这项技术,真的非常重要,影响也深远,用输赢来衡量并不合适。
其实我常常用竞技思维来考虑问题,但我不把它看作一场游戏或竞赛。我觉得,作为处在最前沿的研究者,我们有责任把这项技术安全地带给世界,造福全人类。这也是我一直以来的梦想,我们始终在朝这个方向努力。当我们接近通用人工智能时,我希望整个研究界,甚至整个国际社会,能够意识到团结的重要性,共同推动这项事业。
弗里德曼:那和其他实验室的领导者保持良好关系难吗?竞争加剧后,大家还能愉快合作吗?
哈萨比斯:到目前为止还挺好的。我一直认为,研究就是合作,科学也是合作的事业。
如果我们能解决疾病、找到突破性的治疗方法,这应该是全人类的胜利。同样,在能源等领域,我希望AI能带来解决方案,能为全人类造福。所以我尽量和其他领先实验室的负责人保持良好关系。
弗里德曼:你和马斯克如果合作开发一款电子游戏,那肯定会很有趣,既能增进友谊,也能推动合作。你怎么看?
哈萨比斯:这确实是个很酷的想法。我们以前也讨论过,可能会有机会做一些有趣的事情。我同意,做一些“副项目”很不错,能专注于合作,创造双赢的局面,同时培养更强的合作能力。
弗里德曼:我把科学探索看作是人类的“副项目”,而谷歌DeepMind一直在推动这一点。我希望其他实验室能投身更多的科学研究,并开展更多合作,因为在重大科学问题上,合作能带来更多成果。
哈萨比斯:我同意。我希望看到其他实验室也能积极投入到科学研究中,但现在真正把AI用来做科学研究的实验室,恐怕就只有我们。这也是为什么像AlphaFold这样的项目对我们如此重要,它让人们看到了AI如何实际造福人类。
我们还基于AlphaFold分拆出了一家公司Isomorphic,专注于药物研发,进展也非常顺利。未来我们还可以建更多像AlphaFold这样的系统,加速化学和药物设计。我们需要更多这样的例子,让大家明白AI能为社会带来巨大的益处。
弗里德曼:发自内心地感谢你,以严谨、有趣、谦逊的态度推动科学事业前进。现在我们还在讨论P与NP问题,真让人觉得不可思议。关于人才争夺战,我知道现在非常激烈,你如何看待Meta 以高薪挖角人才,以及这场人才争夺的升温?很多人认为DeepMind是从事尖端工作的好地方,正如你提到的,这里有充满活力的科学文化。
哈萨比斯:显然,Meta目前采取了一种策略。但在我看来,那些真正相信通用人工智能使命、理解其正反两面影响及责任的人,大多和我一样,是为了站在研究前沿,影响技术发展方向,将其安全地带入世界。Meta目前并不处于前沿,或许他们能设法重回前沿——从他们的角度看,这种做法可能是合理的,毕竟他们落后了,需要采取行动。
但我认为,真正相信通用人工智能使命、明白它的影响和责任的人,大多是为了站在研究最前沿,推动技术发展方向,让它能够安全地走进世界。
从某种意义上说,这种争夺是理性的,但我觉得比钱更重要的东西是,我们真正有责任去做这项工作。当然,现在薪水很高,这是因为越来越多的企业开始意识到,通用人工智能可能是人类将要发明的最重要技术。
记得2010年我们刚起步时,有几年我没给自己发薪水,因为资金不足,筹不到钱。而现在,实习生的薪资都超过了我们第一轮种子轮的融资总额,挺有意思的。我记得过去得免费工作,甚至自己掏钱实习,现在完全反过来了,但这就是现实,是新世界的常态。
但我也认为,正如我们讨论过的,当通用人工智能实现、能源问题解决后,金钱的意义可能都会改变。因此,在未来的经济中,我们将面临更重大的问题:那个世界的经济如何运转?企业如何存在?所以如今的薪资之类的问题,其实只是次要问题。
弗里德曼:从商业和领导力角度看,谷歌过去一年的表现令人惊叹。可以说,一年前谷歌在大语言模型产品领域还处于下风(当时 Gemini 1.5 刚推出),而现在已经领先。你掌舵并主导了这一转变。在一年内实现从“落后”到“领先”,需要付出什么?
哈萨比斯:首先,我们有一支极其出色的团队——Gemini团队太优秀了。没有顶尖人才,这一切都不可能实现。当然,我们也有强大的算力支持。但更重要的是我们打造的研究文化——将谷歌内部原Google Brain 团队和原DeepMind团队的顶尖人才与想法凝聚在一起,共同打造最强大的系统。
这过程确实艰难,但我们都极具竞争力。这并非必然,但我们对当前的位置很满意,而进步速度才是最重要的。看看从两年前到一年前再到现在,我们一直在“持续突破”。这种持续突破与持续落地的结合非常成功 —— 整个AI领域的竞争异常激烈,全球最优秀的企业家、领导者和企业都参与其中,因为所有人终于意识到AI的重要性。能看到这样的进展,我们非常欣慰。
弗里德曼:谷歌是一家巨头企业,这种情况下难免会出现官僚主义——会议繁多、管理层级复杂。大公司要推动落地是很难的。你们是怎么在这一点上克服的?过去几年,Gemini相关产品的推出速度快得惊人。
哈萨比斯:这确实是大公司的本质,会形成多层管理架构。但我一直保持初创公司的心态来运营,尽管DeepMind已经很大了,依然保持灵活和决策果断。
谷歌DeepMind现在的做法也是这样,我们努力兼顾两方面优势:一方面,我们有世界级的产品平台,能快速将AI研究成果转化为实际产品,为数十亿用户提供帮助。这在全球范围内很少有公司能做到。
另一方面,我们也在不断努力减少官僚主义,保持研究文化和落地文化的平衡。我觉得我们已经取得了不错的进展。
弗里德曼:那关于AI产品的设计,你觉得打造一个受大众喜爱的AI产品需要什么?
哈萨比斯:这要追溯到我设计游戏的日子。90年代的时候,我为数百万玩家设计游戏,那时就需要把尖端技术和产品结合起来。我喜欢将前沿研究与产品设计结合,打造出新的用户体验。直观的用户体验和品味是最重要的能力,这在科学和产品设计上都适用。
我一直是跨学科的人,不认为艺术与科学、产品与研究之间有明确界限。对我来说,它们是连续的整体。我只喜欢参与前沿产品的打造,如果底层技术不尖端,我不会感兴趣。这需要创新和创造力。
弗里德曼:那么,语音交互什么时候会取代打字,成为主要的与机器互动的方式?
哈萨比斯:打字的带宽很低,即便打得再快也是如此。未来,我们有可能通过智能眼镜、耳机,甚至神经设备,把输入输出的带宽提升100倍。
弗里德曼:界面设计是一种被低估的艺术——如果界面不合适,就无法释放系统的智能潜力。界面是解锁其能力的关键,如何做到这一点是个很有趣的问题。
哈萨比斯:是的,这正是史蒂夫乔布斯(Steve Jobs)常说的——我们追求简洁、美观和优雅,而目前还没人完全做到这一点,这是我们的目标。这又回到了围棋的比喻——它是最优雅、最美丽的游戏。我们能打造出同样美丽的界面吗?
我认为,我们将进入“AI生成界面” 时代——界面会根据用户个性化定制,匹配你的审美、习惯和思维方式,AI会根据任务动态生成。这很可能是未来的方向。
弗里德曼:Gemini 3什么时候发布?从2.5到3.0版本,有什么突破?2.5已经有了好几次性能飞跃,新版本是要在性能上提升,还是彻底改变用户体验?
哈萨比斯:我们有一个版本发布的规律:每个全新大版本的开发周期大约是6个月(包括完整的训练和产品化)。在这个过程中,会不断有新的研究和想法涌现出来——比如过去6个月在架构、数据等方面的创新,我们会对这些进行汇总和评估,看哪些对下个版本有帮助,然后整合到一起,启动新的“核心训练”。
训练结束后,系统会进行大量的优化(比如不同的微调方式),这些优化通常会带来很大的提升。
通常,版本号代表的是预训练的基础模型,而像2.5版本的迭代(包括不同规模和新增功能)大多是基于同一个基础架构做训练后的优化和微调。
另外,我们还会推出不同规模的模型(如Pro、Flash、Flashlight等),它们通常是从大型模型“蒸馏”出来的,主要目的是给开发者更多选择:可以根据需求优先考虑性能,或者速度和成本。
这就像“帕累托前沿”(Pareto Frontier):Y轴是性能,X轴是成本和速度。我们的模型覆盖了这个前沿,无论开发者偏向哪个,都能找到最合适的模型。
弗里德曼:版本迭代的背后,是大规模训练、复杂的产品化流程,以及沿帕累托前沿的模型蒸馏。每一步都可能催生很酷的产品,但也会有 “支线任务”。
哈萨比斯:没错。
弗里德曼:每次发布新版本时,基准测试(benchmarks)对展示模型性能是有益还是有害?
哈萨比斯:基准测试是必要的,但不能过度拟合——它们不应是唯一标准。比如LMArena(前身为LEMSYS)是人们测试聊天机器人的主要工具;学术基准则涵盖数学、编程、语言、科学等能力;我们还有内部关注的基准。这是多目标优化问题——不能只擅长单一领域,我们要打造全面的通用系统,追求 “无遗憾改进”(比如提升编程能力的同时,不降低其他领域性能)。
这很难,因为增加编程数据或游戏数据可能会影响语言或翻译能力。因此,我们必须持续监控越来越多的基准;同时,当模型投入产品时,还要关注终端用户(无论是开发者还是普通聊天用户)的直接使用数据和反馈。
11.人类文明的存续概率与风险
弗里德曼:我有个有点荒唐的问题:你觉得人类文明自我毁灭的概率有多大?也就是所谓的“末日概率”(P-Doom)?
哈萨比斯:我没法给出具体的“末日概率”数字,因为这种概率本身是无法精确量化的,根本不存在那种准确的测量标准。实际上,我也不太清楚大家是怎么得出这些数字的,这个问题本身有些荒谬。但我可以说,这个概率绝对不是零,而且可能不容忽视,这就值得我们深思。
从我的角度看,这些技术的潜力、发展速度和可控性都充满不确定性。有些问题可能比我们想象的要容易解决,而有些真正的难题可能比现在的猜测更棘手。
在这种“高度不确定且高风险”的情况下,人类面临两种可能:一方面,我们可能会通过AI来解决疾病、能源、资源短缺等问题,实现星际旅行,让人类文明进入一个空前繁荣的时代;另一方面,我们也有可能陷入所谓的“末日场景”。
鉴于这种不确定性和重要性,唯一理性且明智的做法就是**“谨慎乐观地前行”。我们当然渴望AI带来的好处——实际上,没有AI技术的话,面对气候变化、人口老龄化、资源短缺等问题,我会非常担心,因为这些问题实在太难解决了。AI能带来巨大的变革,但我们也知道,它同样伴随着风险,只是我们还无法完全量化这些风险**。
所以,最好的方式是用科学方法去研究,更精准地定义和解决这些风险。我认为目前我们的努力还远远不够,尤其是随着我们越来越接近通用人工智能,我们可能需要投入比现在多十倍的精力。
弗里德曼:那你觉得最担心的是哪种风险?是人类滥用技术,还是通用人工智能本身在你提到的机制(比如欺骗)下,逐渐失控、脱离掌控?
哈萨比斯:这两种风险在不同时间尺度上存在,都需要解决。
这两种风险在不同的时间尺度上都存在,都需要关注。
第一种是“普通风险”:就是坏人利用新技术干坏事。这是个很大的风险,复杂性也很高——我通常非常支持开放科学和开源(比如我们做的AlphaFold项目就对全球科学界开放),但问题是,怎么在防止坏人(个人或不负责任的国家)滥用这些强大技术的同时,又能让好人充分利用这些技术呢? 这是个非常棘手的问题,目前没有明确的解决方案。
第二种是随着系统变得越来越自主,越来越接近通用人工智能,我们怎么设立“护栏”,确保这些系统按照我们的意愿行动,不会失控?
或许我们可以利用AI技术本身来预警一些坏人的行为(比如生物、核领域的风险),前提是AI系统本身要可靠。这两个问题其实是密切相关的,所以非常复杂,可能需要国际社会达成一些基本标准的协议。
来源:36kr
|