接到诺贝尔奖通知时,杰弗里·辛顿(Geoffrey Hinton)立刻想起了好友特伦斯·谢诺夫斯基(Terrence Sejnowski)。他们曾约定——一人得奖,奖金同享。在 1985年,他们共同发明了玻尔兹曼机(Boltzmann machine),为这一轮深度学习的热潮奠定了基础。
谢诺夫斯基谢绝了辛顿的好意,于是这部分奖金被用于设立一个名为Sejnowski-Hinton Prize的奖项 ,鼓励脑科学的研究,每年在 NeurIPS 会议上颁发。谢诺夫斯基从 1993 年起担任 NeurIPS 基金会主席至今。
交集开始于 1979 年,俩人在一个“小型”研讨会上结识。彼时,业界普遍认为的“光明未来”是基于“符号主义”的人工智能,愿意相信“联结主义”的人寥寥。后来,这一小撮人逐渐从角落走向台前的故事也在深度学习复兴后被反复提及。
谢诺夫斯基和辛顿在讨论视觉网络模型,拍摄于1980年
谢诺夫斯基开创了计算神经科学(Computational Neuroscience)这一全新的学派。通俗理解他的研究路径,将物理学、数学、统计学等学科中的方法用于分析神经科学家获得的高度复杂的数据集,理解大脑的计算资源,并构建大脑和行为之间的关联模型。
因此,去年谢诺夫斯基(与 Haim Sompolinsky,Larry Abbott一起)获得The Brain Prize——被誉为“神经科学界的诺奖”。同时,他们对于大脑里一些活动的解读,也在为 AI 发展提供理论基础。
特伦斯·谢诺夫斯基在爬山
近期,果壳与特伦斯·谢诺夫斯基进行了一场对话。在他的新书《大语言模型》(ChatGPT and the Future of AI: The Deep Language Revolution)中,谢诺夫斯基凭借其深厚的学术积淀和前瞻视野,勾勒出人工智能,尤其是大语言模型从何处来,向何处去的宏观图景。
他自诩技术的乐观派,但也承认对人工智能的未来有太多难以预测。
以下对话经果壳编辑整理。
“当我意识到他们都在错误的方向上解释大模型是否智能”
过去几年,就连专业的认知科学家也难对“AI 真的理解它在说什么吗?”这样的疑问达成一致。谢诺夫斯基提出了一个很有意思的观点,每一次人类与 AI 的对话,都是一次 AI 对人类的“反向图灵测试”——AI 答得越好,说明对话者提问水平越高。人们之所以有这样的分歧,原因在于过去那套基于自然智能的传统认知框架已经不再适用。深度学习被称为“黑箱”。大语言模型本质上是高维空间中的新函数,推动基础数学的建立和突破,将深入对大模型智能以及自身大脑(这个复杂太多的系统)的理解。
果壳:说到写书的契机,你说在 ChatGPT 出来后,看到了很多“褒贬不一”的使用案例,这让你意识到“他们都在错误的方向寻找智能的痕迹”。你认为像现代物理学的基础奠定是将“力”等模糊概念转变为公式一样,描述 AI 是不是智能的前提是对高维空间的数学理解。那么,目前我们在这条正确的道路上进展如何了?
谢诺夫斯基:在过去的几年里,ChatGPT 的出现就像一个外星人,突然降落在地球上,会讲流利的英语同我们交流。唯一肯定的,它不是人类。
怎么定义它?它是什么?全世界所有心理学家,认知科学家,语言学家,各抒己见,不能彼此认同。有人说它很智能,似乎能理解语言;另有人说,它只是记住了很多东西,然后再吐给你。
很多迹象表明,不同的人输入不同的提示词得到不同的结果。我一下子顿悟了,也许这是跟人类的不同之处。它的智力是可变的,这取决于谁在提问?换句话说,它反映了使用它的人的智能。而人类智能是固定的,是垂直的,你是物理学家但不意味着你擅长文学或政治。
为什么聊天机器人表现时好时坏?
那么我们从大家无法达成一致的这个事实中得到什么?在我看来,如果他们争论,AI 是否理解自己在说什么?那就意味着我们不理解“理解”这个词本身。不同的人对“理解与否”有不同的解释方式,我们必须超越语言层面(定义理解)。
你对“球是如何投出去的”有直观的概念。要想深入地解释这个现象,需要将物理现象公式化。
神经网络就是一个有着数万亿参数的巨大方程。谁会比数学家更了解方程呢?
未来人们谈论可解释的人工智能时,不会用语言描述。我们需要深入挖掘,从根本层面上去真正理解。
AI 和脑科学是 two-way street
玻尔兹曼机引入了统计物理学中的玻尔兹曼分布概念,为神经网络带来了随机性的特征。通俗地解释玻尔兹曼机的开创性,它是最早能通过看大量图片后总结出“香蕉是黄的弯的”规律并在下一次识别出来,以及做多任务排列优化以达全局最优的神经网络。辛顿曾说,“当时我们觉得这个学习算法太优雅了,确信大脑就是这样工作的。”玻尔兹曼机虽然不是典型的多层神经网络,但具备一些多层网络的特征,而这是上世纪 60 年代末(感知器 Perceptrons)未被解决的难题。
果壳:你去年拿了脑科学领域非常重要的一个奖。因为你创建了“计算神经科学”这个研究领域。你能讲讲最近的研究进展吗?
谢诺夫斯基:我从物理学转向神经科学时,计算神经科学并不存在。那时候,我们做实验非常困难,非常昂贵,而且数据不多。所以我们基本上用传统的物理学方法,写方程式。
40年来,神经科学家开发了更好的技术,更多的数据。因为有了海量数据,我们得以用机器学习技术来测试想法。“大脑奖”颁给我们,因为我们意识到了采用新方法研究神经科学的重要性,在此之前"计算神经科学"学派并不存在。
过去几年,基于我们为大脑神经网络模型写下的方程,人工智能发生了变化,从上个世纪基于逻辑和规则的公式变成大量相互连接的节点所组成的计算模型。
人工智能取得进步的方式不是靠编写计算机程序。而是像人类学习一样,每当遇到新的例子,大脑吸收新的信息,整合到原有的知识库里。
视觉皮层与卷积网络在图像对象识别上的比较
ChatGPT 对我的研究产生巨大影响。从某种意义上来说,它是大脑的简化版。大脑有 1000 亿个神经元,你无法记录,你只能记录其中的一小部分。但对大语言模型,能访问每个单元、每个连接、每个输入活动模式。我们可以有“干净”的访问权限。这样我们就能尝试研究它是如何工作的。
人工智能受到大脑启发,现在我们反过来。我受到大模型如何解决问题的启发,提出关于大脑实验和模型的新想法。
果壳:人工智能帮助科学研究已经成为普遍共识。谈谈你认为 AI 仍存在哪些局限性?
谢诺夫斯基:让我们回到 2018 年,我写第一本书《深度学习》时,有点像站在当时对今天做预测。写那本书时因为我参与了深度学习算法早期开发,我能从一个局内人的角度讲述我们一路发展深度学习的起源故事。在一次图书签售会上,有一个读者当时问了一个问题,“你怎么知道深度学习不是一场‘泡沫’呢?它是能识别图像,但是你们怎么知道这将产生一些重要影响呢?”
我的答案是,从采用这项技术的科学家那里,影响已经发生。比如 DeepMind 解决了上个世纪生物学中最大的问题之一,通过氨基酸序列预测出蛋白质的三维结构。人们曾经试图用物理学进行模拟,但非常困难,所需要的计算量远超当时任何一台计算机能做到的。
每一个从事神经网络工作的人在三年前就明白它将产生的巨大影响,直到 ChatGPT 出现才让大众意识到了这一点。但就像互联网早期,我们已经意识到它将产生巨大影响,但不知道到底会如何发展,现在我们也不知道 AI 会走向何方。
很多人担心超级智能,担心 AI 威胁到他们的生存。事实上,这是技术无人看管的后果。因为任何技术都有好坏影响之分就像核能,我们最好谨慎地开发,因为那些负面也会发生在 AI 上。
果壳:那么哪些你在当时做的预测在今天实现了?
谢诺夫斯基:在那本书里我说,AI 将让人类变得更聪明。世界国际象棋冠军是马格努斯·卡尔森,在挪威的一个小镇长大,他通过和电脑对弈来学习象棋。AI 发掘了他的大师潜力,让象棋“民主化”。我们必须弄清楚如何使用 AI,即便开始时这是一条缓慢增长的学习曲线,但是人类在 AI 的帮助下会做得越来越好。
每一次公开演讲,我都会被问到一个问题,“我会失业吗?”因为他们经常在报纸上读到。报纸经常写有误导性的内容。不如我们再次“以史为鉴”,想想工业革命。AI 正在改变科学,改变职业,无论你的工作内容是什么,必须适应新技术。
关于机器人,人们以前和现在都低估了一些困难
大语言模型仅模拟了大脑新皮质的功能,而大脑其他更古老的部分,才是负责自主行为和生存本能的关键。在人类大脑中,负责目标导向行为发起的关键结构叫基底神经元;长期记忆的形成靠海马体和睡眠纺锤波;多巴胺在内的数十个神经调节系统共同调控人类的情绪状态;以及人作为一个“有机整体”,人的大脑是通过分布式控制实现对身体多自由度的协调。大语言模型需要继续从人脑中找答案,实现自主性和与物理世界的交互。不过人类对大脑依旧了解甚少,比如“我们不知道大脑如何自发产生意识和想法。”谢诺夫斯基说。
意识在大脑中的哪个位置躲避着我们的探寻?
果壳:我前段时间参加一个人形机器人发布会,对方想做消费级市场。当下我突然想到多年前看过的一个电影叫A.I. Artificial Intelligence—一个机器人男孩试图代替人类男孩的故事。我想问问您对人形机器人目前进展的看法,以及你未来会给自己家买一台吗?
谢诺夫斯基:他们让机器人看起来很花哨,但我告诉你我所知道的。
人形机器人能做的还很有限,比如像人类一样拿起一杯水喝,像猫一样在桌子上跳来跳去。动物是很优雅的,因为它们进化了数百万年才进化出做出这些惊人动作的身体。
90年代,日本研发了一个机器狗叫 AIBO。你和它玩,向它扔球,它有狗的外观,会学狗吠。但是人们逐渐对它失去了兴趣。
现在同样的命题给到两只脚的机器人——机器人的适应能力,像人一样与世界互动,依然差得远。未来,AI 与机器人技术结合会让机器人至少在互动上更贴近人类。但是现在机器人真正擅长的在汽车装配线。
上个世纪,人们低估了视觉和机器人技术等问题的计算难度。我给你讲个真事儿,是我从马文·明斯基那里听说的。
1960年,当MIT获得第一笔DARPA资助时,后者提议建造一个打乒乓的机器人——即便在 60年后,我们都没有一个能完全打乒乓的机器人。
MIT 拿到了钱,然后他们意识到他们忘记索要为机器人编写视觉程序的钱。他们认为“视觉”是一个微不足道的问题。然后把这个项目分配给了一个研究生。我天啊,计算机视觉过了 60 年直到神经网络才让其有了进展。后来我问明斯基,他说:不对,本来想交给本科生来着。
我们对于“困难”有糟糕的直觉,因为我们忽略了进化论。对于人类来说,“看”这件事,很微不足道。他们认为可以为视觉编写程序,靠人力劳动将程序越写越长,在一条错误的道路上投入了数十亿美元。
然后我们有了像人类一样的神经网络模型,可以从图像例子中学习。它在某些方面不如人类那么完美,但正在改变利用到这项新技术的很多行业。就像《星际迷航》里的万能翻译器,翻译已经是一个被神经网络解决的问题。
最终很多问题都会解决,只是需要时间和大量的计算。
果壳:聊聊脑机接口吧。多年前你的一篇论文促成建立了一家公司 Neurovigil,使用无监督学习自动监测睡眠。今天哪些脑机接口领域的发展,最让你兴奋?
谢诺夫斯基:神经科学家现在使用人工智能,了解大脑以及如何与大脑交流。例如,针对癫痫患者可以通过放置侵入式电极定位癫痫在大脑中发作的区域。
大脑研究中的层级
我们现在可以在人不说话的情况下解码语言——我们目前可以看到大脑遣词造句时哪些部分正在被激活。因此我们通过使用 AI 工具解释翻译神经元中的活动模式并将其在大脑以外重建,转化为具体行为。比如,针对截瘫患者我们能从他的运动系统中获取记录,重建机械臂拾起东西的动作。类似地,我们正在取得进展,但是处于非常早期的阶段。
“super intelligence is a bad term”
果壳:你和 AI 合著了这本新书,尤其是让 AI 做了它擅长的事情,总结和提炼每一章的关键内容。今天无论是学习还是工作,人们都离不开 AI,你如何看待“由于过于依赖 AI 导致创作者主体身份被削弱的问题。”
谢诺夫斯基:我在每一章的末尾都用一个框,表明这是 ChatGPT 的评论,表明这不是我写的。对此,我非常开放。事实也是 AI 确实比我总结得好。因为我身处行业里,反而不是非常清楚读者想看什么,但是 AI 清楚。
至于 AI 的使用现状,我认为正在经历一个过渡期。一开始,人们会非常兴奋“哇,我可以用它来代替我的工作啦!”然后慢慢就会发现一些弊端。首先就是你如何声称作品归属于谁。
也有其他人将 AI 作为一个改进的工具。我实验室里的很多人不是英语母语者。他们在写完论文后,都会让 GPT 修改。GPT 的语法比我都好。
我想说的是,你使用方式不同,决定了它是否能成为一个有效工具。
从它问世到今天,包括纽约州在内很多地区视其为一种作弊方式。禁止学生使用它。这就是问题所在,你如何执行?你怎么辨认是学生还是 GPT 完成的?然后呢,给学生赶出学校吗?我认识一位老师,她十分清楚“打不过,就加入吧”这一点。她给学生布置完文章后,会打两个分,一个分给学生的提示词,一个分学生如何修正 AI 给出的结果,学生是不是检查了幻觉,是不是加入了自己的观点和叙述风格。
果壳:教学生使用日新月异的工具,也是教育的一部分。
谢诺夫斯基:没错,这才是未来,指导学生而非一味禁止。我认为,在我们学会如何正确使用之后,未来 AI 才和我们是合作伙伴关系。
上个世纪 70 年代,当计算器出现在学校时,有人反对说,学生计算器就不会算术了。往后 50 年呢?学生们还是得学算术,如果对数字大小、平均值等等这些没有概念的话,你用不好计算器的。
果壳:有人曾经问过你,AI 最有可能在哪个领域出现“killer app”?你的回答是“教育”,因为人工智能可以为每个人提供个人导师。大模型对齐依靠人类标准和反馈。尤其针对教育,如何避免 AI 导师带有人类标注者的平均偏见?
谢诺夫斯基:从某种意义上说,这已经发生了。大模型的数据库来自靠互联网接受的所有文本,它吸收了一切包括人类偏见。同时它在变得越来越好。
人类在将 AI 与“理想人类”做比较。为什么不与普通人比较呢?我们的目标当然是希望 AI 越来越好。世界各地的各种文化间彼此不同,你在哪里长大,说那里的方言,吸收那里的文化价值观和禁忌,你必须从模仿中学习,从父母、学校和社会的反馈中学习。这就是所谓的对齐对吧?这在每种文化中都是不同的。所以对于人类来说,就不会有一种普遍的对齐。
也许批评 AI 像不像理想人类这个要求太高了。我们需要努力让 AI 更加本地化,而不是用普遍性标准来衡量。
来源:36kr
|