因此,去年谢诺夫斯基(与 Haim Sompolinsky,Larry Abbott一起)获得The Brain Prize——被誉为“神经科学界的诺奖”。同时,他们对于大脑里一些活动的解读,也在为 AI 发展提供理论基础。
特伦斯·谢诺夫斯基在爬山
近期,果壳与特伦斯·谢诺夫斯基进行了一场对话。在他的新书《大语言模型》(ChatGPT and the Future of AI: The Deep Language Revolution)中,谢诺夫斯基凭借其深厚的学术积淀和前瞻视野,勾勒出人工智能,尤其是大语言模型从何处来,向何处去的宏观图景。
他自诩技术的乐观派,但也承认对人工智能的未来有太多难以预测。
以下对话经果壳编辑整理。
“当我意识到他们都在错误的方向上解释大模型是否智能”
过去几年,就连专业的认知科学家也难对“AI 真的理解它在说什么吗?”这样的疑问达成一致。谢诺夫斯基提出了一个很有意思的观点,每一次人类与 AI 的对话,都是一次 AI 对人类的“反向图灵测试”——AI 答得越好,说明对话者提问水平越高。人们之所以有这样的分歧,原因在于过去那套基于自然智能的传统认知框架已经不再适用。深度学习被称为“黑箱”。大语言模型本质上是高维空间中的新函数,推动基础数学的建立和突破,将深入对大模型智能以及自身大脑(这个复杂太多的系统)的理解。
果壳:说到写书的契机,你说在 ChatGPT 出来后,看到了很多“褒贬不一”的使用案例,这让你意识到“他们都在错误的方向寻找智能的痕迹”。你认为像现代物理学的基础奠定是将“力”等模糊概念转变为公式一样,描述 AI 是不是智能的前提是对高维空间的数学理解。那么,目前我们在这条正确的道路上进展如何了?
我们现在可以在人不说话的情况下解码语言——我们目前可以看到大脑遣词造句时哪些部分正在被激活。因此我们通过使用 AI 工具解释翻译神经元中的活动模式并将其在大脑以外重建,转化为具体行为。比如,针对截瘫患者我们能从他的运动系统中获取记录,重建机械臂拾起东西的动作。类似地,我们正在取得进展,但是处于非常早期的阶段。
“super intelligence is a bad term”
果壳:你和 AI 合著了这本新书,尤其是让 AI 做了它擅长的事情,总结和提炼每一章的关键内容。今天无论是学习还是工作,人们都离不开 AI,你如何看待“由于过于依赖 AI 导致创作者主体身份被削弱的问题。”
谢诺夫斯基:我在每一章的末尾都用一个框,表明这是 ChatGPT 的评论,表明这不是我写的。对此,我非常开放。事实也是 AI 确实比我总结得好。因为我身处行业里,反而不是非常清楚读者想看什么,但是 AI 清楚。
至于 AI 的使用现状,我认为正在经历一个过渡期。一开始,人们会非常兴奋“哇,我可以用它来代替我的工作啦!”然后慢慢就会发现一些弊端。首先就是你如何声称作品归属于谁。
也有其他人将 AI 作为一个改进的工具。我实验室里的很多人不是英语母语者。他们在写完论文后,都会让 GPT 修改。GPT 的语法比我都好。
我想说的是,你使用方式不同,决定了它是否能成为一个有效工具。
从它问世到今天,包括纽约州在内很多地区视其为一种作弊方式。禁止学生使用它。这就是问题所在,你如何执行?你怎么辨认是学生还是 GPT 完成的?然后呢,给学生赶出学校吗?我认识一位老师,她十分清楚“打不过,就加入吧”这一点。她给学生布置完文章后,会打两个分,一个分给学生的提示词,一个分学生如何修正 AI 给出的结果,学生是不是检查了幻觉,是不是加入了自己的观点和叙述风格。
果壳:教学生使用日新月异的工具,也是教育的一部分。
谢诺夫斯基:没错,这才是未来,指导学生而非一味禁止。我认为,在我们学会如何正确使用之后,未来 AI 才和我们是合作伙伴关系。
人类在将 AI 与“理想人类”做比较。为什么不与普通人比较呢?我们的目标当然是希望 AI 越来越好。世界各地的各种文化间彼此不同,你在哪里长大,说那里的方言,吸收那里的文化价值观和禁忌,你必须从模仿中学习,从父母、学校和社会的反馈中学习。这就是所谓的对齐对吧?这在每种文化中都是不同的。所以对于人类来说,就不会有一种普遍的对齐。
也许批评 AI 像不像理想人类这个要求太高了。我们需要努力让 AI 更加本地化,而不是用普遍性标准来衡量。