AI是否会产生「意识」是科技界最热议的话题之一。微软AI CEO Mustafa Suleyman近日在一次对话中表示,未来18个月可能出现「看似有意识」的AI,他主张应对AI自主性坚持「预防原则」。
AI可能产生意识吗?
如果可能,大概会在什么时间?
微软AI CEO Mustafa Suleyman认为有可能诞生「看似有意识的AI」,而且最快可能在18个月内出现:
未来5年很有可能,18个月内也有一定可能性。
在近日的一次对话中,主持人Sinead Bovell问「看似有意识」的AI可能在什么时候出现,Suleyman给出了如上回答。
Sinead Bovell(左)与Mustafa Suleyman(右)在《I've Got Questions》栏目对话中
Suleyman曾多次谈及AI意识的话题。
虽然他认为目前没有任何可靠证据表明AI真正具有意识、痛苦、主观体验等特性,但他也认为「Seemingly Conscious AI(看似有意识的AI)」即将到来,而且对此采取「预防原则」是正确的。
Suleyman博客文章《看似有意识的AI》
AI意识与AI人格工程
目前,包括OpenAI、Anthropic、Google DeepMind在内的全球顶尖AI实验室,都在积极推动AI人格的相关研究:
如AI的模范行为规范、可控人格、价值对齐等。
通过对各大实验室和开源社区的研究,Suleyman列举了以下几种AI能力可能会让AI看起来更像有意识:
连贯记忆:必须有一致而连贯的记忆,能真正引用自己过去的经历,这是必要的第一步。
共情交流:能用自然语言以共情的方式交流。
主观体验:能提到自己的主观体验,并把这种体验融入日常对话中形成一种持续的体验流。
持续互动:不再只是一次性问答,而是像人类交流一样持续互动,同时有源源不断的感知流入。
虽然列出了这些AI意识的关键特征,但Suleyman并不赞在对AI设计时,过于强化和模拟这些「意识体验」的特征:
「这样既没必要,也很危险。」
关于AI,Suleyman有一个核心原则:
AI的定位是人类的伙伴,它的价值是帮助人类变得更聪明、更高效,而不是要让AI变得更像我们。
如何划定AI和人类的界限?Suleyman提出了两个原则:
首先,AI至少不应当声称自己有意识、有人格。比如,模型不应该说自己会「受苦」。
AI没有生物的「痛觉网络」,所以尽管AI可以逼真地模仿人类,但它的底层并没有多巴胺、血清素,并不会不断积累体验。
如果过于强化模拟人类意识,只会增加风险和复杂性。
第二,不要给AI设计复杂的「动机」。
Suleyman一直在呼吁构建一个积极的AI愿景,以支持人类的本质与价值。
AI的动机只应当是服务人类,而不是让用户认为它自己也有需求。「如果为AI设计欲望或意志,同样只会增加风险,这将与个人、社会发生冲突。」
Sinead Bovell:几亿年来进化让我们习惯把意识归因于任何看起来像有意识的东西。如果让你给出一个时间点,你认为什么时候人们会把意识归因于这些看似有意识的AI系统?
Suleyman:未来5年很可能,18个月也有一定可能性。
Suleyman补充道,要实现这一点并不需要算法上的突破,这是一个工程设计上的问题。
当AI 说「我」的时候,到底是什么意思?
Sinead Bovell:当AI说「我」的时候,到底是什么意思?
Bovell问到了一个有关AI意识的核心问题,这个问题让Suleyman谈起他此前的创业经历。
在ChatGPT推出之前,Suleyman曾在谷歌做聊天机器人LaMDA。
后来,Suleyman离开谷歌后创办了Inflection,做了一个叫Pi(Personal Intelligence)的AI产品。
在这个产品的设计上,Suleyman想要尽可能诚实地告诉用户AI与人类的边界——它是什么,不是什么。
因此他们做了「无性别」的声音,但用户却认为这太奇怪,他们只是想要让声音听起来更熟悉。
这也让Suleyman意识到「AI人格」的重要性。
于是他开始做「人格工程」,想要设计出这种「模拟人格」的体验。
在这个过程中,如何明确AI的边界和限制才是真正的挑战。
「AI的存在是为了支持和帮助你,而不是把你拉进某种平行宇宙」,Suleyman说。
近段时间以来,ChatGPT等AI工具的使用也带来了诸如「AI精神病」,以及离婚、失业等相关社会问题。
反推到AI设计层面,到底出现了哪些问题?
Suleyman认为AI工具也和药物一样,都有自己的副作用:
不管怎样调整AI的性格,它总会有副作用,你只能选择其中一种风险。
正如GPT-5刚上线时,曾被吐槽不像GPT-4o那样有更有「人格温度」,最后OpenAI不得不为GPT-5更新性格,使其感觉比当前的性格更温暖。
这说明用户对于模型人格产生的「依恋感」,已经成为设计AI产品必须重视的问题。
正如Suleyman观察到的那样,大家慢慢意识到让模型更温和、更迎合人类,这样才更安全。
什么是理想的「AI伴侣」?
几个月前,Suleyman在《时代》杂志上写了一篇关于AI伴侣的评论文章, 谈到AI伴侣如何改变我们的生活。
https://time.com/7204530/ai-companions/
在文中,Suleyman将AI伴侣定义为一种助手、朋友或者支持者,它能够以你喜欢的语言和方式,传递给你最优秀的知识,帮你学习、成长、改变,真正支持你的生活。
这也是他致力于AI的一个动力:
用技术向更多人提供「耐心和善意」。
Suleyman谈到AI最大的用途之一就是陪伴与心理疗愈。
「AI伴侣可以像一个教授、律师、医生、好朋友甚至心理治疗师,24小时待在你口袋里,随时响应你、支持你。」
当然,这样看似全能的AI伴侣发挥作用的前提,是要设立与人类清晰的边界,建立信任感、确保安全距离。
推动AI伴侣融入人类生活的不是一个突然到来的「奇点」,而是自然语言交互模式的普及。
以ChatGPT为代表的AI工具推动AI伴侣逐渐融入我们日常使用的各种平台工具,最终成为人类的「第二天性」。
在Suleyman的定义中,AI伴侣不止是「陪伴」工具,还可以成为生产力工具,比如充当他的研究搭档:
「不止是情感支持,而是实打实的效率提升。」
提到AI伴侣,大家还会比较关注「AI 女朋友」和「两性关系」话题。
Suleyman谈到在这个问题上,微软的态度上是十分保守的。
如果用户在聊天时提到了「我喜欢」这样的暧昧词汇,系统就会立刻警觉起来。而这也正是「安全人格」设计的体现,是「信任」的核心:
「信任就是建立边界。」
我们早已是「增强人类」了
AI将成为下一代职场工具,AI智能体、AI伴侣将成为每个人职业身份的延伸。
谈到这里,Suleyman使用了一个非常形象的比喻:
它就像水或粘土那样,能贴合你的形状、补你所短。
AI可以帮助我们完成不擅长或不喜欢做的事,让我们可以腾出空间专注于自己真正热爱的领域。
Suleyman表示,AI可以围绕人类的强项和弱点进行适配,未来三四年内将成为人类的「第二大脑」。
这个「第二大脑」可以与人类共生,可以储存人类的想法、经历等,还能调用人类历史上的所有知识。
所有这些加持,将使人类变成一个「迷你超级个体」,从而具备非凡的能力。
这正是Suleyman所描绘的「增强人类」的图景,最终也将带来工作场景的颠覆性变化。
比如,在办公室AI将能理解你所有的工作文件、同事交流、组织结构,这将为人类的工作,尤其是白领的工作带来革命性的改变。
处于这样一个划时代技术落地的转折点,Suleyman认为不要带有先入为主的观念,而是要亲自动手去体验AI,这样才能真正理解它,而不是预先带着偏见去评判。
「无论是对AI抱持卡通式恐惧,还是盲目乐观,都容易忽视它的复杂性和微妙之处。」
正如印刷术的出现,最初只是为了印制更多的《圣 经》,最终却催生了一个全新的世界。
AI的真正影响将远远超出我们今天的想象。
谈到AI的变革,Suleyman认为主导者并不是科技圈的人,他们只是在开发通用工具,而真正去定义这些工具的边界、限制和安全护栏的,是每一个使用者。
人类对AI的探索,正走在一条非常狭窄且充满变数的道路上,「稍不留神就会走偏」,Suleyman说。
参考资料:https://x.com/slow_developer/status/1972340525249536444%20%20%20
https://www.youtube.com/watch?v=kKi9-hxKxVU%20%20
https://mustafa-suleyman.ai/seemingly-conscious-ai-is-coming?utm_source=chatgpt.com
来源:36kr
|