通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  上校

注册:2010-4-2818
跳转到指定楼层
1#
发表于 2025-12-17 11:04:50 |只看该作者 |倒序浏览

本文根据柏林赫尔蒂学院伦理与技术教授乔安娜·布赖森(Joanna Bryson)在腾讯研究院 AI&Society 海外专家面对面系列对话中的分享整理而成,分享主题为“AI只是可控工具”。

本文为腾讯研究院 AI&society 海外名家对话系列第三篇

01

问:自ChatGPT发布以来,生成式AI技术发展迅速。这些技术对社会、经济和科学研究的主要影响是什么?

Joanna Bryson: 对于科学研究,人工智能在某种程度上加速了科研进程,但它本质上只是一个工具。换句话说,它和我们做其他工作的工具没有太大区别,不必过于强调它的特殊性。

在社会层面,经济和政治是两大重要方面。从经济学角度来看,引入自动化可能带来两种效应:一种是替代效应,即减少对劳动力的需求;另一种是增强效应,即通过提高生产力来创造更多就业。我认为关于这个主题最好的论文来自詹姆斯·贝森 ( Jam es B essen)。Oxford的研究显示,英国目前并未显现出明显的替代效应,反而在高生产力领域看到了更多的就业机会。然而,考虑到创建大型语言模型的高成本,其经济效益是否能覆盖这些投入仍然不明确。

在政治方面,经济衰退及其引发的不安全感可能导致政治极化,尤其是在社交媒体和人工智能的作用下,针对性信息传播成为可能。经济安全感的丧失,尤其是意外的经济下滑 (如失业、负债) ,常常会导致个体的身份认同危机,进而引发群体认同需求,甚至有可能转向极端行为。在经济不稳定时期,这种易受操控的心理容易通过社交媒体被进一步放大。

02

问:如何看待AGI?你认为AGI的发展是否会因大模型而加速,或者目前对AI的热情可能存在泡沫化风险?

Joanna Bryson: 我认为通用人工智能 (AGI) 的概念在将政府和公司视为一种形式的人工智能上有意义。政府和公司都是极为复杂的组织,任何一个人都无法完全理解和掌控其中所有的操作和决策,它们通过技术和合作等方式放大了人类的智能。从这个角度来看,AGI是一个我们需要解决的问题。人工智能的透明度和政府的透明度非常相似,人工智能真正的问题是如何管理和监管这些系统,确保它们的透明度和可问责。然而,我注意到一些科技公司对员工的激励政策建立在AI成果上,而不是建立在理解AI系统上,它们声称不可能知道人工智能是如何运作的。如果我们只是关注AI的成果或结果,而不去探讨它是如何运作的,或者如何保持对这些技术的控制,那将是非常危险的。从这个角度来看,AGI叙事实际上是在将责任推给一个无法被问责的存在,而不是让人类或组织承担责任。

此外,AGI与权力和市场竞争紧密相关。一些科技公司为了成为行业的“第一”,正在削弱可能阻止市场集中的因素。用电影《高地人》(Highlander)的比喻来说,这些科技公司不想让旅程结束,因为害怕自己的公司不是最终成功的那一个。这种推动AGI叙事的行为,可能正是市场过热的一个信号。所以需要关注潜在的市场控制问题。此外,AI泡沫也是一个问题,只有通过良好的投资监管,才能避免这一泡沫。

对于AGI的加速发展,我认为我们更多的是在讨论可控的AI与不可控的AI之间的差异。这是一个设计选择。透明度和问责制是AI发展的关键,而欧盟的《人工智能法案》就很好地回应了这一点,它明确要求所有使用和部署AI的机构必须对技术负责,并且确保这些技术能够被有效控制。总之,我们需要确保AI产品不仅能够正常工作,而且要有一个清晰的责任链条,确保产品背后有明确的控制者。

03

问:人工智能的发展显著影响着各个领域的就业,你如何看待AI对人类工作的影响,是会取代更多基础性工作,还是会创造更多新的工作岗位?为了应对这些变化,教育、社会保障等社会系统应该做出哪些调整?

Joanna Bryson: 当人们讨论AI可能导致失业时,往往存在误解,认为工作是人与人之间的简单关系。但实际上,工作的本质在于权力的集中。随着自动化的普及,虽然一些工作会被替代,但工作本身代表了生产力、资源和权力的控制。企业通过自动化能够用更少的人完成更多的工作,但与此同时,它们也在集中权力,试图通过雇佣更多高生产力的员工来提升自己的控制力。

此外,经济转型过程中,技能的重新估值是一个大问题。一些人可能会花费几十年时间学习某种技能,但随着技术进步,这些技能的价值会降低。同时,新的技术也会创造出新的工作机会,都可能要求掌握新的技能,我们需要帮助那些能适应新技术的人得到更好的支持。

因此,教育体系和社会保障体系需要进行改革,以应对AI带来的这些变革。尤其是在技术快速发展的时代,我们必须帮助人们找到新的工作方向,并帮助他们获得新技能。一些北欧国家已经成功实施了这种政策,政府选择未来产业的方向,并通过劳动力再培训帮助人们适应新的工作环境。针对失业问题,社会保障体系应该提供更多的支持,确保不让那些因为失业而感到极度不安的人变得极端化或暴力,失去身份认同对于个体来说是毁灭性的,因此我们需要帮助每个人都能在经济转型过程中找到适合自己的位置。

04

问:如果未来大部分工作都由人工智能完成,那么人类应该如何重新定义工作的意义,并在这样的时代找到生存的价值?

Joanna Bryson: 什么是工作?这是一个非常有趣的问题。事实上,COVID期间,很多人因为疫情无法工作,但他们的生活依然能正常运转。所以,如果我们设想一个未来,在这个世界里,很多工作消失了,仅有相对少数的人提供必要的社会保障和系统支持,维持社会的可持续性,那么工作本身的定义可能会发生变化。

届时,工作将不仅仅是为了经济利益,更多的是为了社会联系、个人认同和自我价值的实现。例如,餐饮业、美容理发、艺术创作等行业不仅仅为生存提供支持,更为人们提供情感交流和自我表达的空间。比如,听音乐对于很多人来说并不仅仅是娱乐,它还帮助人们找到志同道合的人,与他们分享兴趣和想法,形成身份认同。尽管科技进步可能会改变一些传统工作岗位,但人与人之间的联系和对彼此福祉的关心将是未来工作的核心。

此外,某些工作涉及到社会生存的核心功能,比如保卫国家的边界、应对气候危机、处理自然灾害等,这些是任何社会都无法回避的责任。

05

问:当前,AI风险备受关注,包括AI产生自主意识的风险、AI失控的风险等,如何看待这些问题?你是否认为AI会像人类一样具有自主意识?

Joanna Bryson: 我认为当前AI不会具备“意识”。很多人错误地将“意识”仅仅理解为自主记忆的能力,这一点AI已经可以轻易做到,但实际上,当我们讨论“意识”时,更多的是在谈论道德主体 (Moral Agency) 或道德受体 (Moral Patient) 的问题。在我的文章《Do We Collaborate With What We Design》中,我观察到“协作”和“同事”等词汇常被用来描述人机互动,但是这种类人化 (拟人化) 隐喻是不恰当的,机器与人类之间存在异质性关系,即AI在实现目标的手段上可能具有一定程度的独立性,但目标本身始终由人类主体选择。真正的协作涉及互补领域的专业知识、共同规划、决策和行动,以及共同创造原始框架。尽管AI可以为人类提供帮助,但其与人类之间的互动缺乏真正的共同规划和决策。

因此,AGI永远不会是一个完全自主决策的系统,它始终是由人类设计和控制的工具,即使AGI可能超过人类的能力。我们现在已经通过计算器等工具做到了超越人类的计算能力,但这并不意味着计算器拥有决策权,而是背后的人或机构在做决策。又比如,当国王抛硬币决定某个问题时,虽然硬币决定了结果,但决策的责任依然在国王。同样,AI做出的决策也始终由人类设定和控制。换句话说,AGI的本质仍然是工具,决策权始终在人类手中。我们真正要担心的是AI系统是否能够保持透明和可控。如果一个系统没有明确的控制和责任,那么它就不符合道德和法律要求,我们不能允许这样的系统进入市场。因此必须确保AI系统可以追溯和监管。

06

问:如何看待人工智能的责任问题?AI治理的重点是什么?

Joanna Bryson: 人工智能的产品责任链条是一个非常关键的问题。正如欧盟AI法案所指出的,必须明确谁对AI产品负有责任。我们需要确保,一旦发生问题,能够清楚地知道责任所在。责任模糊化现象与美国的诉讼文化相关,一些技术公司可能通过避免明确责任链条的方式来减少被追责的风险。但对于开发者来说,只有充分理解和掌控技术,才能维护和改进系统。而如果一个AI系统没有清晰的责任链条,它不仅会难以得到维护和持续改进,还可能变成类似空壳公司一样的灾难,没有人能阻止其做错事,这种情况显然是不可接受的。尽管可以想象某些系统可能失控,但没有责任追溯的AGI系统是无法被接受的。因此,对于AI产品,需要确保在欧盟市场销售的AI产品能够清晰追溯其运作,特别是涉及数据使用和商业盈利时。

AI和相关技术完全可以用来提高透明度。就像人类通过语言和大脑来理解世界一样,我们可以利用AI来提高系统的可理解性,使其更加透明和可控。这并不是要求完美的理解。就像你不会要求银行告诉你某个员工脑海里在想什么,你应该要求银行提供谁在什么时间访问了某个账户的信息。同样,我们需要了解的是AI系统的开发者是谁,谁对某个AI产品的发布签字确认,尤其当出现问题时,我们需要知道AI产品背后的责任人,而不是去理解神经网络中某个神经元或权重的运作,这样我们才能发现问题并加以修复。在AI的治理中,监管不仅仅是关于如何让AI系统自身变得透明,更多的是关于如何创建一个监管框架,确保产品开发者能够对其技术负责,并对其可能带来的后果有清晰的理解。

我认为如果前沿AI实验室真的开发出AGI,政府确实有可能通过类似“防火墙”的措施进行监管,以控制技术的过度集中和滥用。更紧迫的问题在于美国是否开始对其国内的拥有过多权力的公司施加有效的监管。如果美国无法做到这一点,那么其他国家能做些什么呢?这也是欧盟的数字市场法案提出的重要问题,实际操作中可能需要更多国家之间的合作。

07

问:你如何看待“全民基本收入(UBI)”的理念?这是AI时代的可行方案吗?

Joanna Bryson: 我曾是全民基本收入 (UBI) 的支持者,但我开始对这个概念持保留态度。在美国,很多提倡UBI的人持有自由主义立场,他们认为福利国家的支出过高,干脆将钱直接发给每个人。

我认为某种形式的收入再分配很重要。实际上,很多实验表明,当人们获得足够的资金时,他们确实会偿还债务,很多人的经济状况得到了改善,但也有一些人仍然面临种种问题。社会中总会有一些人面临困境,尤其是在社会发生变化时,这种困境可能会加剧。但是,单纯给予每个人相同数量的金钱可能并不能解决根本问题。我们确实看到了在COVID期间,直接发放现金帮助人们解决了一些问题,这在短期内是可行的,但长期来说,解决问题的方式可能更需要结构性支持。

因此,我倾向于认为UBI只是一个过于简化的解决方案,我们需要更系统的措施来解决财富不平等问题。例如,公共教育可以平衡社会差距,减少家庭背景对个人发展的影响。除了直接的现金补助,我们还需要设立一些激励机制,确保人们有动力工作,并且不让社会经济变得过于平等,因为过度平等会导致经济的衰退。根据经济学研究,最理想的社会经济结构是一个适度的基尼系数,通常在0.27左右,过多的贫富差距会导致社会不稳定,但也不能实现极端的均等分配。适度的财富差距能够激发社会活力,但当差距过大时,社会就会陷入暴力和混乱。

08

问:欧盟在AI治理方面走在前列,特别是欧盟的AI法案,您认为它对AI领域的影响如何?在实施过程中可能会遇到哪些挑战?

Joanna Bryson: 欧盟的AI法案对AI领域的影响是深远且具有开创性的。根据我的文章《Human Experience and AI Regulation: What European Union Law Brings to Digital Technology Ethics》,影响主要体现在以下几个方面:首先,明确AI作为产品的法律地位,这意味着企业需要进行尽职调查,避免不良实践,并采用最佳实践。对于“高风险”AI系统,例如那些可能用于教育、医疗或金融服务决策的系统,需要严格的记录保存。其次,AI法案明确禁止某些与欧盟隐私和基本权利不兼容的AI服务,例如禁止建立记录每个人位置的数据库或“社会信用评分”系统。最后,明确了所有AI系统必须清晰标识其AI性质,防止用户误以为与人类交互。

我认为AI法案主要的挑战是执行,尤其是在当前全球政治环境下。AI法案本身很强大,尤其是考虑到它对AI技术透明度和问责制的强调。尽管如此,执行和监管仍然面临很多挑战,尤其是在跨国监管和全球统一标准方面。

09

问:您认为未来AI发展的核心原则和价值观应该是什么?

Joanna Bryson: AI发展的核心原则应包括产品责任、透明度以及持续改进的能力。我们需要认识到,AI作为一个产品,必须遵循责任链条,开发者必须对其设计和部署负责。此外,AI的透明度至关重要,以便于其能够被监督和改善。

另一个关键问题是如何有效监管大型AI平台,特别是在市场集中度问题上。我们需要确保AI像全球定位系统 (GPS) 那样得到合理监管,避免技术过度集中,以便保持公平竞争。

10

问:除了上述提到的问题,您认为AI领域还有哪些被忽视的重要话题或潜在风险值得更深入的探讨?

Joanna Bryson: 我认为目前被忽视的重要问题之一是跨国科技公司的跨国监管。美国作为反垄断法的发源地,如今却放松了对本国科技巨头的监管。与此同时,欧盟通过跨国合作和共同的监管框架,成功推动了对科技巨头的监管。我认为,这种合作的动力部分源于它们是邻国,没有人希望法国和德国再次发生战争。这种避免冲突、通过谈判解决经济和权力再分配问题的机制,正是我们需要在全球范围内推广的。

此外,跨国公司在全球范围内的影响力需要更多关注,尤其是在数据使用和广告行业中。比如,谷歌不再是一个简单的搜索公司,它更像是一家全球广告公司,主导了全球广告市场。这不仅对新闻业等传统公共利益领域造成了冲击,也对社会的透明度和问责制造成了威胁。我们需要重新思考广告作为一种公用事业的角色,确保它能够支持公共利益,而不是仅仅为少数公司带来巨额利润。如何将这些科技巨头纳入合适的监管框架,是我们当前面临的重大问题。

最后,人工智能的监管不应被视为一种自然现象,而应像核技术一样,被视为一种可控的工程产品。我们需要明确的监督机制和再分配视角,确保人工智能的发展能够真正符合人类的利益!


来源:36kr

举报本楼

您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2025-12-17 20:25 , Processed in 0.222425 second(s), 16 queries , Gzip On.

Copyright © 1999-2025 C114 All Rights Reserved

Discuz Licensed

回顶部