通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  中校

注册:2007-10-2915
跳转到指定楼层
1#
发表于 2025-8-5 15:12:25 |只看该作者 |倒序浏览

当地时间8月4日,多家非政府组织组建联盟发起公开信,要求OpenAI就计划中的公司重组提高透明度。这封由Encode、The Midas Project、EyesOnOpenAI及加州非营利、慈善和劳工组织联盟等共同推动的公开信,已获包括四位诺贝尔奖得主在内的众多知名人士及组织签署,信中集中表达了对OpenAI可能弱化非营利使命、优先追逐利润的深切担忧。

签署者包括四位诺贝尔奖得主,包括有“AI教父”之称的多伦多大学名誉教授杰弗里辛顿(Geoffrey Hinton,2024年物理学奖得主),罗马萨皮恩扎大学名誉教授乔治帕里西(Giorgio Parisi,2021年物理学奖得主),哈佛大学教授奥利弗哈特(Oliver Hart,2016年经济学奖得主),以及哈佛大学及波士顿大学名誉教授谢尔登李格拉肖(Sheldon Lee Glashow,1979年物理学奖得主)。

其他知名人士中,包括以太坊联合创始人维塔利克布特林(Vitalik Buterin),牛津大学人工智能伦理研究所研究员唐凤(Audrey Tang),哈佛大学法学院教授劳伦斯莱斯格(Lawrence Lessig),加州大学伯克利分校计算机科学教授、人类兼容人工智能中心创始人斯图尔特罗素(Stuart Russell),约翰霍普金斯大学自然哲学教授肖恩卡罗尔(Sean Carroll),麻省理工学院及未来生命研究所的马克斯泰格马克(Max Tegmark),以及加州大学圣地亚哥分校名誉教授唐诺曼(Don Norman)等人。

此外,公开信还包括多位已离职的前OpenAI员工:丹尼尔科科塔杰洛(Daniel Kokotajlo,2022-2024年任未来项目执行主任)、吉里什萨斯特里(Girish Sastry,2019-2024年任职)、格雷琴克鲁格(Gretchen Krueger,2019-2024年任职,哈佛大学伯克曼克莱因中心研究员)、海伦托纳(Helen Toner,2021-2023年任OpenAI董事会董事)、雅各布希尔顿(Jacob Hilton,2018-2023 年任对齐研究中心执行主任)、佩奇赫德利(Page Hedley,2017-2018年任职)、罗茜坎贝尔(Rosie Campbell,2021-2024年任职)、斯科特阿伦森(Scott Aaronson,2022-2024年任职)和史蒂文阿德勒(Steven Adler,2020-2024年任职)。

该公开信指控,OpenAI拟转型为公共利益公司,这一举措可能削弱利润上限和非营利监督等保障措施,或将巨额价值从公众转移到私人投资者手中。OpenAI创办之初是一家非营利组织,其使命是确保通用人工智能造福全人类。

OpenAI重组引发信任危机

2019年,OpenAI创建营利性子公司,形成混合结构,设有非营利监督、投资者利润上限、多数独立董事会、使命优先等保障措施,确保商业运营受非营利使命约束。正因如此,凭借特殊的成立背景、法律义务及混合运营结构,OpenAI对公众负有独特的透明义务,公众有权知晓其运营义务、决策过程及重组中义务的变化。

然而,OpenAI存在未能履行透明义务的情况。例如,其悄无声息地变更核心承诺,将投资者100倍回报上限从2025年起每年增加20%;通过严格保密协议压制内部声音,阻止内部人员警告公众;违背安全承诺,未按承诺分配计算资源给安全团队、掩盖安全漏洞、仓促进行安全评估等;还存在关键安全评估文档延迟或省略发布等缺失安全文档的问题。公开信指出:“OpenAI缺乏透明度可能损害其诚信。”

近期的重组计划进一步加剧了透明度问题。OpenAI试图将法律实体从限利/非营利混合结构转变为更常规的营利性公司,这可能削弱其优先公众利益的法律义务,且整个过程在闭门进行。这种行为引发了多方面的危机:非营利董事会对OpenAI的控制程度不明;投资者回报的利润上限可能取消,甚至追溯性取消现有投资者的上限;通用人工智能(AGI)的治理主体及用途未明确;OpenAI宪章及“停止并协助”承诺能否继续遵守未知;非营利使命的法律优先级存疑;董事会独立性及对现有投资者的激励措施未披露。

为此,联盟提出了八个关键问题,要求OpenAI澄清是否会继续优先考虑慈善使命、维持非营利控制,并公开运营协议及超额利润估算。OpenAI应提供重组详细文件,澄清如何保留非营利控制和使命优先等问题,并建立关于治理决策、安全协议等问题的定期透明报告机制。

随着OpenAI在AI领域的领先地位,其治理是否符合公众承诺正面临日益增长的压力。联盟认为,在AGI对社会影响重大的背景下,公众有权了解OpenAI的决策将如何塑造未来。这一切至关重要,因为其先例将影响全球AI发展,若曾经的一家服务人类的组织都在秘密运作,公众问责便无意义。OpenAI需证明其对透明度和安全的承诺并非空话,让公众了解其承诺的法律基础及变更情况。截至目前,OpenAI尚未公开回应相关指控和要求。

以下为公开信全文:

致OpenAI:

我们作为OpenAI慈善使命的法定受益人,特此致信表达我们的关切。

OpenAI目前在封闭的会议室中既是谈判的发起方又是决策方,代表人类达成协议,却不让我们看到合同内容、了解条款或对决定表示同意。

在OpenAI创办之初,曾承诺确保AGI造福公众的法律义务。这一使命被写入OpenAI的创始文件,并通过激发公众的信任来筹集资金和吸引人才。

OpenAI当前的结构包含重要的保障措施,以确保开发的技术服务于人类,而不仅仅是追求利润。这些措施包括对投资者的利润上限、非营利组织对商业运营的管理,以及明确优先考虑慈善使命的承诺。然而,OpenAI提议的重组似乎削弱或取消了这些保护措施,公众有权了解细节。

我们呼吁OpenAI至少提供基本的透明度,说明这一转变将如何影响OpenAI对公众的法律承诺。具体来说,我们请求OpenAI清晰回答以下问题:

——OpenAI会继续优先考虑其慈善使命而非利润的法律义务吗?

——OpenAI的非营利组织会继续完全控制OpenAI的管理吗?

——OpenAI的非营利董事会有哪些人将在新结构中获得股权?

——OpenAI会继续维持利润上限,并遵守将超额利润用于造福人类的承诺吗?

——OpenAI是否计划在开发AGI后将其商业化,而不是遵守保留非营利组织控制AGI以造福全人类的承诺?

——OpenAI会重新承诺遵守其宪章中的原则,包括在另一家负责任的组织接近AGI时停止竞争并提供协助的承诺吗?

——OpenAI会通过发布以下内容揭示重组对公众的利害关系吗:

1.营利性子公司OpenAI Global, LLC的运营协议,该协议规定了OpenAI对慈善使命的义务及非营利组织的权力。

2.所有关于超额利润潜在价值的估算,包括已与投资者分享的任何估算。

——OpenAI是否会披露其向现有投资者提供的任何激励措施(例如,追溯性取消利润上限,或其他财务奖励),以换取支持重组?

我们相信OpenAI的回应将有助于恢复信任,并确定OpenAI是否仍致力于其创始原则,还是优先考虑私人利益而非公众使命。

事关重大。OpenAI关于治理、利润分配和问责制的决定不仅将塑造OpenAI的未来,还将影响整个社会的未来。OpenAI首席执行官山姆·奥特曼(Sam Altman)曾表示,OpenAI希望对人类负责。我们本着这一精神分享这封信,履行问责。

我们期待你和公司的回应,并希望共同努力,确保AGI真正惠及所有人。


来源:36kr

举报本楼

本帖有 3 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2025-8-6 05:47 , Processed in 0.135413 second(s), 19 queries , Gzip On.

Copyright © 1999-2025 C114 All Rights Reserved

Discuz Licensed

回顶部