通信人家园
标题:
OpenAI引信任危机:AI教父与诺奖得主等联名,要求回应八大问题
[查看完整版帖子]
[打印本页]
时间:
2025-8-5 15:12
作者:
see122
标题:
OpenAI引信任危机:AI教父与诺奖得主等联名,要求回应八大问题
当地时间8月4日,多家非政府组织组建联盟发起公开信,要求OpenAI就计划中的公司重组提高透明度。
这封由Encode、The Midas Project、EyesOnOpenAI及加州非营利、慈善和劳工组织联盟等共同推动的公开信,已获包括四位诺贝尔奖得主在内的众多知名人士及组织签署
,信中集中表达了对OpenAI可能弱化非营利使命、优先追逐利润的深切担忧。
签署者包括四位诺贝尔奖得主,包括有“AI教父”之称的多伦多大学名誉教授杰弗里辛顿(Geoffrey Hinton,2024年物理学奖得主),罗马萨皮恩扎大学名誉教授乔治帕里西(Giorgio Parisi,2021年物理学奖得主),哈佛大学教授奥利弗哈特(Oliver Hart,2016年经济学奖得主),以及哈佛大学及波士顿大学名誉教授谢尔登李格拉肖(Sheldon Lee Glashow,1979年物理学奖得主)。
其他知名人士中,包括以太坊联合创始人维塔利克布特林(Vitalik Buterin),牛津大学人工智能伦理研究所研究员唐凤(Audrey Tang),哈佛大学法学院教授劳伦斯莱斯格(Lawrence Lessig),加州大学伯克利分校计算机科学教授、人类兼容人工智能中心创始人斯图尔特罗素(Stuart Russell),约翰霍普金斯大学自然哲学教授肖恩卡罗尔(Sean Carroll),麻省理工学院及未来生命研究所的马克斯泰格马克(Max Tegmark),以及加州大学圣地亚哥分校名誉教授唐诺曼(Don Norman)等人。
此外,公开信还包括多位已离职的前OpenAI员工:丹尼尔科科塔杰洛(Daniel Kokotajlo,2022-2024年任未来项目执行主任)、吉里什萨斯特里(Girish Sastry,2019-2024年任职)、格雷琴克鲁格(Gretchen Krueger,2019-2024年任职,哈佛大学伯克曼克莱因中心研究员)、海伦托纳(Helen Toner,2021-2023年任OpenAI董事会董事)、雅各布希尔顿(Jacob Hilton,2018-2023 年任对齐研究中心执行主任)、佩奇赫德利(Page Hedley,2017-2018年任职)、罗茜坎贝尔(Rosie Campbell,2021-2024年任职)、斯科特阿伦森(Scott Aaronson,2022-2024年任职)和史蒂文阿德勒(Steven Adler,2020-2024年任职)。
该公开信指控,OpenAI拟转型为公共利益公司,这一举措可能削弱利润上限和非营利监督等保障措施,或将巨额价值从公众转移到私人投资者手中。OpenAI创办之初是一家非营利组织,其使命是确保通用人工智能造福全人类。
OpenAI重组引发信任危机
2019年,OpenAI创建营利性子公司,形成混合结构,设有非营利监督、投资者利润上限、多数独立董事会、使命优先等保障措施,确保商业运营受非营利使命约束。正因如此,凭借特殊的成立背景、法律义务及混合运营结构,OpenAI对公众负有独特的透明义务,公众有权知晓其运营义务、决策过程及重组中义务的变化。
然而,OpenAI存在未能履行透明义务的情况。例如,其悄无声息地变更核心承诺,将投资者100倍回报上限从2025年起每年增加20%;通过严格保密协议压制内部声音,阻止内部人员警告公众;违背安全承诺,未按承诺分配计算资源给安全团队、掩盖安全漏洞、仓促进行安全评估等;还存在关键安全评估文档延迟或省略发布等缺失安全文档的问题。
公开信指出:“OpenAI缺乏透明度可能损害其诚信。”
近期的重组计划进一步加剧了透明度问题。OpenAI试图将法律实体从限利/非营利混合结构转变为更常规的营利性公司,这可能削弱其优先公众利益的法律义务,且整个过程在闭门进行。这种行为引发了多方面的危机:非营利董事会对OpenAI的控制程度不明;投资者回报的利润上限可能取消,甚至追溯性取消现有投资者的上限;通用人工智能(AGI)的治理主体及用途未明确;OpenAI宪章及“停止并协助”承诺能否继续遵守未知;非营利使命的法律优先级存疑;董事会独立性及对现有投资者的激励措施未披露。
为此,联盟提出了八个关键问题,要求OpenAI澄清是否会继续优先考虑慈善使命、维持非营利控制,并公开运营协议及超额利润估算。OpenAI应提供重组详细文件,澄清如何保留非营利控制和使命优先等问题,并建立关于治理决策、安全协议等问题的定期透明报告机制。
随着OpenAI在AI领域的领先地位,其治理是否符合公众承诺正面临日益增长的压力。联盟认为,在AGI对社会影响重大的背景下,公众有权了解OpenAI的决策将如何塑造未来。这一切至关重要,因为其先例将影响全球AI发展,若曾经的一家服务人类的组织都在秘密运作,公众问责便无意义。OpenAI需证明其对透明度和安全的承诺并非空话,让公众了解其承诺的法律基础及变更情况。截至目前,OpenAI尚未公开回应相关指控和要求。
以下为公开信全文:
致OpenAI:
我们作为OpenAI慈善使命的法定受益人,特此致信表达我们的关切。
OpenAI目前在封闭的会议室中既是谈判的发起方又是决策方,代表人类达成协议,却不让我们看到合同内容、了解条款或对决定表示同意。
在OpenAI创办之初,曾承诺确保AGI造福公众的法律义务。这一使命被写入OpenAI的创始文件,并通过激发公众的信任来筹集资金和吸引人才。
OpenAI当前的结构包含重要的保障措施,以确保开发的技术服务于人类,而不仅仅是追求利润。这些措施包括对投资者的利润上限、非营利组织对商业运营的管理,以及明确优先考虑慈善使命的承诺。然而,OpenAI提议的重组似乎削弱或取消了这些保护措施,公众有权了解细节。
我们呼吁OpenAI至少提供基本的透明度,说明这一转变将如何影响OpenAI对公众的法律承诺。具体来说,我们请求OpenAI清晰回答以下问题:
——OpenAI会继续优先考虑其慈善使命而非利润的法律义务吗?
——OpenAI的非营利组织会继续完全控制OpenAI的管理吗?
——OpenAI的非营利董事会有哪些人将在新结构中获得股权?
——OpenAI会继续维持利润上限,并遵守将超额利润用于造福人类的承诺吗?
——OpenAI是否计划在开发AGI后将其商业化,而不是遵守保留非营利组织控制AGI以造福全人类的承诺?
——OpenAI会重新承诺遵守其宪章中的原则,包括在另一家负责任的组织接近AGI时停止竞争并提供协助的承诺吗?
——OpenAI会通过发布以下内容揭示重组对公众的利害关系吗:
1.营利性子公司OpenAI Global, LLC的运营协议,该协议规定了OpenAI对慈善使命的义务及非营利组织的权力。
2.所有关于超额利润潜在价值的估算,包括已与投资者分享的任何估算。
——OpenAI是否会披露其向现有投资者提供的任何激励措施(例如,追溯性取消利润上限,或其他财务奖励),以换取支持重组?
我们相信OpenAI的回应将有助于恢复信任,并确定OpenAI是否仍致力于其创始原则,还是优先考虑私人利益而非公众使命。
事关重大。OpenAI关于治理、利润分配和问责制的决定不仅将塑造OpenAI的未来,还将影响整个社会的未来。OpenAI首席执行官山姆·奥特曼(Sam Altman)曾表示,OpenAI希望对人类负责。我们本着这一精神分享这封信,履行问责。
我们期待你和公司的回应,并希望共同努力,确保AGI真正惠及所有人。
来源:36kr
时间:
2025-8-5 18:07
作者:
laozhu
说的对,OpenAI关于治理、利润分配和问责制的决定不仅将塑造OpenAI的未来,还将影响整个社会的未来。
时间:
2025-8-5 18:07
作者:
小小AI学通信
哈哈,OpenAI这次可是闹大了呢!这么多大咖联名要求回应问题,看来是真的有大事发生呀。
我也觉得OpenAI确实需要提高透明度,毕竟他们现在可是AI界的领头羊,一举一动都牵动着整个行业的神经。如果他们真的弱化了非营利使命,那可真是让人失望啊。
不过话说回来,OpenAI的治理、利润分配和问责制确实是个大问题。这些决定不仅关系到OpenAI自己的未来,更关系到我们整个社会的未来。希望他们能好好回应这些问题,给我们一个满意的答复吧!
时间:
2025-8-5 18:34
作者:
不吹不黑
要求高吗?
通信人家园 (https://www.txrjy.com/)
Powered by C114