5月28日早上,ChatGPT制造商OpenAI宣布,公司已经开始训练其新的“前沿模型”,并成立了一个新的安全和安保委员会,由现任董事会成员Bret Taylor(OpenAI董事会主席和客户服务初创公司Sierra AI的联合创始人,前谷歌地图负责人和前脸书首席技术官),Adam D’Angelo(Quora和人工智能模型聚合应用程序Poe的首席执行官),Nicole Seligman(Sony Corporation的前执行副总裁兼全球总法律顾问)和Sam Altman(现任OpenAI首席执行官和联合创始人之一)领导。
正如OpenAI在一篇公司博客文章中所写的:
“OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将使我们在AGI(人工通用智能,Artificial General Intelligence,简称AGI)的道路上达到下一个能力水平。虽然我们很自豪能够制造和发布在性能和安全性方面都处于行业领先地位的模型,但我们欢迎在这个重要时刻进行激烈的辩论。”
90天倒计时现在开始
值得注意的是,该公司概述了这个新委员会将在指导新前沿人工智能模型的发展方面发挥的作用,并指出:
“安全和安保委员会的首要任务将是在未来90天内评估和进一步发展OpenAI的流程和保障措施。在90天结束时,安全和安保委员会将与董事会全体成员分享他们的建议。在理事会的全面审查之后,OpenAI将以符合安全和安保的方式公开分享已采纳建议的最新情况。”
因此,我们有理由得出结论,无论新的前沿模型是什么——不管它被称为GPT-5还是其他什么——它至少在90天内不会被发布,以便给新的安全和安保委员会必要的时间来“评估和进一步开发OpenAI的流程和安全措施”,并向“整个董事会”提出建议。
这意味着OpenAI的董事会应该在2024年8月26日之前收到新的安全和安保委员会的建议。
为什么是90天,而不是更长、更短或其他时间?OpenAI并没有真正指定,但这个指标是商业中用来评估和提供流程反馈的常用指标,看起来和其他指标一样好——不是太短,也不是太长。
新的安全委员会不是独立的
这一消息立即遭到批评,一些人指出,新委员会完全由OpenAI“自己的高管”组成,这意味着对该公司安全措施的评估将不会是独立的。
OpenAI的董事会以前一直颇具争议,现在其中许多人是新的安全和安保委员会的成员。
就在ChatGPT一周年纪念日的前五天,OpenAI非营利控股公司的旧董事会于2023年11月17日解雇了奥特曼担任首席执行官和公司的所有职务,理由是奥特曼对他们“没有始终如一地坦诚”,结果却面临员工的坚决反对和OpenAI投资者包括重要支持者微软的重大抵制。
奥特曼最终于2024年11月21日恢复担任OpenAI首席执行官,董事会辞职,由泰勒、拉里·萨默斯和亚当·德安杰洛接任,微软作为无投票权观察员加入。当时,董事会被批评为完全由男性主导。
今年3月8日,其他成员苏·德斯蒙德—赫尔曼(比尔及梅林达·盖茨基金会前首席执行官)、菲吉·西莫(Instacart首席执行官兼董事长)、塞利格曼和奥特曼也被任命为新董事会成员。
OpenAI(以及人工智能行业)的坎坷时期
OpenAI本月早些时候发布了其最新的人工智能模型——GPT-4o,自那以来一直有点公关崩溃。
尽管新模型是OpenAI(也可能是世界上)第一个从一开始就接受多模态输入和输出训练的模型,而不是将几个接受文本和媒体训练的模型串在一起(就像之前的GPT-4一样),但该公司受到了演员斯嘉丽·约翰逊的批评,她指责该公司模仿她的声音为其新模型配音,并展示了她和其他人听起来像她的声音(特别是她在科幻电影《她》中的人工智能助理角色)。
OpenAI反驳说,它单独委托了一个配音,并且从未打算或指示配音演员模仿约翰逊。OpenAI的首席科学家兼联合创始人Ilya Sutskever与其致力于防范超级智能的超级对齐团队的联合领导人一起辞职,后者在离开时批评OpenAI将“闪亮的产品”置于安全之上。整个超级对其团队被解散了。
此外,OpenAI因对即将离任的员工有限制性的非贬低离职协议,以及在违反该协议和其他条款的情况下对股权的追回条款而受到批评,但该公司此后表示,它不会强制执行该协议。
然而,该公司也成功地与主流媒体的新合作伙伴签约,为ChatGPT提供培训数据和权威新闻,音乐家和电影制作人也对其Sora视频生成模型感兴趣——据报道,好莱坞希望人工智能能够简化和降低电影和电视制作的成本。
与此同时,竞争对手谷歌因其在搜索中的人工智能概述的答案而受到批评,这表明普通用户对整个人工智能领域有更普遍的强烈反对。
我们将看看在该公司正在酝酿的任何东西推出之前,OpenAI的新安全委员会是否能够安抚或至少安抚一些批评者,或许更重要的是,安抚监管者和潜在的商业伙伴。
(机器翻译,轻度译后编辑,仅供参考。)
编辑:李旭媛