OpenAI 改组:主要研究人员因对 AI 安全优先事项的不同看法而辞职
Summary:
OpenAI 团队中专注于潜在 AI 风险的主要研究人员要么辞职,要么因对该组织优先事项的分歧而被重新分配。在此之前,OpenAI 的首席科学家 Ilya Sutskever 和超级对齐团队的联合负责人 Jan Leike 离职。Leike 强调了对安全研究资源的迫切需求,批评 OpenAI 将产品开发置于 AI 安全之上。最近解散“Superalignment”团队的举动是在公司正在进行的内部重组中进行的。Sutskever早些时候曾表示,董事会的决定旨在确保OpenAI坚持为人类的利益开发AGI。
在最近的新闻中,OpenAI的团队发生了彻底的转变,该团队一直在激烈调查人工智能的潜在危险,所有成员要么辞职,要么被重新分配到不同的研究派系。紧随其后的是 OpenAI 的首席科学家兼联合创始人 Ilya Sutskever,他公开了离开公司的决定。此外,OpenAI 超级对齐团队的高层、之前与 DeepMind 有关联的 Jan Leike 已经卸任,并在 X 平台上正式传达了他的辞职。
Leike的退出归因于他对公司当前目标的不信任,他认为这些目标正转向专注于产品改进,而不是断言人工智能安全的重要性。在一系列出版物中,Jan Leike 不同意 OpenAI 的指令重点,并敦促管理层注意 AGI 或通用人工智能发展的安全性和准备情况,AGI 或通用人工智能是一种人工智能的理论形式,有望在执行各种任务时与人类的能力相匹配甚至超过人类的能力。
Leike 在 OpenAI 工作了三年后,表达了他对该组织在开发迷人产品方面的优惠待遇的担忧,而忽略了以 AI 安全为中心的健康文化和系统的关键培育。他强烈强调需要重新分配资源,主要是计算能力,以支持他的团队领导的大量以安全为导向的研究,这项任务明显被忽视了。
OpenAI在去年7月成立了一个新的研究小组,目的是为可能出现的高效人工智能做好准备,该人工智能能够超越并压倒其人类发明者。OpenAI 的首席科学家兼联合创始人 Ilya Sutskever 共同领导了这个新派系,他得到了 OpenAI 20% 的计算资源的支持。
鉴于最近一连串的辞职潮,OpenAI已决定解散“超级对齐”团队,并将其职责融入其职权范围内的其他研究企业中。此举被认为是组织内部重组变化的结果,其起源是解决 2023 年 11 月遭受的管理危机。在此期间,Sutskever 在促进 CEO Altman 暂时被赶出 OpenAI 董事会方面发挥了重要作用,在员工团体的抵制下,他很快恢复了职务。
据报道,Sutskever 向员工阐明,董事会决定解除 Sam Altman 的职位符合他们确保 OpenAI 的 AGI 开发符合人类最佳利益的任务。作为董事会六名成员中的关键人物,Sutskever 响应了董事会的承诺,即加强 OpenAI 的使命,使其与更大的共同目标相协调。
Published At
5/18/2024 2:30:32 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.