OpenAI 退伍军人和 Y Combinator 合作伙伴推出“Safe Superintelligence, Inc.”以增强 AI 安全性
Summary:
OpenAI 前首席科学家 Ilya Sutskever 和前 OpenAI 工程师 Daniel Levy 与创业加速器 Y Combinator 的前合伙人 Daniel Gross 合作推出了 Safe Superintelligence, Inc. (SSI)。这家总部位于美国的公司旨在提高人工智能 (AI) 的安全性和能力。除了对人工智能安全的担忧外,OpenAI的前员工和主要科技人物,包括以太坊联合创始人Vitalik Buterin、特斯拉首席执行官埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克,都呼吁暂停人工智能训练,以考虑潜在风险。
OpenAI 前首席科学家兼联合创始人 Ilya Sutskever 和前 OpenAI 工程师 Daniel Levy 与创业加速器 Y Combinator 的前合伙人 Daniel Gross 合作,推出了 Safe Superintelligence, Inc. (SSI)。这家新企业的重点和产品反映在其名称中。SSI在美国帕洛阿尔托和特拉维夫设有办事处,旨在通过联合开发安全措施和功能来推动人工智能(AI)向前发展,正如创始三人组于6月19日在线宣布的那样。他们强调,他们独特的重点是避免管理问题或产品周期造成的干扰,其商业模式确保安全、保障和进步不受短期商业影响。
在 5 月 14 日离开 OpenAI 之前,Sutskever 和 Gross 分享了对 AI 安全性的担忧。Sutskever在首席执行官Sam Altman复职后离开董事会后,在公司中扮演了一个模糊的角色。丹尼尔·利维(Daniel Levy)是在Sutskever之后不久离开OpenAI的研究人员之一。Sutskever 和 Jan Leike 领导了 OpenAI 于 2023 年 7 月成立的 Superalignment 团队,研究如何指导和控制比我们更智能的 AI 系统,即通用人工智能 (AGI)。在成立之初,OpenAI 将其 20% 的计算能力分配给了该团队。
然而,Leike 也在 5 月份离开了该组织,现在领导着亚马逊支持的人工智能初创公司 Anthropic 的一个团队。该公司在公司总裁格雷格·布罗克曼(Greg Brockman)的一篇详细的X帖子中阐述了其安全预防措施,但在研究人员于5月离开后解散了Superalignment团队。
前 OpenAI 调查人员并不是唯一一个对 AI 未来走向表示担忧的人。在OpenAI的员工洗牌中,以太坊联合创始人Vitalik Buterin称AGI是“有风险的”。然而,他也分享说,与企业贪婪和武装力量相比,这种模式的“厄运风险”要小得多。
前OpenAI支持者、特斯拉首席执行官埃隆·马斯克(Elon Musk)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)加入了2,600多名技术专家和研究人员的行列,要求暂停人工智能系统训练六个月,以反思其带来的“深刻风险”。
SSI的发布公告还提到,该公司正在寻求招募研究人员和工程师。
Published At
6/20/2024 12:45:47 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.