OpenAI 联合创始人 Ilya Sutskever 日前宣布,他将在今年5月卸任 OpenAI 首席科学家一职后,投身新的创业项目。他与 OpenAI 同事 Daniel Levy 以及苹果前人工智能主管、Cue 联合创始人 Daniel Gross 宣布,他们正共同创办 Safe Superintelligence Inc.,这家初创企业的使命是构建安全的超级智能。
在 SSI 网站发布的信息中,创始人们表示,构建安全的超级智能是 “我们这个时代最重要的技术问题”。此外,“我们将安全性和能力视为一体,作为通过革命性工程和科学突破解决的技术问题。我们计划尽快提升能力,同时确保我们的安全性永远领先。”
那么,什么是超级智能?这是一个假设性的概念,代表一个拥有远超最聪明人类智能的理论实体。
这一举措是 Sutskever 在 OpenAI 时期工作的延续。他曾是公司的超级对齐团队成员,负责设计控制强大新人工智能系统的方法。但随着 Sutskever 的离职,该团队被解散,这一举动受到了前领导之一 Jean Leike 的严厉批评。
SSI 声称将 “直线推进安全超智能的发展,专注于一个目标和一个产品。”
当然,OpenAI 的联合创始人在2023年11月的一次短暂罢免首席执行官 Sam Altman 中起到了重要作用。Sutskever 后来表示,他对自己在这一事件中的角色感到后悔。
Safe Superintelligence Inc. 的成立将使 Sutskever 等人能够更加专注地解决安全超智能的问题,实现单一目标的产品发展。