OpenAI 联合创始人 Ilya Sutskever 表示,当未来超级智能机器崛起时,人类可能会选择与人工智能融合。他甚至可能是第一个这样做的人。
OpenAI 联合创始人 Ilya Sutskever 最近提出了一个引人注目的理论,他认为未来超智能机器崛起时,人类可能会选择与 AI 融合。
在与 MIT Technology Review 的交谈中,Sutskever 描述了我们应如何为可能超越人类智慧的机器做好准备。他提到这些超智能机器将「看到我们看不到的东西」。
这种思想促使他与 OpenAI 的科学家 Jan Leike 共同组建了一个团队,专注于确保 AI 模型仅按照人类的要求执行,而不会做出超出指令的行为。他们为这个过程命名为「超对齐」(Superalignment),也就是应用于超智能的「对齐」。
Sutskever 强调,保持超智能的检查非常重要,但这是一个「未解决的问题」,并不是很多研究人员正在讨论或工作的领域。「显然,我们必须确保任何人构建的超智能不会失控。」
在解决了失控 AI 的问题后,Sutskever 认为未来人类可能会选择与 AI 融合。虽然他承认这个想法在今天可能看起来「疯狂」,但在未来可能会成为现实。
他说:「许多人会选择成为部分 AI。起初,只有最大胆、最富冒险精神的人会尝试这样做。也许其他人会跟随,或者不会。」
在与采访者告别时,Sutskever 甚至表示,他可能会成为首批接受成为部分 AI 的人之一。
Sutskever 不是唯一警告 AI 可能超越人类智慧的专家。本月早些时候,被认为是 AI 三位教父之一的 Geoffrey Hinton 在接受 CBS News 60 Minutes 采访时表示,未来 5 至 20 年内,新兴技术可能会对人类构成威胁。
Hinton 指出,我们可能会首次面临比我们更聪明的「事物」,并警告未来 AI 可能会操纵人类。
他说:「它们将能够操纵人类,对吧?而且,由于它们从所有的小说、马基雅维利(意大利的政治学家、哲学家、历史学家、政治家、外交官。他是意大利文艺复兴时期的重要人物,被称为『近代政治学之父』,在政治哲学领域具代表性,他所著的《君主论》一书提出了现实主义的政治理论,其中『政治无道德』的权术思想,被人称为「马基雅维利主义」。)的所有书籍和所有的政治诡计中学到了东西,它们会非常擅长说服人们。它们会知道如何做。」
随着 AI 技术的飞速发展,专家的警告提醒了我们,应在推动技术进步的同时,也要深刻认识到潜在的风险,并寻求可能的解决方案。