最近,OpenAI 发布了他们最新的 GPT-4o 系统卡,这是一份详细的研究文件,介绍了该公司在推出新模型之前所做的安全措施和风险评估。
GPT-4o 模型是在今年五月正式上线的。在发布之前,OpenAI 聘请了外部的安全专家团队进行风险评估,这种 “红队” 测试是相当常见的做法。他们主要关注模型可能带来的风险,比如生成未经授权的声音克隆、淫秽和暴力内容,或者重复的受版权保护的音频片段。
根据 OpenAI 自己的框架,研究人员将 GPT-4o 的整体风险评估为 “中等”。这个风险等级是根据四个主要类别中的最高风险评定得出的:网络安全、生物威胁、说服力和模型自主性。除了说服力外,其他类别都被认为是低风险。研究人员发现,GPT-4o 生成的一些文本在影响读者意见方面比人类写的文本更具说服力,尽管整体上并没有更具说服力。
OpenAI 的发言人 Lindsay McCallum Rémy 表示,系统卡包括由内部团队和外部测试人员共同创建的准备评估,外部团队包括 OpenAI 网站上列出的模型评估与威胁研究(METR)和阿波罗研究(Apollo Research),他们专注于人工智能系统的评估。这并不是 OpenAI 首次发布系统卡,之前的 GPT-4、GPT-4视觉版和 DALL-E3也经历了类似的测试,并发布了相关研究结果。
但这次发布的系统卡恰逢一个关键时刻,OpenAI 近期面临来自内部员工和州参议员的不断批评,质疑其安全标准。在 GPT-4o 系统卡发布的几分钟前,麻省参议员伊丽莎白・沃伦(Elizabeth Warren)和众议员洛丽・特拉汉(Lori Trahan)共同签署的一封公开信,呼吁 OpenAI 就如何处理举报者和安全审查提供答案。信中提到的许多安全问题,包括首席执行官山姆・阿尔特曼(Sam Altman)在2023年因董事会的担忧而短暂被解雇,以及一名安全高管的离职,该高管声称 “安全文化和流程被美丽的产品所压制”。
此外,OpenAI 正好在美国总统选举前发布一款功能强大的多模态模型,这显然存在误传信息或被恶意行为者利用的潜在风险。尽管 OpenAI 希望通过实际场景的测试来防止滥用,但公众对其透明度的呼声越来越高。尤其是在加州,州参议员斯科特・维纳(Scott Wiener)正在推动一项法案,规范大型语言模型的使用,包括要求公司在其 AI 被用作有害用途时承担法律责任。如果法案通过,OpenAI 的前沿模型必须遵循州法规定的风险评估才能向公众发布。