OpenAI 禁止用户询问推理大模型 o1 思维链条

近日 OpenAI 发布了模拟人类思考、具有推理能力的新模型 o1,可以解决数理问题。量子位报道称,如果在 o1 模型中询问其如何思考,或者要求其呈现思考链条,不仅不会生成相关答案,OpenAI 还会发送邮件警告用户遵守使用条款,甚至会导致封号。

有网友反馈只要提示词有「reasoning trace」(推理痕迹)、「show your chain of thought」(展示你的思考链条)等关键词,就会被 OpenAI 警告。即使避免使用这些关键词,使用其他提示词迂回地诱导 o1 回答相关问题,也会被检测和警告。OpenAI 对此的解释是,公司内部需要监测模型的思维过程,因此不能在这些原始 tokens 中加入安全限制,也就不方便让用户看到。

搜索