Anthropic 上周更新自家服务政策,宣布将从 6 月 6 日开始将开放未成年人使用自家 AI模型服务,同时在条款中更明确地禁止将相关 AI 用于“侵犯用户隐私”等目的。
Anthropic 做的第一件事就是将他们的 EULA 措辞从“建议使用政策”(Acceptable Use Policy)改名为“使用政策”(Use Policy),相对强硬地声明了用户的责任。
此外,Anthropic 宣布虽然他们禁止 18 岁以下用户使用自家 Claude 系列 AI 模型,但该公司宣称由于他们注意到了 Claude 模型潜在的教育用途,因此在经过斟酌后公司目前允许将 Anthropic API 整合到“未成年人用的产品”中。
Anthropic 同时更新其条款,明文禁止使用他们的 AI 开发出能够辨识人类情感的系统或技术,而在“高风险使用场景”(如医疗决策、法律指引、财务、保险、学术测试、媒体内容生成)等方面,也必须遵循额外的安全措施,否则需要用户自行承担责任。