在家长和活动人士的监督下,知名人工智能公司OpenAI近期组建了一个新的儿童安全团队,研究防止其AI工具被未成年人误用或滥用的方法。
根据OpenAI职业页面的新招聘信息,该团队将与公司内部的政策、法律和调查小组以及外部合作伙伴合作,管理与未成年用户相关的"流程、事件和审查"。目前急需一名儿童安全执法专家,负责执行OpenAI在AI生成内容上的政策,并处理涉及"敏感"儿童相关内容的审核工作。
图源备注:图片由AI生成,图片授权服务商Midjourney
大型科技公司普遍投入大量资源遵守儿童网络隐私保护法等监管,要求控制儿童可获取的在线信息及相关数据收集。因此,OpenAI聘请儿童安全专家并不意外,尤其是考虑到未来可能有大量未成年用户群。(OpenAI目前要求13-18岁青少年获父母允许,禁止13岁以下儿童使用)。
新团队的成立也表明了OpenAI对违反相关政策的谨慎态度,此前该公司与Common Sense Media合作制定了儿童友好型AI指南,并获得首个教育行业客户。
随着越来越多儿童和青少年开始使用人工智能解决学业和个人问题,有关负面影响的担忧也在增加。一项调查发现约三成孩子使用ChatGPT处理焦虑,还有的用于修复人际关系,此外还有人担心被用于创作可信虚假信息等负面目的。
去年部分学校禁止使用ChatGPT,后有所解禁。但呼吁制定儿童AI使用政策的声音不断增加,包括联合国教科文组织倡议政府规范国内AI在教育中的应用,包括年龄限制和数据保护等。
显然,对于OpenAI等公司如何保障未成年用户把握AI工具仍面临重大挑战。建立儿童安全团队,无疑将助力该公司及行业为儿童营造更安全、负责任的AI使用环境。