人工智能初创公司 Anthropic 最新政策变动引发关注。该公司宣布允许未成年人使用其生成式人工智能系统,但需遵守特定安全要求。这一举措在行业内引发了广泛讨论和关注。
在Anthropic的新政策下,青少年和儿童将能够在特定条件下使用由其人工智能模型支持的第三方应用程序。这一举措被认为对于教育和个人问题解决具有潜在益处。然而,随之而来的挑战是如何确保未成年人安全使用人工智能工具。
Anthropic列出了开发人员应采取的安全措施,如年龄验证系统、内容审核和教育资源。同时,公司表示将定期审核应用程序的合规性,终止违规账户,并要求开发人员明确声明他们遵守合规性要求。
这一政策调整也反映了整个行业的趋势。包括谷歌和 OpenAI 在内的竞争对手也在探索更多针对儿童的生成式人工智能用例。去年,OpenAI与 Common Sense Media 合作制定了儿童友好的人工智能指南,谷歌将其聊天机器人 Bard 更名为 Gemini,专为青少年提供服务。
然而,生成式人工智能的潜在风险也备受关注。一些调查显示,一些孩子曾看到同龄人以负面方式使用生成式人工智能。因此,对于儿童使用生成式人工智能的指导和监管变得尤为重要。
在这个充满机遇和挑战的时代,Anthropic的政策调整引发了人们对未成年人使用人工智能的深入思考和讨论。如何平衡利用人工智能带来的好处,同时保护未成年人的安全和隐私,将是未来发展的关键议题。