什么是“脱衣AI”?
Undress AI描述了一种使用人工智能去除图像中个人衣服的工具。
虽然每个应用程序或网站的工作方式可能有所不同,但它们都提供类似的服务。尽管经过处理的图像实际上并未显示受害者的真实裸体,但它可以暗示这一点。
使用脱衣人工智能工具的犯罪者可能会为自己保留这些图像,或者可能会更广泛地分享它们。他们可以使用这些图像 性胁迫(性勒索)、欺凌/虐待或作为报复色情的一种形式。
如果有人使用这种技术“脱掉”儿童和青少年的衣服,他们将面临额外的伤害。 A 互联网观察基金会的报告 在一个专门针对儿童性虐待材料 (CSAM) 的暗网论坛上发现了超过 11,000 张人工智能生成的潜在犯罪儿童图像。他们将大约 3,000 张图像评估为犯罪图像。
IWF 表示,它还发现了“许多人工智能生成的图像示例,其中包括已知的受害者和著名的儿童”。生成式人工智能只有从准确的源材料中学习才能创建令人信服的图像。从本质上讲,生成 CSAM 的人工智能工具需要从虐待儿童的真实图像中学习。
需要注意的风险
脱衣人工智能工具使用暗示性语言来吸引用户。因此,孩子们更有可能根据这种语言追随他们的好奇心。
儿童和青少年可能还不了解法律。因此,他们可能很难将有害工具与那些促进无害乐趣的工具区分开来。
不当内容和行为
脱衣人工智能工具的好奇心和新奇性可能会让孩子们接触到不适当的内容。因为它没有显示“真实”的裸体图像,所以他们可能会认为可以使用这些工具。如果他们随后与朋友分享该图片“为了一笑”,他们很可能在不知情的情况下就触犯了法律。
如果没有父母或照顾者的干预,他们可能会继续这种行为,即使这会伤害他人。
隐私和安全风险
许多合法的生成人工智能工具需要付费或订阅才能创建图像。因此,如果一个 Deepnude 网站是免费的,它可能会产生低质量的图像或安全性松懈。如果孩子上传自己或朋友的着装图片,网站或应用程序可能会滥用它。这包括它所创造的“深度裸体”。
使用这些工具的儿童不太可能阅读服务条款或隐私政策,因此他们面临着可能不理解的风险。
制作儿童性虐待材料 (CSAM)
国际举联还报告称, 网上流通的“自生成”CSAM 增加了 417% 从 2019 年到 2022 年。请注意,“自我生成”一词并不完美,因为在大多数情况下,施虐者强迫儿童创作这些图像。
然而,随着脱衣人工智能的使用,孩子们可能会在不知不觉中创建人工智能生成的 CSAM。如果他们上传自己或另一个孩子的着装照片,有人可以“裸体”该图像并更广泛地分享。
网络欺凌、虐待和骚扰
就像其他类型的深度伪造一样,人们可以使用脱衣人工智能工具或“深度裸体”来欺凌他人。这可能包括声称某个同伴发送了自己的裸照,而实际上他们没有发送。或者,它可能包括使用人工智能创建一个具有欺凌然后嘲笑特征的裸体。
重要的是要记住这一点 分享同伴的裸照既违法又滥用。
“深度裸体”技术有多普遍?
研究表明,此类人工智能工具的使用正在增加,特别是在脱掉女性受害者的衣服方面。
一家脱衣人工智能网站表示,他们的技术“不适用于男性受试者”。这是因为他们使用女性图像来训练该工具,这对于大多数此类人工智能工具来说都是如此。互联网观察基金会调查的人工智能生成的 CSAM 中,99.6% 的内容都是女性儿童。
Graphika 的研究 强调指出,到 2000 年,脱衣人工智能服务的推荐链接垃圾邮件将增加 2023%。报告还发现,其中 34 家提供商在一个月内收到了超过 24 万独立访问者的网站。他们预测“还会出现更多网络伤害事件”,包括性勒索和 CSAM。
犯罪者可能会继续针对女孩和女性,而不是男孩和男性,特别是如果这些工具主要从女性图像中学习的话。
英国法律怎么说?
直到最近,那些制作露骨的深度伪造图像的人并没有违法,除非这些图像是儿童的。
然而,司法部宣布 本周新法律 这将会改变这一点。根据新法律,那些未经成年人同意而制作露骨的深度伪造图像的人将面临起诉。被定罪的人还将面临“无限制的罚款”。
这与一个 2024年初发表的声明。报告称,创建深度伪造的亲密图像“危害性或罪责不足以构成刑事犯罪”。
就在去年,犯罪者还可以创造 和 在不违法的情况下分享这些(成人的)图像。但是,那 在线安全法 2024 年 XNUMX 月,将未经同意共享人工智能生成的亲密图像定为违法行为。
一般来说,该法律应涵盖任何具有性性质的图像。这包括那些以裸体或部分裸体为主题的作品。
然而,需要注意的一件事是,这项法律依赖于造成伤害的意图。因此,创建露骨的深度伪造内容的人必须这样做来羞辱或以其他方式伤害受害者。问题在于证明意图相当困难。因此,要真正起诉那些制作露骨色情深度假货的团体可能很困难。