登陆注册
14763

研究表明,AI图像生成器正在接受儿童露骨照片进行训练

站长网2023-12-21 09:59:531

划重点:

- 🚩 报告指出,人工智能图像生成器的基础中隐藏着数千张儿童淫秽照片。

- 🚩 这些图片使得 AI 系统更容易生成逼真的虚假儿童图片,并将社交媒体上全副武装的真实青少年照片转化为裸体照片。

- 🚩 这个问题没有简单的解决办法,需要公司采取行动来解决技术中的漏洞。

根据一份新报告,人工智能图像生成器的基础中隐藏着数千张儿童淫秽照片,该报告敦促公司采取行动解决技术中的缺陷。

这些图片使得 AI 系统更容易生成逼真的虚假儿童图片,并将社交媒体上全副武装的真实青少年照片转化为裸体照片,这对学校和公共安全构成了威胁。以前,反虐待研究人员认为,一些未经检查的 AI 工具生成虐待儿童的图片的唯一方法是将它们从两个不同的在线图像库中学习到的知识相结合:成人色情图片和儿童无害图片。

然而,斯坦福大学互联网观察中心在人工智能数据库 LAION 中发现了超过3200张涉嫌儿童淫秽图片。LAION 是一个包含在线图片和标题的索引,已经被用来训练领先的 AI 图像生成器,比如 Stable Diffusion。斯坦福大学观察中心与加拿大儿童保护中心和其他反虐待慈善机构合作,识别出这些非法材料,并向执法部门举报原始图片链接。

图源备注:图片由AI生成,图片授权服务商Midjourney

在斯坦福大学互联网观察中心首次发布报告的前一天,LAION 告诉美联社,他们正在暂时删除数据集。LAION 在一份声明中表示,他们 “对非法内容采取零容忍政策,为了确保数据安全,我们已经将 LAION 数据集下架,待重新发布之前。” 虽然这些图片只占到 LAION58亿张图片索引的一小部分,但斯坦福小组表示,它们很可能影响 AI 工具生成有害输出的能力,并加强以前对真实受害者的虐待。

这个问题没有简单的解决办法,根源在于许多生成型 AI 项目 “实际上是被匆忙推向市场”,并且因为领域竞争激烈,所以变得广泛可访问,斯坦福大学互联网观察中心的首席技术专家大卫・蒂尔在报告中说道。蒂尔表示:“对整个互联网进行爬取,并将其数据集用于训练模型,这本应该是一个研究操作的限制,如果有的话,并不是应该没有经过更加严格的注意就开源的东西。”

一个重要的 LAION 用户,也是对数据集开发起到推动作用的公司是 Stability AI,他们开发了 Stable Diffusion 的文本到图像模型。新版本的 Stable Diffusion 使得创建有害内容变得更加困难,但是2022年引入的旧版本仍然与其他应用和工具交织在一起,根据斯坦福报告。加拿大儿童保护中心的信息技术主任劳埃德・理查德森表示:“我们无法收回来。这个模型现在在许多人的本地机器上。”Stability AI 表示,他们只托管了 Stable Diffusion 的经过过滤的版本,并且在接手独家开发 Stable Diffusion 之后,采取了 “主动措施来减少滥用的风险。”

LAION 是德国研究员克里斯托弗・舒曼的创意,他今年早些时候告诉美联社,将如此庞大的视觉数据库公开可访问的部分原因是为了确保 AI 发展的未来不会被少数强大的公司控制。“如果我们能使其民主化,使整个研究界和广大公众受益,那么它将更安全、更公平,” 他说道。

反儿童性虐待组织 Thorn 的数据科学主任丽贝卡・波顿表示,她的组织进行的研究显示,虐待者使用 AI 生成的图片的普遍性很小,但是持续增长。开发者可以通过确保用于开发 AI 模型的数据集不包含滥用材料来减轻伤害。波顿表示,在模型流通之后也有减少滥用的机会。

0001
评论列表
共(0)条