专家呼吁:Deepfake检测工具须考虑深色肤色群体 避免偏见
站长网2023-08-19 15:28:180阅
本文概要:
1. 担心训练数据集中的偏见会导致少数族裔承受欺诈、诈骗和虚假信息的压力。
2. 大部分深度伪造检测器是基于依赖于用于训练的数据集的学习策略。然而,这些检测方法并不总是适用于深色肤色的人群。
3. 缺乏对所有种族、口音、性别、年龄和肤色的包容性训练集可能会导致偏见。
专家警告说,为应对日益严重的深度造假(看起来逼真的虚假内容)威胁而开发的检测工具必须使用包含较深肤色的训练数据集,以避免偏见。
目前大多数Deepfake深度伪造检测器都基于依赖于训练数据集的学习策略,并利用人眼无法察觉的迹象进行检测,例如监测血液流动和心率。
然而,这些检测方法并不总是适用于深色肤色的人群,如果训练集中不包含所有种族、口音、性别、年龄和肤色的样本,就会存在偏见的问题。
专家们担心这种偏见将会导致对少数群体进行深度伪造的欺诈、诈骗和虚假信息的增加。为了解决这个问题,深度伪造检测工具需要使用视觉线索,如血液流动和心率检测,但由于深色肤色在视频流中很难提取心率,这些工具对少数群体的表现会较差。
因此,需要建立新的数据集,并使用更具代表性的肤色范围来训练机器学习模型,以确保包容性和准确性。然而,目前世界上还没有规定相应的监管措施,这导致偏见在新技术中仍然存在和复制。
为了解决这个问题,哈佛大学社会学教授兼谷歌客座研究员埃利斯·蒙克 (Ellis Monk) 开发了蒙克肤色量表。它是一种比科技行业标准更具包容性的替代尺度,并且将提供比可用于数据集和机器学习模型更广泛的肤色。专家们呼吁建立更具包容性的训练集和标准化的测量方法,以解决深度伪造检测工具的偏见问题。
0000
评论列表
共(0)条相关推荐
Meta新大语言模型LLama 3将在英特尔和高通硬件上运行
划重点:⭐Meta发布了最新的大型语言模型LLama3,以实现更安全、更准确的生成式人工智能体验。⭐英特尔和高通迅速将LLama3移植到硬件平台上。⭐Llama3采用了128-Ktoken词汇表进行高效编码,并在8B和70B模型中使用了分组查询注意力。站长网2024-04-26 12:14:200001Midjourney修改服务条款,信心十足迎接版权诉讼?
据外媒报道,人工智能图像生成器Midjourney上周悄悄修改了其服务条款,用更正式的律师语言取代了之前夹杂幽默的用词。这一变动被视为Midjourney坚信自己在与创作者的潜在版权官司中能获胜的信号。图源备注:图片由AI生成,图片授权服务商Midjourney站长网2024-03-18 15:00:550000阿里巴巴等开源语音情感基座模型emotion2vec
情感识别技术在各种场景中都有广泛的应用,如客服机器人根据客户语气调整策略、智能助手根据用户情绪提供建议、情感健康应用监测用户情感状态。为了支持情感理解,上海交通大学、阿里巴巴、复旦大学和香港中文大学的研究者联合开发了通用的语音情感表征模型emotion2vec。站长网2024-03-07 15:18:430001周鸿祎谈萝卜快跑抢网约车司机饭碗:这招可实现三赢
站长之家(ChinaZ.com)7月12日消息:近日,随着萝卜快跑无人车的推广,其可能对传统出租车司机就业造成的影响成为了热议话题。360集团创始人周鸿祎对此发表了自己的见解,并提出了一个三赢的解决方案:司机购买无人驾驶车辆,加入萝卜快跑的运营体系。站长网2024-07-12 12:09:210000