登陆注册

可用损坏训练数据

  • Nightshade:艺术家全新反击工具,可用损坏训练数据“毒害”AI模型

    划重点:1.🤖艺术家反击AI:艺术家可以使用一种名为Nightshade的新工具,向他们的图像注入隐形的像素,使AI模型产生错误的认知。2.📜背景:AI公司依赖大量的训练数据,包括来自艺术家的创作,引发了一系列法律诉讼。3.💡希望与风险:Nightshade的开发者希望通过这一工具重塑AI与艺术家之间的权力平衡,但也承认可能被滥用。
    站长网2023-10-24 23:51:57
    0000