科技魔方

Nightshade:艺术家全新反击工具,可用损坏训练数据“毒害”AI模型

大模型

2023年10月24日

  自 ChatGPT 几乎一年前登场以来,生成式人工智能(AI)进入了高速发展的时代,但反对声音也逐渐增强。许多艺术家、娱乐人士、表演者甚至唱片公司已经对AI公司提起了诉讼,其中一些诉讼涉及 ChatGPT 制造商 OpenAI,原因是这些新工具背后的“秘密武器”:训练数据。

  也就是说,这些AI模型需要访问大量的多媒体内容并从中学习,包括艺术家创作的文字材料和图像,而这些艺术家既没有事先知道,也没有机会反对他们的作品被用于训练新的商业AI产品。

  在这些AI模型的训练数据集中,许多包括从网络上抓取的材料,这一做法在用于索引他们的材料以提供搜索结果时,以前大多受到艺术家的支持。但现在,许多人已经反对这种做法,因为它允许通过AI创建竞争性作品。

  即使没有提起诉讼,艺术家也有机会利用技术来对抗AI。麻省理工技术评论杂志提到了一个还在开发中的名为Nightshade的新开源工具。艺术家可以将Nightshade添加到他们的图像中,然后上传到网络,这个工具可以以一种对人眼隐形的方式改变像素,但对寻求对其进行训练的AI模型来说,却“毒害”了艺术品。

  Nightshade由芝加哥大学的研究人员在计算机科学教授Ben Zhao的指导下开发,并将作为其先前产品Glaze的可选设置添加,Glaze是另一款在线工具,可以掩盖数字艺术品并改变其像素以混淆AI模型对其风格的认知。

  就Nightshade而言,艺术家对抗AI的反击更进一步:它使AI模型学习错误的物体和景物名称。例如,研究人员通过在像素中注入信息,让图像中的狗看起来像猫。在仅对50张被“毒害”的图像样本进行采样和学习后,AI开始生成具有奇怪腿和不安视觉效果的狗的图像。在100张毒害样本之后,当用户要求生成一只狗时,它可靠地生成一只猫。经过300张毒害样本后,任何对猫的请求都会返回一个几乎完美的狗。

  研究人员使用了开源的文本到图像生成模型 Stable Diffusion 来测试Nightshade,并获得了上述结果。由于生成式AI模型的工作方式的特性,即将概念上相似的词语和想法分组为称为“嵌入”的空间集群,Nightshade还成功追踪 Stable Diffusion 并在使用“哈士奇”、“小狗”和“狼”这些词语提示时返回猫的图像。

  此外,Nightshade的数据毒害技术难以防御,因为它需要AI模型开发人员清除包含被毒害像素的任何图像,而这些像素是经过设计的,对人眼来说并不明显,甚至可能连软件数据抓取工具也难以检测到。

  已经被摄入到AI训练数据集中的任何被毒害的图像也需要被检测并移除。如果AI模型已经在其上进行了训练,那么它很可能需要重新训练。

  尽管研究人员承认他们的工作可能被恶意利用,但根据麻省理工技术评论杂志对他们工作的文章,他们“希望通过这一工具帮助重塑AI公司与艺术家之间的权力平衡,从而创建一个强大的威慑力,防止侵犯艺术家的版权和知识产权”。

  根据该报道,研究人员已将他们关于制作Nightshade的工作提交给计算机安全会议Usinex的同行评审。

+1

来源:站长之家

延展资讯