芝加哥大学的“釉彩”和“夜影”为艺术家们提供了抵御人工智能的防线

Image by Glashier, from Freepik

芝加哥大学的“釉彩”和“夜影”为艺术家们提供了抵御人工智能的防线

阅读时间: 1 分钟

急着走?这里有快速事实!

  • Glaze和Nightshade保护艺术家的作品免受未经授权的AI训练使用。
  • Glaze对图像进行掩蔽,以防止AI复制艺术家的风格。
  • Nightshade通过添加“有毒”的像素来干扰AI,这些像素会破坏训练数据。

艺术家们正借助GlazeNightshade这两款由芝加哥大学SAND实验室的Ben Zhao及其团队开发的工具,反击对艺术家作品的剽窃行为。据麻省理工科技评论今日报道。

这些工具旨在保护艺术家的作品不被未经同意就用来训练AI模型,这种做法许多创作者都视为盗窃。据麻省理工称,自2023年3月发布以来,Glaze已被下载超过400万次,它能通过添加微妙的变化来遮蔽图像,从而阻止AI学习艺术家的风格。

正如麻省理工学院(MIT)所述,夜蔽(Nightshade),作为一种“攻击性”的对等物,通过引入不可见的改变进一步破坏了人工智能模型,如果在培训中使用,可能会破坏人工智能的学习。

这些工具的灵感来自艺术家对生成型人工智能迅速崛起的担忧,这种人工智能常常依赖在线图片来创作新作品。麻省理工学院报告,奇幻插图画家Karla Ortiz和其他创作者表达了对失去生计的恐惧,因为人工智能模型在未经允许或付款的情况下复制了他们独特的风格。

对于艺术家来说,在线发布作品对于提高知名度和收入至关重要,然而,许多人考虑删除他们的作品,以避免被用于AI训练的数据抓取,正如麻省理工学院(MIT)指出的,这种行为会阻碍他们的职业生涯。

夜shade在Glaze推出一年后推出,根据MIT的报告,它提供了更为强硬的防御措施。通过在图像中添加“有毒”的像素,它会打乱AI的训练,导致如果这些图像被抓取,模型会产生扭曲的结果。

夜茄的象征效应在艺术家中引起了共鸣,他们将其视为诗意的正义:如果他们的作品被用于AI训练的话,就有可能破坏那些利用它的系统。

麻省理工学院指出,这些工具一度受到一些质疑,因为艺术家最初担心数据隐私问题。为了解决这一问题,SAND实验室发布了一种可以离线操作的Glaze版本,确保没有数据传输,与那些警惕被利用的艺术家建立信任。

最近,该实验室通过与Cara合作,扩大了访问权限,Cara是一个禁止AI生成内容的新社交平台,正如麻省理工学院所指出的。

赵先生和他的团队旨在改变个人创作者和AI公司之间的权力动态。

正如麻省理工学院所述,赵希望通过提供保护创意免受大型公司侵犯的工具,赋予艺术家们维护自己作品控制权的力量,以及重新定义AI和知识产权的伦理标准。

这种努力正在逐渐取得成果,但正如麻省理工学院所指出的,一些专家警告说,这些工具可能无法提供万无一失的保护,因为黑客和AI开发者正在寻找绕过这些保障措施的方法。

现在,”Glaze”和”Nightshade”可以免费使用了,赵的SAND实验室继续在捍卫艺术完整性的战斗中引领潮流,对抗日益扩大的AI驱动内容创作的影响力。

你喜欢这篇文章吗?为它打分!
我非常不喜欢 我不怎么喜欢 一般 挺好! 非常喜欢!

我们很高兴您喜欢我们的作品!

尊贵的读者,您介意在Trustpilot上给我们点赞吗?这很快,但对我们来说意义重大。不胜感激!

在Trustpilot上给我们评分
00 用户投票
标题
评论
谢谢你的反馈
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

留下评论

Loader
Loader 显示更多…