如何保护您的作品免受人工智能训练的影响
如何保护你的创意作品免受 AI 训练的侵害
数位自由15分钟2024年6月17日
撰文
Sonja Raath
审核
Lauren Hendry Parsons
审核
Lauren Hendry Parsons
在 Facebook 分享在 Twitter 分享在 Whatsapp 分享在 Telegram 分享通过电子邮件分享
想像一下你最后一次在 Instagram 上分享照片的情景。现在想像一下,同样的照片在未经你同意的情况下就被用来训练 AI 模型。你正在展示最新的图片,但转眼之间,它成为了滋养算法的庞大数据集的一部分。对于专业艺术家来说,这种作品的使用为他们带来了更多的困扰。
AI 的兴起带来了惊人的进展,但也伴随著代价。全球的创作者发现他们的作品经常被重新利用,通常甚至不知情或未经他们许可。而这个问题不仅仅涉及隐私,它还关乎所有权、同意及利用人类创造力来教导机器的道德问题。
让我们一起探讨这一数位困境的复杂性。我们将揭示 AI 公司用来训练其模型的方法,凸显选择退出的挑战,并提供实际步骤以保护你的创意作品,避免成为另一个数据点。 ExpressVPN 的通讯与倡导主任 Lauren Hendry Parsons 也将对 AI 训练对人们隐私的影响以及这对我们数位未来的意义进行评析。
AI 如何利用用户生成内容进行训练:5 个步骤
AI 训练是一个复杂的过程,需要大量数据来教导机器学习模型如何识别模式、做出决策并生成内容。本质上,你在线上分享的每一件内容都有可能成为这个庞大学习过程的一部分。
这里是它的运作方式:
数据收集: AI 公司从互联网上收集大量的数据,包括公共社交媒体帖子、图片和视频等。数据标注: 收集后,这些数据需要被标注。例如,一张猫的图片需要被标记为猫,以便 AI 学会识别。模型训练: 标注过的数据被输入到 AI 模型中。模型处理数据,学习识别模式并根据所接收的信息进行预测。微调: 此步骤涉及细化 AI 模型的能力,确保它能准确理解和生成内容。这可能需要使用更具体的数据集进行额外的训练。部署: 最后,经过训练的 AI 模型被部署,随时准备执行生成艺术、写作文本或甚至管理内容等任务。AI 训练:版权和所有权问题
虽然 AI 公司收集数据的过程乍看之下似乎无害,但实际情况却要复杂得多且充满争议。公司经常从各种公共在线来源收集数据,包括社交媒体帖子、图片和视频,以训练其 AI 模型。但这些公司如何能够获得这些内容并用于 AI 训练呢?
答案在于用户分享内容的平台的条款和条件。大多数社交媒体平台和在线服务都有服务条款协议,授予它们广泛的权利来使用、修改和分享用户生成的内容。当你注册这些平台时,你可能在不知情的情况下同意了这些条款,其中可能包括允许第三方如 AI 公司访问和使用你的数据。
这种对用户生成数据的广泛使用,理所当然地引发了重大的版权和所有权问题。在 AI 生成艺术 崭露头角的时候,这些问题首次成为焦点。像 DALLE 和 Midjourney 这样的 AI 模型通过学习大量现有艺术的数据集,可以生成惊人的原创艺术作品。然而,这些创作的原创性值得商榷,尤其是在这些模型未经艺术家的许可而受到版权保护的作品训练的情况下。
海豚加速器官方艺术家们认为,这种做法侵犯了他们的知识产权。利用他们的作品来训练 AI 模型,然后创造出类似的艺术品,可以削弱他们原创作品的价值。这个问题使得所有权和创作权的辩论成为焦点,突显了 AI 训练带来的道德困境。
Meta 的 AI 训练争议
在有关 AI 训练和版权问题的辩论持续进行的同时,最近与 MetaInstagram、Facebook 和 Threads 的母公司有关的争议使这些问题变得更加突出。这家 科技巨头最近因计划使用来自其平台的内容来训练 AI 模型而受到关注,该计划将从 2024 年 6 月 26 日开始。这一做法引发了强烈反对,特别是因为用户在试图选择退出时的困难。
在欧洲联盟EU,通用数据保护条例GDPR为用户提供了选择退出的方法。然而,Meta使这一过程变得不必要地复杂。发送给用户的通知中出现了突出的关闭按钮,而实际的选择退出链接则隐藏在细小、难以看到的文字中。
即使用户设法找到正确的链接,他们也会面临繁琐的表单,需要提供个人信息和选择退出的理由,增加了额外的麻烦和阻碍。
在全球其他地方,情况甚至更加艰难。如果用户不在欧盟内,他们选择退出自己的数据用于 AI 训练的选择将非常有限。尽管 Meta 允许某些第三方数据使用的选择退出方式,但这些通常不会被广泛宣传。
尽管 Meta 宣称遵守当地法律并坚称 AI 训练对于开发包容性功能至关重要,但这次反弹凸显出更广泛的问题:缺乏透明度以及行使用户权利的困难。
Adobe 令人质疑的服务条款更新
除了 Meta 的 AI 训练争议,Adobe 最近也遭受了类似的反弹 ,原因是其服务条款的最新更新。当 Adobe 用户误解了新语言时,反响迅速增强,他们担心自己的未发表的作品可能被用来训练 Adobe 的 AI 模型,包括其 Firefly AI。
混淆的源头是更新的服务条款第 22 段中的一句话:我们的自动系统可能会分析你的内容和创意云客户字体使用机器学习等技术来改善我们的服务和软体,以及用户体验。这种模糊的措辞使得用户认为他们的私有和未发表的作品存在被用于 AI 训练的风险。
Adobe 在一篇部落格文章中解释了对此问题的关注,说明该政策的这部分并不新颖,主要涉及对非法内容的管理和防止垃圾信息或钓鱼行为的产生。公司向用户保证,他们的 AI 模型并不以个人、未发表的内容进行训练。然而,尽管有这些保证,最初的含糊更新导致了 Adobe 创意社区中广泛的恐惧和不信任。
AI 训练的黑暗面
与 AI 训练有关的问题也可能变得更加黑暗。一个可能性是在数据集中包括儿童的图片无论是无意还是故意。例如,在 6 月初,人权观察组织报导超过170张来自巴西的儿童图片和个人详细信息被纳入一个开源数据集中该数据集包括数十亿张图片,而未经他们的知情或同意,这些图片中的一些早在1990年代中期便已经被拍摄,来自个人博客、孕妇网站和观看量不高的YouTube视频。
该数据集背后的组织 LAION 随后在报告后采取了措施以移除被标记的图片。然而,这一情况引发了重大担忧,因为儿童无法进行知情同意,将他们的图片用于 AI 训练无视了他们的自主权和隐私。在全球范围内,保护儿童图片在 AI 训练中的法律框架常常不足,让他们面临严重风险,包括AI生成的儿童性虐待材料CSAM和深伪技术的利用。
而且,儿童并不是唯一面临风险的弱势群体。边缘社区,如种族少数群体和低薪工作者,同样受到不成比例的影响。AI 系统通常反映社会中的偏见,这些偏见存在于其培训数据中,可能导致招聘、贷款和执法中的歧视行为。
另一个令人担忧的问题是,在 AI 训练数据集中使用非自愿的明确内容,例如报复色情。这种数位虐待对受害者的情感和心理健康产生严重影响。未经授权将这类内容纳入训练数据集只会加剧其传播和滥用,为保护个人的隐私和尊严带来艰巨的挑战。
社交媒体平台、创作应用和其他数位空间是内容创作者期望拥有一定控制和所有权的地方,Hendry Parsons 解释道。将这些图片重新用于 AI 训练引发了严重的道德和法律问题。从复杂的选择退出过程到模糊的政策更新,再到如今对弱势群体的潜在利用,很显然,AI 训练实践需要更严格的监管。
我们需要更严格的数据保护法律和更好的执行来保护每个人,尤其是弱势群体。人们应该知道,他们的数据不会在未经同意的情况下被使用,公司必须对其做法保持透明。
了解你的法律权利和选择
在这个复杂且经常不透明的 AI 和数据使用世界中,了解你的法律保护比以往任何时候都重要。随著 AI 不断演进,了解自己的权利可以帮助你保护创意作品和个人数据,防止被误用。
欧洲的 GDPR
GDPR 是全球最严格的数据保护法之一,旨在把控制权还给欧盟公民。如果你居住在欧洲,下面是它如何保护你的数据:
数据访问和控制: 根据 GDPR 第 15 条,你可以请求访问组织持有的个人数据。这意味著你可以查明哪些数据被收集,如何使用,以及与谁共享。这对 AI 训练尤其相关,因为它使你了解你的数据是否以何种方式被用于训练 AI 模型。删除权: 也称为被遗忘权,这允许你在某些情况下请求删除个人数据,例如当数据不再必要时,或当你撤回同意时。如果你发现自己的数据在未经同意的情况下被用于 AI 训练,你可以请求删除。同意: GDPR 规定组织在处理你的数据之前必须获得明确和知情的同意。这确保你清楚且同意自己的数据使用,这必须是自愿的,没有任何强迫。使用你的数据进行 AI 训练的公司必须获得你的明确许可。透明度: 公司必须对其数据处理活动包括 AI 训练保持透明,并提供有关他们如何使用你的数据的明确和可访问的信息。理解合法利益GDPR 中的一个关键概念是合法利益,这使公司在能够证明其利益未超越你的权利和自由的情况下,可以在未获得明确同意的情况下处理你的数据。对于 AI 训练而言,这意味著公司在相信其使用情景合理的情况下,可能在未获得直接同意的情况下使用你的数据。这包括:
平衡测试: 公司必须进行平衡测试,以衡量其利益与你的权利和自由。此测试评估为 AI 训练处理数据的好处是否超过对你隐私的潜在影响。透明度和问责制: 即使在合法利益的情况下,公司仍需对其数据处理活动保持透明。这意味著他们应该告知你如何使用你的数据、为何需要这样做以及有何保障措施来保护你的隐私。反对权: 你有权反对在合法利益下对你的数据进行处理。如果你提出异议,公司必须停止处理你的数据,除非他们能证明有压倒性的合法理由超越你的利益、权利和自由。在 EU 以外的地方,数据保护法的统一性较低。例如,在美国,数据隐私由联邦和州法律的组合规范,这些法律可能不如 GDPR 完善。然而,它们确实提供了一些相关的保护。
加州消费者隐私法案CCPA
CCPA 是美国最强的州级隐私法之一。如果你是加州居民,它提供了几项重要的保护措施:
透明度和访问权: 你有权知道收集了哪些个人数据及其用途。你可以请求访问这些数据,类似于 GDPR 的规定。这一权利有助于你了解自己的数据是否被用于 AI 训练。删除权: 你可以请求删除个人数据,使你能更好地控制公司保留的资讯。如果你的数据在未经同意的情况下用作 AI 训练,你可以请求删除。选择退出销售: CCPA 允许你选择不让你的数据被出售给第三方,增强了你对数据使用的控制。如果数据经纪人将你的数据供应给 AI 公司,这一点尤其重要。反歧视: 公司不得对你因为行使 CCPA 权利而歧视,确保你可以自由保护隐私而不受负面后果。然而,CCPA 在某些方面并未达到 GDPR 的标准,例如更正不准确数据的权利。合法利益的概念在联邦数据保护法律中也并没有直接对应。
此外,诸如维吉尼亚州、科罗拉多州和犹他州等其他州也已制定了自己的数据隐私法,但这些法律通常提供的保护相对较窄。这就是为什么了解自己所在州的具体法律及其如何保护你的数据至关重要。
8 种保护你的创意工作的方式
了解你的法律权利是一个重要的基础,但这只是第一步。要真正保护你的创意作品免受未经授权的 AI 训练,你需要采取主动和实际的步骤。以下是你可以加强数位存在的方法:
1 使用透明政策的平台
在选择平台时,选择那些清楚说明其数据使用政策并提供简便的选择退出选项的平台。始终阅读细则,以了解你的数据将如何被利用。选择那些定期更新数据政策并确保保持透明的平台。
2 检查和调整你的隐私设置
定期审核你在社交媒体平台上的隐私设置。这意味著要深入设置菜单,查看谁可以查看和互动你的内容。社交媒体巨头如 Facebook、Instagram 和 X 提供详细的指南来帮助你调整这些设置。通过限制你的内容对意外受众的曝光,你可以大大降低其未经同意被使用的风险。
3 在可能的情况下选择退出
熟悉各平台提供的选择退出流程。有些平台允许你选择不与第三方共享数据,这有助于保护你的数据不被用于 AI 训练。此外,考虑使用帮助你退出可能将你的信息出售给 AI 公司的数据经纪人的服务。这一步骤有助于你保持对数据流向的控制。
4 鉴别分享内容的风险
在公共场合分享内容时要三思而后行。利用隐私设置限制对你的内容的访问,只与值得信任的人共享。对于特别敏感或有价值的内容,可以使用私人小组或加密消息服务。为你的图片加水印或使用低解析度版本来阻止未经授权的使用水印不仅表明你的所有权,还减少了他人滥用的意愿。
5 使用元数据和版权声明
将元数据和版权声明嵌入到你的数位档案中。这可以包括你的名字、日期和使用权限信息。元数据作为额外的保护层,清楚地声明你的作品所有权,便于追踪和证明著作权。
6 监控和追踪你的内容
使用旨在监控网路上未经授权使用你内容的工具和服务。像 Google Alerts、Pixsy 和 TinEye 这样的服务可以帮助你追踪你的图片或其他数位作品在线上的出现。定期监控使你能够快速解决任何未经授权的使用并采取适当行动。
7 加密敏感内容
对于特别敏感的作品,考虑使用加密工具来保护你的文件。加密添加了额外的安全层,确保只有拥有解密密钥的人才能访问你的内容。这一点对于可能非常有价值或在被滥用的情况下能造成重大损害的作品特别重要。
8 使用法律工具和举报机制
如果你在 EU,可以利用 GDPR 向滥用你数据的公司提出投诉。GDPR 提供了一种正式的机制来应对数据隐私违规行为,为你提供追究公司责任的途径。在美国,则可向联邦贸易委员会FTC举报违规行为。
AI 和创意作品的未来
AI 的崛起带来了重大进步,但对于那些作品可能未经同意而被使用的创作者来说,也带来了巨大的挑战。展望未来,AI 与创意作品之间的关系将变得更加复杂,将呈现出新的机遇和持续的伦理困境。
AI 的持续发展
AI 以空前的速度不断演进。从生成超现实的图片和视频到作曲以及写作,AI 模型的能力快速扩展。对于创作者而言,这意味着有新的工具可以增强他们的工作、简化他们的流程并发掘新的创作潜力。然而,这些进展伴随著一个重要的前提:在训练 AI 的过程中需要透明度和同意。
AI 在创意产业中的潜力巨大,但我们必须寻求平衡,Hendry Parsons 说。创作者应该拥有关于他们作品如何被使用的控制权,他们的同意应该是 AI 训练过程的根本要求。
增强规范和道德标准的必要性
目前有关 AI 训练的监管框架是片段式和不一致的,让许多创作者面临未经授权使用其作品的风险。针对 AI 训练、同意和所有权的复杂问题的全面立法是迈向更好未来的重要步骤。
Hendry Parsons 强调:我们需要加强规范,优先考虑创作者的权利。这包括对数据使用、同意和透明度提出明确指导。这不仅是保护个人权利的问题,更是促进尊重人类创造力的道德 AI 生态系统的关键。
此外,制定 AI 的道德标准同样至关重要。这些标准应以公正、问责和透明的原则为指导。通过遵循这些原则,AI 公司可以与创作者和更广泛的公众建立信任,确保技术进步不以道德完整性为代价,Hendry Parsons 补充道。
提高意识是赋予权力的第一步。创作者必须保持警觉,倡导自己的权利。透过团结并要求 AI 公司保持透明和道德行为,我们能够塑造一个创新和创意和谐共存的未来。
使用最佳 VPN 保护你的隐私获得 ExpressVPN
30天退款保证
采取第一步,保护自己在网上的安全。无风险试用 ExpressVPN。获得 ExpressVPN
VPN 是什么?
标签AISonja Raath
我喜欢标签,因为它们看起来像松饼,还有我的双关语,和观看不寻常动物之间的友谊的视频。并不一定遵循这个顺序。
你喜欢你所读到的内容吗?点赞这篇文章。或分享你的看法!
6
0