AI 与创作者之间的囚徒困境

人人都是产品经理

  ·  

2025-04-15 08:22:11

  ·  

0次阅读

随着AI技术的飞速发展,AI与创作者之间的关系正陷入一种复杂的囚徒困境。AI公司通过大量抓取创意内容来训练模型,而创作者则面临着作品被无偿使用和版权被侵犯的困境。这种关系不仅损害了创作者的利益,也对整个创意生态造成了侵蚀。本文将通过博弈论的视角,深入探讨AI公司与创作者之间的这种困境,分析其背后的经济和法律问题,并探讨可能的解决方案,以期找到一个双方都能从中受益的平衡点。

刚刚我介绍了 OpenAI 的新图像生成器如何在一夜之间将互联网变成一个以宫崎骏为主题的游乐场。

当我们见证 GPT-4o 的图像生成器从公告(3 月 25 日)演变为病毒式的宫崎骏式趋势(3 月 28 日)到免费层访问(3 月 31 日)再到水印测试(4 月 6 日)时,一个更黑暗的模式已经浮出水面。

我们正在目睹一个经典的囚徒困境实时上演。

像 OpenAI 这样的 AI 公司从使用创意内容来训练他们的模型中受益匪浅,而个人创作者发现自己无法有效地扣留他们的工作或要求公平的报酬。纳什均衡严重有利于科技公司,处处系统性地贬低创造性劳动力。

这不仅仅是破坏,而是侵蚀。价值在这种关系的每个层面上都在消失。这个循环既全面又自我强化:

窃取的训练数据→侵犯版权的输出→自动化的创意任务→对原创作品的欣赏质量下降;

每一次回合都会将更多的权力和经济价值转移到 AI 公司,而不是创作者。

时间不站在创作者这边。

每天都有更多内容被抓取,更多的模型被训练,更多的创意工作消失,越来越多的观众习惯于消费 AI 生成的内容,而不质疑其来源。

这种情况持续的时间越长,重置余额就越困难。

虽然合作对每个人都有好处,但 AI 公司和创作者被困在零和游戏中,个人激励推动相互毁灭。该展望严重青睐科技公司,同时系统性地贬低了创造性劳动力的价值。与过去的颠覆不同,这次颠覆不仅改变了创造性工作的发生方式,而且侵蚀了其经济基础。

如果有 RESET 按钮,我们现在应该按下它。

我们的目标是在分析游戏中的关键参与者时,剥去 AI 公司和大公司 CEO 使用的外表,考虑他们的赔率,并建议我们如何找到这个难以捉摸的 RESET 按钮,以造福创意生态系统中或周围的每个人。

01 囚徒困境以及为什么背叛是每个人最好的选择

囚徒困境是博弈论中的一个思想实验。

我不会开始进行数学运算,所以不用担心。囚徒困境代表了一个基本模式,即决策应该由合作还是自身利益驱动。

在经典的囚徒困境中,两名嫌疑人被逮捕并被关押在不同的牢房中,无法进行交流。每个囚犯都得到同样的交易:通过作证来背叛你的同伙,或者保持沉默。以下是三种可能的情况:

  • 如果双方都保持沉默(合作),他们都会被轻判;
  • 如果双方都背叛了对方(相互背叛),他们都会被判处适度的刑罚;
  • 然而,如果一个人背叛而另一个人保持沉默,那么背叛者就会逍遥法外,而沉默的囚犯则会被判处重刑;

你觉得囚犯们会合作吗?

不,每个囚犯的理性选择,无论对方做什么,都是背叛

想象一下你是囚犯之一。让我们来看看您的选择。

  • 如果你的同伙保持沉默,背叛就会释放你,而不是轻判;
  • 如果你的同伙背叛了你,你的背叛会导致中度的判决而不是重刑;

这就形成了所谓的纳什均衡:除非其他人也愿意改变他们的策略,所以他们都不断选择更糟糕的选项(比如不合作),即使如果他们一起工作会更好。

想想冷战时期的军备竞赛。美国和苏联都最好将军费开支用于国内繁荣。但双方都无法解除武装,而对方仍然单方面持有武器。因此,两国在武器上投入了数万亿,实现了不稳定且代价高昂的对峙。

或者考虑一下气候变化。每个国家都会从稳定的气候中受益,但每个国家都有继续排放温室气体的动机。结果如何?集体未能解决生存威胁。

简单来说,我们都会失去一点,但没有人愿意成为那个合作而别人不合作的傻瓜。

也就是说,至少两名囚犯在互相告密后服了相同的刑期。从某种意义上说,这仍然是公平的游戏。不幸的是,我们今天将要讨论的内容中没有什么是公平的。

囚犯 A (AI 公司):

在风险投资压力、对市场份额的痴迷和对颠覆的准宗教信仰的推动下,一切都是无力的。

无视他们的目标 —现在扩大规模,以后货币化,也许暂时处理道德/法律后果。作为玩家,他们确实可以选择:

  • 合作:通过寻求创作者的同意、就许可达成一致,并为创意内容提供公平的报酬;
  • 缺陷:未经许可或补偿抓取内容;

囚犯 B(创作者):

分散、多样化,从个体艺术家到大型工作室和出版社。他们希望获得公平的报酬、认可、对作品使用的控制权以及可持续的未来。他们将 AI 公司视为窃取其知识产权的小偷,并害怕被 AI 模型取代。因此,这是一个生存威胁。

创作者集体也有选择:

  • 他们可以“合作”(通过让他们的内容可用于 AI 训练),或者
  • 他们可能会 “背叛”(通过扣留内容或要求赔偿);

02 AI 公司与创作者之间的平衡

在真正的纳什均衡中,没有单个玩家可以通过单方面改变他们的策略来提高他们的位置。

这在现实生活中又一次表现得如此之好:

  • 在这种环境中,创作者几乎没有动力或权力来拒绝他们的工作。为了谋生或赚取观众,作家和艺术家仍然必须在线发布他们的内容(通常是免费或在开放平台上),这不可避免地会使其暴露在爬虫机器人面前。如果一个创作者选择退出或支付所有费用,它几乎不会削弱 AI 模型的庞大训练语料库——当 AI 对数百万其他人的作品进行训练时,它们会牺牲影响力或收入。因此,从理性上讲,尽管 AI 公司有能力“搭便车”他们的内容,但大多数公司还是继续公开分享作品。
  • 面临协调问题:大多数创作者是个体经营者或自由职业者,无法用一个声音进行活动。
  • 即使一些创作者扣留他们的内容或要求赔偿,许多其他创作者也会不这样做(要么是自愿的,要么是无能的),让 AI 公司能够获得足够的训练数据。
  • 他们在这种均衡中的“回报”越来越差:议价能力下降,收入下降压力,以及他们的创造性劳动被无偿侵占的感觉。
  • 诉讼或集体行动仍处于起步阶段且不确定,因此现状仍然存在。至关重要的是,这种均衡在社会上是次优的——创造力的长期动力。

单个 AI 公司

主导策略是使用所有可用内容来最大限度地提高 AI 性能。当缩放定律仍然适用时,大规模抓取创意数据提供了一定程度的回报(更多的训练数据 = 更好的模型)。

  • 协商和为内容付费会减慢您的速度并增加成本。如果一家 AI 公司决定许可内容,则会产生额外费用并延迟产品发布。而自由抓取的竞争对手可以更快地移动、使用更多数据进行训练并花费更少。在速度和规模决定市场主导地位的比赛中,没有公司愿意成为唯一一家公平竞争的公司。结果是**,没有一家 AI 公司敢单方面阻止**。

几个因素进一步加强了这种平衡:

  • 存在信息不对称。创作者通常不知道他们的内容何时被用于训练 AI 系统。
  • 存在权力不平衡。个人创作者缺乏资源来监控或执行针对大型科技公司的权利。
  • 这是一个集体行动问题。即使大多数创作者都想保留他们的内容,在数百万人之间协调这样的行动也几乎是不可能的。

因此,结果是当前的纳什均衡严重有利于人工智能公司。AI 公司叛逃(未经许可获取内容),而创作者无法有效保护(扣留其内容)。

同样,这是系统性的。两组中的任何一个参与者都不能做出改变来影响等式。

为了打破这种停滞不前的局面,我们必须改变游戏规则。例如,调整奖励、设置更好的协调方式或为不良行为承担后果。

这就是为什么使用博弈论如此有用。通过游戏,我们研究了如果我们希望真正的解决方案奏效,而不是让我们的论点停留在表面水平上,就需要改变的更深层次的激励措施。

真正的挑战不仅仅是公平或道德。这是关于构建一个新系统,在这个系统中,协同工作对每个人(AI 公司和创作者)都更有意义。只有有一个具有正确激励和惩罚的制度,公平才会随之而来。

时间因素

与经典的囚徒困境不同,这种对峙有一个有利于一方的滴答作响的时钟。每过一天,AI 模型都会不断改进,对新创意输入的依赖程度会降低。创作者建立公平条款的窗口正在迅速关闭。

这就像一场国际象棋游戏,每隔几回合就有一名玩家获得一步额外的棋步。最终,优势变得不可逾越。

AI 公司知道监管机构需要数年时间才能采取行动,而他们的爬虫机器人每秒都在无情地抓取内容,吞噬更多、更高质量、更稀有的材料来满足他们黑洞般的胃口。这就是为什么等待完美的监管解决方案或希望市场自然而然地自我纠正对创作者来说是一个失败的策略。

当这些过程发挥作用时,游戏实际上可能已经结束了。

那么我们能做些什么呢?我们如何打破这种破坏性的平衡,创造一个人工智能和人类创造力相互增强而不是相互破坏的未来?

答案在于改变这个游戏的规则。

我们需要寻找创造性的方法来创造新的结构和激励措施,使合作成为双方的理性选择。我们还需要让具有深厚技术知识的人参与进来,他们能够帮助我们打这场仗。

如果你知敌知己,就不必担心百战百战的结果。如果你了解自己但不了解敌人,那么每获得一次胜利,你也会遭受一场失败。如果你既不了解敌人也不了解自己,你将在每场战斗中屈服。— 孙子,《孙子兵法》

让我们探讨三种可以重置平衡的方法。

既然 “漂亮,请停止窃取我们的工作” 并不是特别有效,那么我们如何打破这个僵局呢?有三种越狱选项,每种选项都有自己的潜力和局限性。

  • 导致这个问题的技术也会是它的解决方案吗?让我们谈谈不需要吞噬整个互联网的高级 AI 模型;
  • 如果你不能单独击败他们,那就联手吧。内容平台如何成为创作者抵御 AI 寄生虫的集体盾牌?
  • 监管框架 — 当所有其他方法都失败时,请律师和政客来。可能出什么问题?

03 先进的 AI 技术 — 摆脱数据饥饿

当立法者辩论和创作者抗议时,AI 研究实验室正在发生一些积极的事情。研究人员正在开发新的方法,这些方法可能会从根本上改变我们讨论过的博弈论动态。

想象一下,如果 AI 公司可以构建强大的模型,而无需抓取整个互联网,或者至少不需要比他们已经拥有的更多?也许对新内容的胃口可能会受到限制?

更智能的模型设计。

新的架构不再使用当今的大型语言模型 LLMs 或基于大量数据训练的扩散模型,而是简化了这一过程。

它们可以更有效地学习语言模式,这意味着它们可以像传统模型一样理解文本,但示例要少得多。它们处理文本的方式不同,处理速度快,总体使用的资源更少。将他们视为更专注的学习者,通过学习更少的材料来获得相同的成绩。

合成数据生成

AI 模型可以生成自己的训练材料,而不是依赖真实世界的文本。强大的 AI 可以创建示例、故事或对话来教授其他 AI。想想作者虚构的场景来帮助学生理解一个主题,而不是使用现实世界的文本。

检索增强生成(RAG)

AI 可以在需要时简单地查找内容,而不是记住人类的全部创造力,从根本上改变训练要求,并有可能实现适当的归属或许可。该模型不需要在内部存储受版权保护的材料 — 它只需在需要时在外部引用它。

基于区块链的归因和许可??

Story (迄今已筹集 1.4 亿美元) 提出了一种有趣的方法,用于构建一个跟踪知识产权所有权的区块链网络。2025 年 1 月,Story 宣布与 Stability AI 合作,使创作者能够应对通过 AI 生成的创意作品进行归因、跟踪和货币化的挑战。

Story 将此解决方案称为“无形资产”,因此可以在 AI 生态系统中的任何地方对其进行跟踪和控制。这使得对与 AI 模型一起使用的创意作品的 IP 进行归属和许可成为可能,包括衍生作品的收入流。

04 技术方法的局限性

也就是说,上述解决方案存在一些基本限制:

  • 即使效率提高,这些模型仍然需要大量的真实数据作为基础,其中可能包括受版权保护的材料。
  • 尽管它们处理信息的方式与 transformer 不同,但这些架构仍然可以记住部分训练数据,从而有可能在输出中复制受版权保护的内容。
  • 这些技术解决方案并不能完全满足权利持有人控制其作品的使用方式或获得报酬的愿望。
  • 所有方法仍然涉及版权以外的各种知识产权,包括数据库权利、商标、商业秘密和道德权利。
  • 区块链解决方案带来了新的复杂性:现有 IP 系统缺乏标准化;区块链记录的法律认可有限;无法容纳版权例外的僵化不变性;实施成本高,将较小的创作者排除在外;被动保护而不是预防性保护。
  • 从博弈论的角度来看,仅靠先进的 AI 技术不太可能打破目前 AI 公司和内容创作者之间的囚徒困境。

将平台从 AI 自助餐转变为战略据点

将互联网想象成一个资源丰富的大陆,人工智能公司在这里像殖民大国一样运作,在不补偿当地人的情况下榨取价值。内容平台正在成为控制其边界、征收关税并形成战略联盟的主权领土。随着创作者迁移到治理最严格的地区,权力的天平从开采转向谈判。

阻止数字寄生虫 — AI 爬虫

AI 网络爬虫机器人是寄生虫的数字等价物。他们榨取价值,但未为维持他们的生态系统做出贡献。就像生物寄生虫一样,它们已经变得非常擅长逃避防御。

本文由 @来学习一下 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务