AI 与创作者之间的囚徒困境
随着AI技术的飞速发展,AI与创作者之间的关系正陷入一种复杂的囚徒困境。AI公司通过大量抓取创意内容来训练模型,而创作者则面临着作品被无偿使用和版权被侵犯的困境。这种关系不仅损害了创作者的利益,也对整个创意生态造成了侵蚀。本文将通过博弈论的视角,深入探讨AI公司与创作者之间的这种困境,分析其背后的经济和法律问题,并探讨可能的解决方案,以期找到一个双方都能从中受益的平衡点。
刚刚我介绍了 OpenAI 的新图像生成器如何在一夜之间将互联网变成一个以宫崎骏为主题的游乐场。
当我们见证 GPT-4o 的图像生成器从公告(3 月 25 日)演变为病毒式的宫崎骏式趋势(3 月 28 日)到免费层访问(3 月 31 日)再到水印测试(4 月 6 日)时,一个更黑暗的模式已经浮出水面。
我们正在目睹一个经典的囚徒困境实时上演。
像 OpenAI 这样的 AI 公司从使用创意内容来训练他们的模型中受益匪浅,而个人创作者发现自己无法有效地扣留他们的工作或要求公平的报酬。纳什均衡严重有利于科技公司,处处系统性地贬低创造性劳动力。
这不仅仅是破坏,而是侵蚀。价值在这种关系的每个层面上都在消失。这个循环既全面又自我强化:
窃取的训练数据→侵犯版权的输出→自动化的创意任务→对原创作品的欣赏质量下降;
每一次回合都会将更多的权力和经济价值转移到 AI 公司,而不是创作者。
时间不站在创作者这边。
每天都有更多内容被抓取,更多的模型被训练,更多的创意工作消失,越来越多的观众习惯于消费 AI 生成的内容,而不质疑其来源。
这种情况持续的时间越长,重置余额就越困难。
虽然合作对每个人都有好处,但 AI 公司和创作者被困在零和游戏中,个人激励推动相互毁灭。该展望严重青睐科技公司,同时系统性地贬低了创造性劳动力的价值。与过去的颠覆不同,这次颠覆不仅改变了创造性工作的发生方式,而且侵蚀了其经济基础。
如果有 RESET 按钮,我们现在应该按下它。
我们的目标是在分析游戏中的关键参与者时,剥去 AI 公司和大公司 CEO 使用的外表,考虑他们的赔率,并建议我们如何找到这个难以捉摸的 RESET 按钮,以造福创意生态系统中或周围的每个人。
囚徒困境是博弈论中的一个思想实验。
我不会开始进行数学运算,所以不用担心。囚徒困境代表了一个基本模式,即决策应该由合作还是自身利益驱动。
在经典的囚徒困境中,两名嫌疑人被逮捕并被关押在不同的牢房中,无法进行交流。每个囚犯都得到同样的交易:通过作证来背叛你的同伙,或者保持沉默。以下是三种可能的情况:
你觉得囚犯们会合作吗?
不,每个囚犯的理性选择,无论对方做什么,都是背叛。
想象一下你是囚犯之一。让我们来看看您的选择。
这就形成了所谓的纳什均衡:除非其他人也愿意改变他们的策略,所以他们都不断选择更糟糕的选项(比如不合作),即使如果他们一起工作会更好。
想想冷战时期的军备竞赛。美国和苏联都最好将军费开支用于国内繁荣。但双方都无法解除武装,而对方仍然单方面持有武器。因此,两国在武器上投入了数万亿,实现了不稳定且代价高昂的对峙。
或者考虑一下气候变化。每个国家都会从稳定的气候中受益,但每个国家都有继续排放温室气体的动机。结果如何?集体未能解决生存威胁。
简单来说,我们都会失去一点,但没有人愿意成为那个合作而别人不合作的傻瓜。
也就是说,至少两名囚犯在互相告密后服了相同的刑期。从某种意义上说,这仍然是公平的游戏。不幸的是,我们今天将要讨论的内容中没有什么是公平的。
囚犯 A (AI 公司):
在风险投资压力、对市场份额的痴迷和对颠覆的准宗教信仰的推动下,一切都是无力的。
无视他们的目标 —现在扩大规模,以后货币化,也许暂时处理道德/法律后果。作为玩家,他们确实可以选择:
囚犯 B(创作者):
分散、多样化,从个体艺术家到大型工作室和出版社。他们希望获得公平的报酬、认可、对作品使用的控制权以及可持续的未来。他们将 AI 公司视为窃取其知识产权的小偷,并害怕被 AI 模型取代。因此,这是一个生存威胁。
创作者集体也有选择:
在真正的纳什均衡中,没有单个玩家可以通过单方面改变他们的策略来提高他们的位置。
这在现实生活中又一次表现得如此之好:
单个 AI 公司
主导策略是使用所有可用内容来最大限度地提高 AI 性能。当缩放定律仍然适用时,大规模抓取创意数据提供了一定程度的回报(更多的训练数据 = 更好的模型)。
几个因素进一步加强了这种平衡:
因此,结果是当前的纳什均衡严重有利于人工智能公司。AI 公司叛逃(未经许可获取内容),而创作者无法有效保护(扣留其内容)。
同样,这是系统性的。两组中的任何一个参与者都不能做出改变来影响等式。
为了打破这种停滞不前的局面,我们必须改变游戏规则。例如,调整奖励、设置更好的协调方式或为不良行为承担后果。
这就是为什么使用博弈论如此有用。通过游戏,我们研究了如果我们希望真正的解决方案奏效,而不是让我们的论点停留在表面水平上,就需要改变的更深层次的激励措施。
真正的挑战不仅仅是公平或道德。这是关于构建一个新系统,在这个系统中,协同工作对每个人(AI 公司和创作者)都更有意义。只有有一个具有正确激励和惩罚的制度,公平才会随之而来。
时间因素
与经典的囚徒困境不同,这种对峙有一个有利于一方的滴答作响的时钟。每过一天,AI 模型都会不断改进,对新创意输入的依赖程度会降低。创作者建立公平条款的窗口正在迅速关闭。
这就像一场国际象棋游戏,每隔几回合就有一名玩家获得一步额外的棋步。最终,优势变得不可逾越。
AI 公司知道监管机构需要数年时间才能采取行动,而他们的爬虫机器人每秒都在无情地抓取内容,吞噬更多、更高质量、更稀有的材料来满足他们黑洞般的胃口。这就是为什么等待完美的监管解决方案或希望市场自然而然地自我纠正对创作者来说是一个失败的策略。
当这些过程发挥作用时,游戏实际上可能已经结束了。
那么我们能做些什么呢?我们如何打破这种破坏性的平衡,创造一个人工智能和人类创造力相互增强而不是相互破坏的未来?
答案在于改变这个游戏的规则。
我们需要寻找创造性的方法来创造新的结构和激励措施,使合作成为双方的理性选择。我们还需要让具有深厚技术知识的人参与进来,他们能够帮助我们打这场仗。
如果你知敌知己,就不必担心百战百战的结果。如果你了解自己但不了解敌人,那么每获得一次胜利,你也会遭受一场失败。如果你既不了解敌人也不了解自己,你将在每场战斗中屈服。— 孙子,《孙子兵法》
让我们探讨三种可以重置平衡的方法。
既然 “漂亮,请停止窃取我们的工作” 并不是特别有效,那么我们如何打破这个僵局呢?有三种越狱选项,每种选项都有自己的潜力和局限性。
当立法者辩论和创作者抗议时,AI 研究实验室正在发生一些积极的事情。研究人员正在开发新的方法,这些方法可能会从根本上改变我们讨论过的博弈论动态。
想象一下,如果 AI 公司可以构建强大的模型,而无需抓取整个互联网,或者至少不需要比他们已经拥有的更多?也许对新内容的胃口可能会受到限制?
更智能的模型设计。
新的架构不再使用当今的大型语言模型 LLMs 或基于大量数据训练的扩散模型,而是简化了这一过程。
它们可以更有效地学习语言模式,这意味着它们可以像传统模型一样理解文本,但示例要少得多。它们处理文本的方式不同,处理速度快,总体使用的资源更少。将他们视为更专注的学习者,通过学习更少的材料来获得相同的成绩。
合成数据生成
AI 模型可以生成自己的训练材料,而不是依赖真实世界的文本。强大的 AI 可以创建示例、故事或对话来教授其他 AI。想想作者虚构的场景来帮助学生理解一个主题,而不是使用现实世界的文本。
检索增强生成(RAG)
AI 可以在需要时简单地查找内容,而不是记住人类的全部创造力,从根本上改变训练要求,并有可能实现适当的归属或许可。该模型不需要在内部存储受版权保护的材料 — 它只需在需要时在外部引用它。
基于区块链的归因和许可??
Story (迄今已筹集 1.4 亿美元) 提出了一种有趣的方法,用于构建一个跟踪知识产权所有权的区块链网络。2025 年 1 月,Story 宣布与 Stability AI 合作,使创作者能够应对通过 AI 生成的创意作品进行归因、跟踪和货币化的挑战。
Story 将此解决方案称为“无形资产”,因此可以在 AI 生态系统中的任何地方对其进行跟踪和控制。这使得对与 AI 模型一起使用的创意作品的 IP 进行归属和许可成为可能,包括衍生作品的收入流。
也就是说,上述解决方案存在一些基本限制:
将平台从 AI 自助餐转变为战略据点
将互联网想象成一个资源丰富的大陆,人工智能公司在这里像殖民大国一样运作,在不补偿当地人的情况下榨取价值。内容平台正在成为控制其边界、征收关税并形成战略联盟的主权领土。随着创作者迁移到治理最严格的地区,权力的天平从开采转向谈判。
阻止数字寄生虫 — AI 爬虫
AI 网络爬虫机器人是寄生虫的数字等价物。他们榨取价值,但未为维持他们的生态系统做出贡献。就像生物寄生虫一样,它们已经变得非常擅长逃避防御。
本文由 @来学习一下 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务