聚焦|解构“版权陷阱”三重谬误:AI版权陷阱的理论迷思与破局之道

本公众号致力于学术分享,尊重作者,尊重知识产权。若有异议,请随时联系我们,谢谢!
随着人工智能工具的激增,政策制定者正被日益呼吁保护创作者及文化产业免受生成式人工智能带来的攫取性、剥削性乃至存续性威胁。然而仓促应对之际,他们可能陷入版权陷阱——即错误地坚信在新兴技术现实中,版权法仍是支持人类创作者与文化的最佳工具(殊不知其弊大于利)。称之为陷阱,因它或许能满足少数强势利益群体的诉求,却将损害那些最易受其吸引的弱势群体利益;且一旦坠入,实则难以脱身。本文指出当前人工智能论争中陷入版权陷阱的三条路径:其一为有价值即有(财产)权利的谬误;其二主张未经授权的复制行为本质不当;其三是重提艺术家贫困论以扩张版权保护。本文最终呼吁人工智能批判者绕开版权陷阱,抵制其所有权逻辑的诱惑,转而寻求更适宜的路径应对生成式人工智能的风险与危害。
人工智能(AI)正剧烈重塑我们的文化生态。当今AI生成的产物——从文本、图像、视频到音乐与软件代码——皆具人类创作表达的外在特征。表面观之,这些产出与人类作品别无二致;但在文化及法律维度,二者实则迥异。
现代AI技术由此引出了文化生产社会结构的古老诘问,迫使我们重新审视版权法在激励创作活动、调和技术变革对艺术家、作者及其作品市场影响中的合理角色。当AI工具遍及文化各领域,政策制定者亟需保护创作者及文化产业免受生成式人工智能的掠夺性、剥削性乃至存续性威胁。然则在行动仓促与AI炒作及道德恐慌的交织中,他们实则面临坠入版权陷阱的重大风险。
本文旨在阐释版权陷阱的本质,以警示AI批判者勿因实用主义考量滥用版权概念与叙事来对抗AI的野蛮生长。第一部分探讨AI对版权法律政策提出的挑战,聚焦生成式AI系统引发的日益激烈的争议。第二部分剖析诱使人们陷入版权陷阱的假象——即认为版权法可轻易约束AI,进而在新技术现实中保护人类创作者及其作品市场。此陷阱之特性有三:若生效,仅能满足少数强势利益群体的诉求(他们正竭力构建并维护该体系);同时必然损害最易受其吸引的弱势群体利益;更因其具有不可逆性,一旦陷入便难以挣脱。
本部分进而剖析当前AI论争中坠入版权陷阱的三条路径:其一是对任何具文化/社会价值的文本皆须赋予私有专有权的顽固坚持(有价值即有权利谬误);其二是坚称未经授权的复制行为本质不当,故在数字语境下仍应以个体复制行为作为分析管控对象;其三则普遍认为私有版权控制可解决创作者的经济困境,助其获取公平回报与未来生计。这些路径在版权法历史沿革及政策辩论中早已屡见不鲜,此处重提旨在警示其再度引人误入歧途的关节点。
生成式AI的崛起确对创作者、文化及公共利益构成多重威胁,值得高度警惕。然而在重塑未来技术走向的立法进程中,我们更需审慎规避版权陷阱。本文最终敦促AI领域最具洞见的批判者绕开版权陷阱,抵制其诱惑,转而选择更精准直接的路径以消弭其明察之风险与危害。
机器的崛起已然降临,有人宣称,但它们并非作为征服者而来,而是作为创造者登场。相关案例如今已广为人知:经过互联网海量文本数据训练的Chat-GPT,能根据简单指令生成满足多数写作需求的流畅文本。它能模仿文体、复现惯用表达,其逼真程度足以让最敏锐的读者误认为这些文字出自人类之口,而非算法代码的构造。Midjourney基于庞大图像和文本描述数据集,同样能以超越艺术家画笔的速度,将基础文本指令转化为迷人的视觉艺术图像。Mubert AI和谷歌MusicLM等音乐生成工具可通过文本输入创作歌曲与旋律循环,而OpenAI新发布的Sora应用瞬息间便能将文字指令转化为逼真度惊人的视频。IBM的Watsonx代码助手本质上是用代码训练代码以生成新代码。曾属哲学家与科幻作家遥远构想的人造制品,现已成为能生成新制品的创作主体——至少表象如此。我们由此迈入大规模合成创意的新纪元。
版权法将文学、软件、音乐、视觉艺术、戏剧及电影等原创作品的专有权授予创作者,旨在激励创作与传播。面对人工智能的冲击,该领域正陷入自万维网诞生以来最严峻的生存危机,这毫不令人意外。有人预言人工智能将终结版权制度,亦有人担忧版权将扼杀人工智能发展³。二者皆可能成真,但更大概率是均不会发生。然而,双方对彼此可能造成的损害不容低估。
早期关于生成式AI的文献多聚焦于:其日益精密的特性是否应促使我们反思对作者身份本质的固有认知。伊恩·克尔(Ian Kerr)与笔者曾指出,所谓AI作者身份实属范畴谬误——一种关于作者本体论的认知偏差⁴。我们警示道:若将浪漫化的作者与人工智能概念相混淆,便会误把大型语言模型的运算预测过程等同于真正意义上的创作行为。创作本质是社会性对话实践(因而必然是人类的专属活动),故AI生成物实际处于无作者状态,若无法定拟制条款,其本身不可受版权保护。
后续研究中,笔者基于创作即根本性交流行为的同一理念,论证AI训练不构成版权侵权:正如AI绝对无法创作具独创性的表达作品,其同样无法作为受众接收、阅读或欣赏这些作品。机器并非作品意义传递的受众或对象,因此作品被AI使用不涉及基于作者身份衍生的版权权益。训练过程中,数据集内的作品仅被转化为统计数据——意义被解构为数学符号。经标记化提取的信息并非作品的可版权性表达要素。笔者始终主张:即便此过程初步构成侵权,通常亦可适用合理使用(美国)或研究/自学目的之公平交易(加拿大)抗辩⁷。二者皆导向同一结论:使用版权作品训练AI属无需权利人同意的非侵权行为——此乃制定AI技术监管政策、应对其社会文化风险的逻辑起点。
下文将系统性辩护下述复合主张:版权法既不应激励生成式AI的应用,亦不应阻碍其训练发展。但本文不再直接探讨独创性、作者身份、侵权或公平交易等教义问题,转而提出更广义的反版权越位论证:版权法既不适配亦无能力规制生成式AI的开发、训练、部署及使用。强求其担此重任,幻想其可胜任,弊远大于利。
然而现实困境在于:版权法(或其扭曲形态)正日益被援引为应对AI危害的监管工具。
围绕快速演进的人工智能技术,加拿大国家层面的政策讨论最初较少关注版权法及其对生成产物的适用性等学理细节,而更侧重于培育国内AI产业以支撑创新经济,将国家经济定位在这场技术革命的前沿。例如,2017年加拿大率先推出国家人工智能战略,投入大量资金与资源推动AI技术的研发、商业化及应用。因此,当负责《2019年加拿大版权法审查》的委员会关注人工智能时,其核心关切在于助力加拿大在人工智能领域的广阔前景成为现实。委员会曾收到警示:版权法可能阻碍AI发展。正如律师玛雅·马代罗斯向委员会作证时所述:
人工智能通过读取、听取及分析数据进行学习,这些数据可能包含受版权保护的作品,如图像、视频、文本等...
训练过程可能涉及对训练数据的复制,此类复制可能是临时性的——用于提取数据特征后即可销毁...若未获版权人许可,使用受版权保护的作品训练AI系统是否构成侵权尚不明确。即使初始训练出于研究目的,这种不确定性依然存在...此类不确定性将限制AI创新者可用的训练数据质量,而数据集质量直接影响最终训练算法的性能。
时至今日,版权法对AI系统训练及其产出质量造成的阻碍已广为人知。备受瞩目的诉讼与媒体争议使公众充分认识到既有作品在教导AI思考过程中的核心作用。然而值得玩味的是,2019年委员会竟轻易采信了AI面临棘手的版权困境这一观点,并主张通过立法解决。其报告仅简单建议加拿大政府修订《版权法》,为信息分析目的使用作品或其他客体提供便利。
回望过去更令人惊讶的是,当时鲜有证人反对设立信息分析例外条款。仅一位证人主张此类使用需经集体管理组织授权,并提出如今已成普遍呼声的观点:没有理由迫使作者与出版商成为技术开发商的免费供应商——换言之,要求利润微薄的行业去补贴完全有能力向供应商支付公允价格的行业。
委员会关于增设信息分析例外条款(现多称文本与数据挖掘)的建议未被采纳。两年后,加拿大政府反而发起专项公开咨询,就版权与人工智能议题征询意见。其收到的关于AI训练中使用版权作品的陈述可概括如下:
科技行业代表、学者及用户团体普遍主张设立例外条款,明确文本与数据挖掘(TDM)活动使用作品无需额外获取权利人授权。创意产业界则认为新例外条款不可取,这将剥夺权利人在TDM活动中获得公平报酬的权利。
2018至2019年间看似无争议的命题——即版权不应阻碍AI发展,应保障AI系统合法高效训练——到2021年竟演变为特定利益团体与专家的争议性主张,并遭到创意产业界人士一致反对。后者突然强烈关注保障权利人的公平报酬,导致政策立场持续倾斜。
又两年后,加拿大政府再度启动公开咨询,此次聚焦生成式AI时代的版权问题。咨询文件承认核心版权议题未变,但强调加拿大民众应结合生成式AI的实践体验重新审视,并明确注意到部分利益相关方担忧AI对创作者及创意产业的影响已超越版权本身。文件阐明政府旨在平衡双重目标:一方面支持AI及新兴技术的创新投资,另一方面扶持加拿大创意产业,维护《版权法》所确立的创作与投资激励,包括保障权利人从其作品使用中获得充分报酬的权利。
需指出,加拿大《版权法》并未赋予作者或创意产业所谓获得充分报酬的概括性权利。版权仅设定有限的专属权利,允许所有者就特定行为获取市场赋予的价值。更重要的是,咨询文件阐述的利益平衡仅涵盖产业创新投资激励与权利人报酬权,却只字未提版权天平中的公共利益——例如公众对作品传播的权益、用户合法合理使用受保护作品的权利,或容纳事实信息(即数据)的公共领域价值。政府的政策框架表述由此夸大了版权持有者的权利范畴:聚焦产业利益而忽视个人及公众权益,无视加拿大最高法院多次确认的、作为版权平衡核心的用户权利。
身处美国邻邦与欧洲殖民根源的夹缝中,加拿大在版权政策改革领域始终是值得关注的司法管辖区。跨境贸易关系(及经济实用主义)常要求其法律与美国保持协同,而历史与法理脉络又将其引回英国传统。不过,魁北克影响力及渥太华的法语要求似乎强化了其与法国及欧洲大陆政策的亲缘性。当前,美国关于TDM版权合法性的立场仍有待基于转换性合理使用原则的诉讼厘清(该原则与加拿大更具限制性的公平处理原则未必吻合),而所有迹象表明欧洲路径对加拿大的影响正持续增强。
在欧洲,版权制度较少显性体现功利主义,更侧重保护所有者及作者权(le droit dauteur)。《数字单一市场指令》第3条与第4条看似解决了(至少文本层面)AI与版权的争议:第3条为科研机构及文化遗产组织创设TDM例外条款;第4条则要求成员国设立普遍适用的例外条款,允许以文本与数据挖掘为目的复制提取合法获取的作品,但允许权利人通过适当方式明示保留权利选择退出。关键在于,欧盟立法者通过创设这些特定例外条款,实质确认了TDM(及隐含的AI训练过程)属于版权相关活动。且如欧洲版权法惯例,对版权人权利的限制与例外均被严格限定于特定范围。
根据所谓的“布鲁塞尔效应”,仅凭市场力量往往就足以确保欧盟规则管辖跨国公司的全球运营,并最终为国际舞台设定规范。可以肯定的是,在加拿大的版权政策讨论中,规范基准似乎已经发生转变:作为起点,它预设作者和所有者拥有控制其作品用于AI训练的版权权利主张,从而将政策问题转变为如何落实或执行该权利,并且几乎立即转化为如何将该权利货币化。例如,加拿大最新的咨询问卷并未询问对作品被用于AI训练的权利人给予报酬是否适当;而是询问“在文本与数据挖掘(TDM)活动中使用特定作品,何种水平的报酬是适当的?”它并未询问是否应纳入允许TDM活动的例外条款,而是询问“如果政府拟修订该法案以厘清允许的TDM活动范围,其范围及保障措施应为何?”
此次咨询最终会引发何种监管回应(如有),仍有待观察,但版权及其控制机制似乎很快会被要求发挥更大作用,以限制AI开发者在加拿大利用受版权保护材料训练模型的自由——而一些相关的利益攸关方(interested stakeholders)将会宣称这是加拿大创意产业及其(声称)代表的创作者们的胜利。
此次对近期加拿大版权决策现状的简短探讨,勾勒出了围绕生成式人工智能(generative AI)的跨国政策讨论中的一个轨迹。我认为,这代表了AI与版权问题更大叙事弧线中的一个典型例证。早期,人们对这项新兴技术所能实现的功能感到振奋,促使决策者和公众惊叹于其产出物的潜在意义;而如今,对其产出后果危害文化产业健康的日益加剧的担忧,已将注意力重新引向了AI工具的开发者及其所依赖的信息输入。更具体地说,人们越来越担心AI的大规模合成创作将在市场上有效替代人类创作的作品——降低艺术家和创意专业人士作品的需求(及其经济价值),从而威胁他们的生计和创意产业的存续——由此产生了一个诱人的想法,即可以通过版权法在源头处限制或切断这种自动化竞争。对于那些希望阻止或至少延缓生成式AI发展进程的人来说,版权提供了一个现成的障碍,可以抛在它的道路上。并且,在国际层面,对于那些最初引领AI产业的雄心已在全球竞争中受挫的国家而言,经济实用主义现在可能导向保护国内文化产业免受外国科技巨头冲击的方向(或至少从后者榨取某种通行费)。
可以肯定的是,人们普遍愿意给予这些技术系统的开发者和所有者免费使用大量人类创作文化的态度已明显减弱——随之显然消逝的,还有为允许AI系统自由训练于受版权保护作品而制定例外的政治意愿。事实上,推动力现在已明确转向相反方向——即拓展并强化版权专有领域的边界。
当下,社会对人工智能及其赋能力量的热情已明显趋于降温。即便是曾大力鼓吹AI的推手——那些最初炒作人工智能热潮的人——也戏剧性地转向警示:AI正变得过于强大,对人类已知的社会构成潜在生存威胁。为此,他们高调呼吁加强监管并暂停AI研发。
对此,AI批判者指出,此类表演性抗议实为精心算计的战略目标:强化AI具有自主性、意识与独立行动能力的神话叙事,从而延续AI炒作;转移公众对现有AI系统(虽技术平凡却危害社会)当下真实损害的注意力;并借此推动实质固化行业巨头优势、而非真正限制AI发展的监管政策。这些批判性观察对本研究至关重要,因其揭示了一个版权领域批评者尚未充分认知的模式:表面诉求法律(含版权法)干预与限制,实则更可能服务于自我保全而非自我约束。因此当批判者呼吁此类监管时,可能无意中助力了其试图约束的权力集团。此类警报之所以奏效,是因为它精准触达了社会对AI无节制渗透生活各领域的深层焦虑。例如,政府与雇主“黑箱算法决策”的忧虑,叠加自动化取代人力引发的经济恐慌;生成式AI的环境成本与生态影响担忧,又与深度伪造及AI强化虚假信息等恐惧交织;最终形成一种普遍认知:生成式AI正以前所未有的风险冲击地方新闻业、课堂教育、专业组织存续、文化机构根基乃至人类整体创造力生态。换言之,忧患丛生!
但在AI-版权争议中,令我担忧的是:我先前主张的“版权法不应干涉AI训练与发展”的立场,正日益受到版权评论者与AI批判者(甚至包括政治立场原本与我一致者)的质疑。随着反AI及科技巨头声浪高涨,关于用户权利与版权合理界限的论述正被斥为天真或误导——被视为替科技巨头牟利而损害人类创作者权益。传统上,“版权左翼运动”以反抗企业对知识与文化领域的控制吸引反资本主义者(左翼/人文主义者/女性主义者);而今,许多批判声音将版权漠视归入生成式AI的罪状。不出所料,强化版权保护(扩张范围与执行力度)俨然成为应对AI问题的潜在方案。
以凯特·克劳福德(Kate Crawford)提出的AI本质“攫取性”批判为例:其雄辩地指出AI依赖三重榨取——自然资源、人类劳动与数据的攫取。这一关键洞见涵盖AI训练中数据采集与处理的方式,“数据挖掘”的隐喻精准呼应了克劳福德对AI依存的有形/无形榨取实践的类比。该批判框架进而揭示:人类创作原创作品所投入的宝贵智力劳动,被降格为训练用途的“数据”加以提炼。正如克劳福德所言,将人类活动修辞化为“数据”(“冷血词汇”)实则是将其重塑为自然资源(“新石油”),并在殖民逻辑下暗示“数据可自由攫取”。
数据攫取与训练集构建的实践,本质是对公共领域资源的商业化侵占……从公共品中榨取知识价值……少数私有企业由此获得从公共资源中提取洞见与利润的巨大权力。这场AI淘金热持续圈占人类认知、情感与行为的疆域——一切可用数据皆被裹挟进无止境的扩张逻辑中……实为对公共空间的掠夺。
该批判似乎为限制(乃至终止)科技公司将人类表达作品数据化牟利提供了有力依据。克劳福德与贾森·舒尔茨(Jason Schulz)近期更直言:
版权法由18世纪资本家创设以捆绑艺术与商业。21世纪,科技公司正利用它剥削所有数字化在线的人类创作成果。
其论点在于:昔时资本家借版权控制获利,今之资本家却倚仗版权法定限制(如合理使用)。若欲终结企业剥削与人类劳动的工业化牟利,则需变革版权法——尤其需修改或限缩合理使用。他们追问:“当创作者线上作品被例行纳入训练集时,应享有何种同意权、署名权与补偿权?”其主张聚焦公平与创造力,深思“谁应决定创作使用方式,谁应获取收益”。这些确为重要议题,但我的忧虑在于:版权法(通过强化数据分析使用的私权控制)似乎被视为重构规范的路径。版权精心划定的本质边界——经年累月守护合理使用与公共领域免受私权侵蚀——如今再成争议之地。
近来,所谓许可、署名、补偿(3Cs)原则被频繁提及。该原则在美国近期关于人工智能的版权听证会上反复出现。诚然,这三个词不仅因押头韵而朗朗上口,其各自内涵更能引发共鸣,组合效力尤甚——每个概念在女性主义、反资本主义、平等运动及劳工权益的政治话语中皆具深厚渊源。需特别指出,3Cs原则最初由文化知识产权倡议组织(CIPRI)借鉴《关于获取遗传资源和公平公正分享其利用所产生惠益的名古屋议定书》制定,旨在为时尚纺织产业中传统知识(TK)和文化表达(TCE)的使用与传播确立最佳实践准则。因此,该原则看似能有力阐释弱势方应对文化盗用现象时的正当诉求。但必须警惕的是——尤其考虑到该原则诞生的殖民历史背景及其保护弱势群体的初衷——若将相同术语套用于主张每位作者、创作者或版权人应享有所谓固有权利,则不免令人忧虑(甚至需敲响警钟)。
坚持要求手工艺者、原住民或当地社区对其文化表达的使用享有自由事先知情同意权是一回事;主张每位作者均有权许可或禁止将其作品作为数据源使用则截然不同。坚持要求标注传统知识和文化表达的来源社群及灵感出处是一回事;强制要求收集数十亿文本数据集中每位版权人的姓名,并在每个AI模型及其输出成果中予以标注则大相径庭。同样,坚持要求补偿原住民社群并实行惠益分享,以认可他们对传统知识和文化表达世代传承的贡献是一回事;而要求通过集体管理组织为每个被爬取至训练数据集的数字文本或图像向个体权利人支付报酬则另当别论。
或有观点主张(其说服力值得商榷):鉴于日常创作者与强势AI产业主体间的权力失衡及固有非公平性,在AI领域挪用3Cs原则仍具合理性。著名AI批判学者弗兰克·帕斯奎尔与知识产权专家孙皓琛指出:
对千禧年初的开放互联网倡导者而言,版权曾是压制创新的威胁;而今众多艺术家和活动家却视其为要求极度集中的技术巨头承担责任的少数可用工具。
帕斯奎尔与孙皓琛以许可与补偿原则为指引,提出融合控制权(退出机制)与报酬权的立法方案,旨在修复技术人员与创意者间破裂的社会契约。女性主义科技法学者阿曼达·莱文多夫斯基同样援引3Cs原则,建议将版权作为实现正义的有力工具。依其深意:版权虽非解决AI不公的最佳方案,却是当下兼具效力与可行性的手段。具体而言,她主张合理使用审查不仅需考量技术创造的公共福祉(历史上正是此考量为保护新技术工具保留了合理使用空间),更须权衡相抵消的公共危害。由此她质询:
版权法能否推动法院作出比合理使用更公正的裁决?在创作者渴求之处——而非版权法强制之处——重获署名权、补偿权与许可权?
如此,对3Cs的追求实质是以版权控制为钝器对抗强权,通过压缩合理使用范围(假公平之名)超越版权法既定要求,达成法外诉求。
即便认同扩展版权控制及移植3Cs原则的设想,其在AI语境下的实践后果仍将产生前所未见的根本差异。正如詹姆斯·洛夫所言:每个C都面临违背最宽松文本数据挖掘例外的现实挑战。
首当其冲的是规模问题。仅Stable Diffusion的首版训练就需23亿图像数据集。凡尝试过单件作品确权及获取使用授权者皆知:为大型语言模型数据集中每个文本寻找权利人并征得许可是天方夜谭。而署名要求更意味着必须确认每件作品的版权所有者与创作者双重身份。该提议如此脱离现实,唯一合理解读是其旨在阻碍实践——核心目的正是阻止此类行为发生,或至少大幅延缓生成式AI技术发展。
纵使获取许可与标注署名得以实现,其意义何在?将姓名列入数十亿人名的数据库,与特定AI工具产出中无法辨识、不可追溯的微小贡献建立遥远关联并进行模糊标注,价值几何?若进而要求补偿(依政治话语预设,需向版权人或创作者支付),对作品恰在数十亿数据集中的个体而言,由(不受版权保护的)产出所获得的微量价值转移实难构成实质收益。而集体管理组织(其积极介入的动机不言自明)欲透明合理分配数百万笔微额付款,必将产生负担沉重且代价不成比例的交易成本。归根结底,基于作品被纳入AI训练数据而主张个体补偿的方案,其现实可能性几近于无,实际意义亦复如是。
在最近的一期播客节目中,计算机科学家兼人工智能伦理专家蒂姆尼特·格布鲁(Timnit Gebru)驳斥了反对策划和记录数据集的“规模太大而无法做到”的论点。她指出:“除此之外你还能在哪里这样做?难道你能在餐厅卖给我一份食物然后说:‘吃吧,我不知道它是用什么做的,里面可能有些糖,可能有面粉,反正你自己看着办。’”这个观点极具说服力。毕竟,在许多活动领域中,我们都为保护个人和公众利益而施加了繁重的披露要求。(对反对意见的合理回应可能是:如果觉得不值得,那就别做。)但当我们回想起此类披露(以格布鲁的食材为例)是为了保护最终产品的用户或消费者——而不是原始供应商的经济或知识产权时,这个类比就显得更加站不住脚了。要求人工智能开发者承担繁重的透明度和披露义务可能有充分理由,但作者署名(归属)并不在其中。要求披露包含大量作者或版权所有者姓名的庞大数据库——即便能做到——也并不能直接解决生成式人工智能所带来的任何公共危害(甚至还可能加剧其中许多危害,尤其是当我们想到:为版权之目的,从网络上抓取的所有原始文本、图像、照片、视频、文字记录等,都是受版权保护的作品时)。事实上,仅仅要求在纳入海量输入时给予署名,与实际问题根本没有实质关联。
格布鲁是人工智能讨论中一个极其重要的批判声音;她的研究在揭示和解释人工智能系统产生并被人工智能炒作所掩盖的不平等、滥用、伤害和偏见方面至关重要。在最近一篇关于人工智能艺术及其对艺术家影响的文章中,格布鲁及其合著者令人信服地提出,首先,“图像生成器并非艺术家”。他们认为,将这些人工制品视为具有能动性、认为它们以某种方式受到训练数据“启发”的想法是误导且有害的。他们写道:
艺术是一种交流形式:它进行交流。相比之下,图像生成器等人工制品的输出并非为享受而设计……图像生成器并不理解受众的视角或输出旨在向受众传达的体验。
对此我完全赞同。事实上,这也正是伊恩·克尔(Ian Kerr)与我本人试图在呼吁终结神话般的“人工智能作者”时所要表达的核心观点。然而,尽管我主张基于同样理由,人工智能的训练也并非将作品作为交流性表达来使用,但格布鲁及其合著者指出了人工智能对在职艺术家造成的伤害——“图像生成器导致创意工作者面临日益增加的障碍和工作流失”。着眼于公平,作者们指出对最边缘化艺术家造成的伤害尤为严重,以及在未经艺术家同意的情况下使用其作品可能导致“声誉损害与精神创伤”,并且更广泛地强化了偏见和刻板印象。这篇文章有力地控诉了人工智能生成艺术带来的隐秘侵蚀。
正如文中所指出的,“虽然所讨论的一些危害……与美国版权法所保护的权利有所重叠,但另一些则不然。”作者们观察到“图像生成器代表了一种艺术家与大规模公司挪用其作品之间的动态关系,这在美国版权法中是前所未有的”,并得出结论认为存在“法律的空白,未能考虑到对艺术家造成的社会和经济损害”。其中,图像生成器“助长信息危害”或“在输入阶段将挪用艺术行为常态化”的方式被认定为“超出合理使用考量范围”的问题。例如,如何通过提示促使艺术生成器模仿某位艺术家的“风格”,也超出了演绎作品权或精神权利保护精心划定的范围。作者们最终“主张出台法规,禁止组织在未经同意的情况下使用人们的内容来训练图像生成器”。因此,这个提议的解决方案实质上再次要求推翻版权法的关键限制——这些限制传统上约束企业权力以保护公共利益——以应对艺术家因生成式人工智能的寒蝉效应而承受的伤害。
格布鲁的研究,如同凯特·克劳福德(Crawford)以及该领域的其他批判学者(如艾米莉·本德(Emily Bender)、亚历克斯·汉娜(Alex Hanna)、香农·瓦洛(Shannon Vallor))的工作一样,呼吁采用一种基于女性主义洞见来监管人工智能技术的方法,认识到“技术如何与权力相互作用”。对此,我再次表示完全赞同。但我想补充一点(同样是从批判的女性主义视角出发):我们还必须认识到版权是如何与权力相互作用的。如果我们想要保障人类的创造性事业,促进平等与包容,争取在文化领域的代表性与参与感,并建立支持负责任和符合伦理的人工智能发展的监管结构,那么我认为,强化版权法或用版权附加要求来补充它,完全是走错了方向。这样做,我们可能会忽视此事的真正要义和缘由,反而重新确立起关于信息和文化表达的排他性、私有财产和企业控制的逻辑。引导人工智能政策所必须引用的责任和伦理要求,不应借用版权赖以存在的个人权利与可让渡性的产权逻辑。
在对抗生成式人工智能造成的社会、文化和经济危害的斗争中,我很遗憾地说,版权正作为一个虚假的盟友介入其中。往好了说,被视为人工智能不平等现象背后根源的版权问题,不过是一种干扰——一种障眼法。更糟糕的是,我担心,在人工智能产业中诉诸版权作为对抗企业权力的手段,将反而阻碍推进批评者们重要的政治议程。
我在开篇即告诫人工智能批判者警惕版权陷阱:即错误地认为版权法是支持创作者与文化生产的最佳工具(实则弊大于利)。第一部分A节指出加拿大人工智能政策话语中正兴起对版权控制的新关切,而B节则揭示当今该领域最富洞见的批判派学者著作中同样存在复苏版权规范(及与之相关的同意、署名、补偿等规范)的倾向。然而现实是,围绕生成式人工智能的公共讨论充斥着对作者权利的暗示、要求尊重版权的呼声,以及对大规模侵权亟需司法救济或立法回应的指控。
若创作者赋权与回报是版权陷阱的诱饵(如格布鲁所言,“艺术家正被激励”),那么这显然是极易布设的陷阱,且其效力在版权史上屡经证实——从18世纪之交的文学产权大辩论到21世纪之交Napster时代的版权战争。
版权陷阱的一种表现是假定凡具价值之物皆应私有。知识产权应附着于任何无形价值物——“有价值即有权利”——是普遍却有害的谬误。正如学者多年反复警示:将知识产权自然扩张至囊括最新价值创新,实为危险的思维定势。这不仅导致知识产权体系非理性膨胀,更使权利主张持续侵蚀公共领域。在生成式AI语境下,该谬误催生错误认知:除非彻底否认AI生成作品的经济或其它价值,否则其应受版权保护。更关键的是,它还助长了另一种假设——任何未经许可从作品中获益者必然构成侵权。
与价值即财产密切相关的,是同样错误的观点:搭他人努力便车等同盗窃。正如温迪·戈登所言:“不劳而获即不公”的理念虽具道德感召力,但若将其作为禁止搭便车的独立原则则过度宽泛——若禁绝一切搭便车行为,文明将不复存在。
艺术界反AI运动的核心主张正是:AI图像生成构成“某种盗窃”——“窃取艺术家的创造性劳动”。类似地,在Books3数据集与Chat-GPT争议中,作家们控诉这是“史上最大规模的版权盗窃”。有评论称:“从未有如此少数人能侵占如此多数人之物”。“盗窃”话语暗示财产遭剥夺,由此我们径直撞上延续数百年的哲学、法律与形而上学论争:版权保护对象之本质及其保障的权利性质。这些论争中占主导的洛克思想(无论明示或隐含)将两个假设捆绑:作者对其智力劳动成果享有自然财产权;AI公司利用作者作品不劳而获,构成对作者财产的盗用(“窃取”)。
我与戈登等学者曾详述洛克版权理论之局限与风险。其首要弊端在于:将有限版权主张异化为对作品的绝对专有支配权,使个人排他权凌驾于使用者及公共利益之上。例如,当“盗窃”指控被滥用时,版权人对作品信息或艺术“风格”的权利边界被无视(二者均被版权法合理排除保护)。此类财产绝对主义还表现为实质否认公平处理/使用原则——仿佛版权人权利天然超越合理使用范畴(甚至将合法合理使用重新定义为非法侵入版权人主张的财产领域)。
财产权路径的另一问题在于其对无形领域物理类比的依赖。占有实体物与未经授权使用无形物截然不同:信息作品具有非竞争性,可被无限复制重用而不剥夺任何人对作品或其信息的享有。因此,禁止他人使用必然产生社会成本。作品被纳入数据集的作者并未被剥夺对其作品的享有权。将作者书籍纳入训练数据绝非“从麦片碗中取走牛奶”。所谓作品“遭窃”的说法,既歪曲了AI训练使用作品所致损害的本质,又漠视(或预设为不公、不道德)此类使用可能带来的潜在效益。
同理,AI政策话语中用“数据挖掘”“提取”等术语描述信息分析亦存谬误:它们依托物理类比,暗示使用行为/者间的竞争关系,进而推导出某种“夺走、剥夺、移除、贬损”原物的意象。在后殖民语境(尤其全球南方)中,此类关联更具煽动性。这些对AI训练至关重要的数据分析或机器学习过程的修辞表述,显然承载着政治意涵——即便表面具有反企业色彩(尤其当用于揭露科技巨头的剥削行径时),实则助长版权扩张主义逻辑,最终在追求公平的伪装下服务企业利益。有意义的反信息垄断抗争,不能以数据所有权作为财产性权利为前提——毕竟财产可被让渡:资源持有者终将通过买卖、许可或转让实现其交易。
在财产-搭便车范式下,“合乎伦理且负责任”的AI开发似乎确需尊重权利人对其数据作为知识产权的专有享有权。但若转换视角聚焦公共利益及公共领域免受私占与企业控制,则监管重心应转向确保开发伦理AI系统所必需的训练材料开放可及。
踏入版权陷阱的另一常见路径,是假定复制行为本身具有不正当性,进而将任何未经授权的复制视为不道德之举并谴责为非法。对此假说的首要反驳在于:复制行为本身并无固有错误。诚如亚伯拉罕·德拉西诺尔所言:将复制视为不正当行为的假设,是对版权法根本性的误读。版权制度虽将作品复制权确立为作者或权利人的专有权利,但该复制专有权仅涵盖作品中具有独创性的表达内容,且不延伸至构成合理使用或法定许可的情形。版权法的学理框架明确保障:任何人皆可自由复制他人思想,只要该思想的具体表达未被实质性复现。值得注意的是,作者的风格与体裁、体系、方法、事实信息及公共素材元素同属可自由复制的抽象思想范畴——这些并非版权保护范围的不当限缩,而是经数十年司法实践确认的必要边界,既维系版权体系的可持续性,亦防止其陷入自我悖谬。 事实上,版权边界的设计恰恰承认并确认了复制行为在推动知识传承、下游创作及科技艺术进步中的核心价值与必要性。
第二重反驳更具技术性实质:版权法以复制为核心焦点的范式,与数字时代本质已格格不入。当复制变得轻而易举且近乎零成本,当作品的每次消费行为都涉及至少后台数字复制时,复制在现代文化市场中的意义已发生根本性变革。众多学者主张版权政策应超越制作复制件的技术表象,转向关注创造性表达、传播与获取的动态现实。该理念构成马修·萨格论证的基石:出于非表达性或非消费性目的的复制不应构成侵权; 谢丽尔·冯进一步补充非传播性目的,强调鼓励传播实为版权体系的活力之源; 艾伦·斯特罗埃尔与笔者亦共同主张:仅当复制行为以作品形态呈现沟通价值时,方构成侵权。于人工智能领域,对复制的错位执着将注意力引向训练数据集中的数字副本——这些内容从未被公众受众或人类接收者体验消费;内容的数字复制仅是机器学习活动的必要技术前奏,其存在本身(无论是物理或隐喻层面)不应成为桎梏AI技术发展的枷锁。
令人忧虑的是,加拿大最高法院的裁判实践表明:只要数字复制件存续时间超越瞬时性,即使仅为实现其他合法目的的技术附带产物,亦构成侵权意义上的复制件。笔者曾撰文指出,此立场违背实质性技术中立原则,打破了数字时代的版权平衡。然而在多数法官看来,每个数字复制件均牵涉版权责任,技术中立考量仅在进行复制件经济价值评估(如费率制定)时才予以引入。 对此,亚伦·佩尔扎诺夫斯基与贾森·舒尔茨的批判直指要害:
纵使复制件自版权法诞生之初便已存在,我们正疾速迈入后复制时代——数字作品以数据流形态存在,鲜少依附实体载体超过瞬息;复制件近乎持续处于生灭流转之中。于此时代,要求消费者、权利人或监管机构追踪每个复制件,无异于强令游鱼记录特定水滴的轨迹。
或许如迈克尔·麦迪逊所言, 我们亟需转变认知:不再将信息时代积累的海量文本、图像及表达作品视为个体化人工制品的巨型仓库,而应将其重构为浩瀚的知识海洋。由此可转向治理之问——如何将这片海洋塑造为知识公域:作为共享智力与文化资源的无垠疆域,其生命力与可持续性关乎人类共同利益,却不容任何个体主张排他性权利。在此图景中,奢求在技术流程中控制单个数字复制件的专有权,无异于试图从海洋萃取番茄汁液。
监管重心理应转向保障文化与信息生态系统的健康存续——包括重拾对人类创造性表达的激励、促进动态社会对话、守护参与性包容文化——而非执着于建立并执行针对百万隐形附带复制件的防御壁垒。
当我们认定私人版权控制能解决创作者的经济困境,赋予作家艺术家获取公平回报与未来生计的能力时,实则正疾驰坠入版权陷阱。围绕生成式AI的公共讨论中频繁提及文化赖以生存的优秀创作者面临的经济困境,但此政治叙事存在双重问题:
首先,其构建了真正的艺术家与其他群体的等级分野(笔者认为此划分堪忧)。即便抛开审美精英主义与文化排他性的明显弊端,这种划分在现实中模糊了版权制度的本质——版权几乎不加质量甄别地附着于所有具备最低限度原创性的表达形式。我们用于保护畅销小说作家(如因作品被纳入Books3数据集而懊恼的玛格丽特·阿特伍德)的规则,同样适用于推特作者、自拍者或Reddit树洞区(AITA)的答主;保护天才漫画家的规则,亦同等适用于诊室拍摄的患者伤口照片。更关键的是,为保护这些资深作家艺术家免受生成式AI威胁而设立的规则——若不审慎制定——同样可能阻碍构建或共享用于信息分析的数据集,这些分析或可揭示肿瘤良性概率,抑或移民法庭裁决中的系统性歧视模式。鉴于版权保护的低门槛、自动生效及广泛覆盖性,不应假定聚焦医疗、农业或物流等领域的文本数据挖掘(TDM)与AI计划能免受版权控制对训练数据的寒蝉效应。
其次, starving artist (挣扎的艺术家)的叙事在每次范式颠覆性技术(自古腾堡印刷术始)降临时,总被市场既得利益者重新翻出并成功利用。可悲的现实是:版权制度并未真正惠及其声称要拯救的艺术家——这正是叙事的第二大症结。那些高呼公平对待创作者的声音,往往正是从创作者手中夺取版权所有权、控制其作品、并在截留大部分版权费后才(偶尔)分配残羹的群体。值得注意的是,帕斯奎尔与孙皓申在论述中预设了作家拥有作品版权,申明其提案对作家、版权所有者或双方能否拒绝AI使用作品持中立立场。然而版权能否惠及作家绝非待厘清的细节,而是版权运作机制及其服务对象的核心问题。正如丽贝卡·吉布林所揭示:版权保障作家收益的假设从未真正成立,却仍是支撑版权制度的信仰基石。政治场域中强化版权保护即保障职业创作者收益的论调,实则是将我们引向版权陷阱的陈腐谬误(或盲目信念)。
在生成式AI的激辩中,资本主义政治经济的固有逻辑已清晰显现:出版商、唱片业代表与版权集体管理组织正手持乞钵,以服务挣扎艺术家之名索求补偿。理论上,用户为使用作品支付越多,中介向创作者支付的报酬就应越多——但过去数十年的版权扩张史,却是创作者日益贫困史。科利·多克托罗指出:创意工作者被巨头媒体与科技公司驯化,将版权视为解决一切症结的灵药。但将创作各环节转化为知识产权并未改善创作者境遇。实际上,工会为创作者争取经济收益的成效远胜版权扩张——后者最终仍需创作者在自由市场中自行议价放弃。近期大批企业协议授权海量出版物数据集用于AI训练,昭示了可能的未来图景:无论是《纽约时报》自由撰稿人还是Reddit用户,期待作品被纳入数据集带来个人暴利纯属妄想。标准合同与服务条款早已划定受益者归属。正如路易斯·梅南德所言:
无论何种情形,版权法都无法化解AI的生存威胁。当前争夺的本质是金钱博弈。许可协议、版权保护、雇佣合同终将催生极度复杂的监管体系,而信息所有权的法律拟制,不过是为某些群体攫取更大利益份额铺路。
市场既得利益者与老牌中介机构在AI版权辩论中的立场,令人想起印刷术兴起威胁出版商垄断特权而催生版权制度的书商公会时代。当下机器学习专属权的最强呼声来自企业而非创作者,实属必然。在这场知识产权辩论的新篇章中,面对业界以公平之名索要的创作者补偿,我们更应要求财务透明化、企业问责制及潜在版权费的公平分配。在建立任何集体许可或选择退出机制前,政策制定者必须精确核算创作者的实际获益可能。如前所述,鉴于生成AI产出所涉海量作品本身经济价值有限,训练数据集中作品按比例分配的微量许可费分成,极难显著改善作家艺术家的经济状况,更不足以使其免受合成创意洪流的替代效应冲击。然而累积版权费的相当比例,却可能充盈老牌中介机构的金库——但这究竟造福于谁?又牺牲了谁的利益?
本文提出,人工智能批评者正被引向一个版权陷阱。该陷阱的诱饵在于:既动用了版权法古老而持久的权利叙事,又诉诸人类创作者及其创造力的核心价值。但这些诱饵最终将引导我们强化一种专有逻辑——这种逻辑支撑着知识的私有化与企业对信息资源的垄断控制。看似矛盾却又在情理之中的是,通过对这项范式颠覆性技术强化版权控制,恰恰服务于媒体、文化和科技产业的利益:通过拆分知识产权,放任市场逻辑与私人秩序机制主导一切。即便满足署名权、许可权和补偿权的要求,亦不过是为持续的商品化、异化与剥削行径披上合法外衣。
生成式人工智能的崛起确需警惕——本文绝非忽视其潜在威胁,亦非漠视其可能对共享文化、社会平等及生活体验造成的破坏。然而不幸的是,版权制度在人工智能监管政策讨论中的强势渗透同样令人忧心。坚称版权保护文本与数据挖掘(无论用于信息分析抑或训练生成式AI模型)的排他性权利,其弊远大于利。正如诸多学者所言,施加版权限制必将抑制人工智能行业的竞争:获取优质数据的成本壁垒将扼杀创新,最终唯行业巨头方有能力打造顶尖AI工具(由此诱发常规性垄断危机,其规模却可能史无前例)。即便如此,此举仍无法阻止生成式AI的持续发展与普及应用。
更值得警惕的是,此类版权控制机制将导致开发者依赖劣质或不完整数据集,进而影响投放至现实世界的AI工具质量——这种缺陷极可能放大算法偏见风险,加剧AI输出及应用中的刻板印象。从更宏观视角看,鉴于生成式AI的本质是概率计算器(而非意义源泉)及其未来塑造文化图景的重要地位,依赖版权许可机制决定AI开发路径及训练材料,必将使社会多数群体被排除在AI的输入与输出体系之外。我们必须追问:在版权律师严密监控下,哪些地域与文化背景的文本最可能被打包成高价值数据库,经由主流平台与中介机构售予出价最高者?若授权数据集仅纳入文化特权阶层的特定文本,必将强化文化知识等级体系,逐步消弭边缘群体的声音与反霸权/多元世界观。正如米哈尔·莎尔-奥弗里所言,生成式AI的技术特质已注定其输出趋向主流化,反映相对狭隘的主流视角,优先呈现流行与传统内容,压制多元叙事。
因此,若以推动平等、参与和代表ued运动科技性为政治目标,批评者的诉求焦点应从排他性转向包容性。要促进合乎伦理的负责任AI发展,我们更应追问:为实现该目标,AI的输入输出系统必须包含哪些核心材料与训练数据?显然,倚重版权与市场机制决定内容取舍,绝无可能推进公共利益或平等导向的议程。
AI领域的重要批评者已敏锐指出该产业扩张中的不平等、剥削与私有化牟利特征;但需警醒的是,这些恰恰也是版权产业的本质特征——它们正由版权法及其强势政治叙事所维系。令人忧心的是,在AI争议中为公平、平等与公共利益发声的倡导者们,正坠入陈旧的版权陷阱。我们这些洞悉风险者必须及时预警:切勿让政策制定者假借回应关切之名修订法律,最终强化企业控制的版权架构,同时限缩用户权利与公共利益。
倘若版权并非解决之道,合理之问便是:何为良策?要制定目标明确且基于证据的解决方案,首要步骤是精准诊断症结。如本文所论,若问题核心并非AI模型未经授权使用版权作品进行训练,那么要求版权所有者授权或补偿训练数据使用便非对症之方。误诊病情而治疗臆想之症,后果不堪设想——此乃本文立论精髓。若生成式AI带来的真实版权问题仅在于其输出与特定受版权保护的人类作品实质性相似,现行版权法自可提供解决之道。至于生成式AI迅猛发展引发的其他诸多问题,法律应当另辟蹊径:隐私侵害可完善隐私法;收入不平等需精准调校税法;企业权力失衡应诉诸反垄断法;土著知识滥用亟待加强传统知识/传统文化表达保护;全球南方知识生产者遭受剥削需构建情境化知识治理与数据主权体系;艺术资助不足当改革文化政策与资助机制;创作者权益保障应强化劳动法;艺术家困境可通过全民基本收入制度纾解,不一而足。
近二十年前,杰西卡·利特曼在审视互联网引发的监管困境时曾深刻指出:互联网的威胁与承诺诱使版权法律师们展现出惊人的傲慢——我们制定所谓基础版权规则,进而将其解释为适用于电子编码信息在计算机间传输的一切场景。面对AI技术的双重面相,笔者谨此警示:切莫重蹈此类版权越权的覆辙。版权法既不适配亦无力规训AI发展进程。执意赋予其此等职能,幻想其堪当重任,恐将成为代价高昂的战略误判。返回搜狐,查看更多
