编译 | 曾全晨
审稿 | 王建民
今天为大家介绍的是来自Pamela Samuelson的一篇讨论AI版权问题的文章。生成式人工智能(AI)是一种颠覆性的技术,被广大公众、科学家和技术专家广泛采用,他们对其加速各个领域研究的潜力充满热情。但是,一些专业艺术家、作家和程序员对将他们的作品用作生成式AI系统的训练数据以及可能与其作品竞争或取代其作品的输出强烈反对。对于生成式AI的批评者来说,缺乏对他们原创作品的归属和补偿是其他令人不悦之处。目前在美国正在进行的版权诉讼对于生成式AI系统的未来具有重大影响。如果原告获胜,那么在美国合法的生成式AI系统只能是基于公共领域作品或者在许可下进行训练的系统,这将影响到所有部署生成式AI、将其整合到产品中并将其用于科学研究的人。
版权作品的创作者与使这些作品以意想不到和创新的方式被使用的技术开发者之间的冲突并非新鲜事。在20世纪初,引起争议的技术是自动钢琴。音乐版权所有者起诉制作钢琴卷帘的厂商,声称卷帘中包含他们的音乐作品,侵犯了版权。随后,出现了一系列具有版权冲击力的技术,包括有线电视、复印机、录像机和MP3播放器,其中(除了复印机)每一项都引起了版权产业的挑战(尽管这些挑战在法庭上失败,但国会有时在失败的诉讼之后延长了保护期限)。
当新技术提出新的版权问题,超出了国会的预期时,法院通常会考虑哪种结果最符合版权的宪法目标。宪法赋予国会权力“促进科学和有益的艺术的进步”,即促进知识的创造和传播,造福公众。这需要在尊重版权所有者合法权益的同时,平衡创新技术开发者和后续创作者的合法权益,后者需要一定的发展空间来进行创新。这种平衡考虑了防止他人滥用他们的作品而削弱创作动力的版权所有者的合法权益,同时也考虑了需要一些自由发展空间的创新技术开发者和后续创作者的合法权益。
相较于之前的技术,何以使生成式人工智能(AI)更具颠覆性?其中一个因素无疑是生成式AI技术的快速推出、采用和适应的速度异常迅猛。与此相对,法律和政策领域的发展则较为缓慢和必要。此外,在新技术演进的早期阶段,如何在竞争激烈的版权利益之间取得平衡并不容易评估。生成式AI似乎有望对职业作家和艺术家的职业产生重大影响。例如,在2023年的美国编剧协会罢工中,生成式AI的使用成为谈判的一个焦点。编剧们理所当然地担心这些技术会取代他们或减少他们的报酬。
Stability AI正在美国应对两起与版权侵权有关的诉讼,这些诉讼集中于其广泛使用的图像生成器Stable Diffusion。其中一起诉讼的原告是Getty Images,另一起是代表那些被Stable Diffusion用于训练的视觉艺术家的集体诉讼。这两起诉讼都声称,在将原告的图像作为Stable Diffusion模型训练的输入时,Stability AI进行了非法复制,而Stable Diffusion根据用户的提示生成的输出图像构成了侵权的衍生作品。
第三起生成式人工智能的诉讼案件对OpenAI开发的Codex提出了质疑,Codex是一个基于数十亿行开源软件代码进行训练的大型语言模型(LLM)。这起诉讼还对GitHub和OpenAI合作开发的Copilot进行了挑战,Copilot是一款编码助手工具,利用Codex LLM根据用户的提示为特定功能建议代码行(Microsoft拥有GitHub并在OpenAI中进行了大量投资,也是被告之一)。
如果法院支持原告的主张,可能会引发”创新套利”,导致生成式人工智能系统的开发者将其基地转移到将使用受版权保护作品作为训练数据视为合理使用的国家,就像以色列司法部在2023年初所做的那样。其他希望吸引人工智能创新的国家可能会效仿。如果法院维持Stability AI原告的诉讼主张,OpenAI的GPT4和Google的BARD也可能面临危险。他们的开发者将成为后续诉讼的非常有吸引力的目标。
Stability AI尚未明确阐述对版权指控的主要辩护理由。就如同控诉所述,Stable Diffusion包含有版权的图像作为训练数据的副本,这些主张在事实和技术上都是不准确的。Stable Diffusion包含了一个极其庞大的参数集,数学上代表了训练数据中所包含的概念,但图像本身并没有体现在其模型中。训练模型的过程是通过将用作训练数据的作品内容进行分词处理。模型使用这些标记来识别内容特征之间的统计相关性,通常在非常大的规模上。本质上,模型正在提取和分析作品的离散元素的精确事实以及元素之间的相关性,并确定其他离散元素是跟随这些元素、与之接近还是与之无关,并且这些相关性在不同的语境中是否存在以及存在的频率如何。
摄取训练数据
对Stability AI的指控忽视了版权的本意是具有意围性的。版权法所保护的仅限于作者作出的原创表达(例如诗歌中的词语序列或音乐的旋律)。版权的范围永远不会扩展到任何作品中所体现的思想、事实或方法,也不会扩展到作品中常见的元素(根据版权的“scenes a faire”原则),能够用非常少的方式表达的元素(根据“merger”原则),或受保护作品中所描绘的底层主题。例如,猫的照片并不能赋予摄影师对猫的特征,如鼻子或面部表情的专有权利。版权的范围也不会扩展到读者对作者作品进行审查所得出的推理,例如关于概念之间连接模式或该类作品构造方式的见解。
此外,Stability AI并没有准备Stable Diffusion模型训练所使用的数据集。这项工作由一个名为LAION(Large-Scale Artificial Intelligence Open Network)的非营利性德国研究组织完成。LAION最初开发了名为LAION-5B的数据集,其中包含58.5亿个超链接,链接了来自开放互联网的图像和文本描述。LAION免费向公众提供这个数据集,供希望建立生成模型的人们用作训练数据。Stable Diffusion模型是在LAION-Aesthetics数据集上进行训练的。LAION创建这个数据集很可能是合法的,因为欧洲联盟(EU)通过了一个豁免规定,允许非营利性研究组织为了文本和数据挖掘(TDM)目的而复制受版权保护的作品。欧盟制定了这个例外规定,以认识到TDM作为研究人员创造新知识的手段的社会价值。这个豁免规定不能被合同覆盖。Stability AI以开源的形式提供Stable Diffusion。然而,它还提供了订阅服务,以便那些缺乏资源或不愿意托管开源版本的人们可以使用Stable Diffusion来根据文本提示生成图像。然而,就算只是为了训练生成模型而摄取受版权保护的图像,也需要至少进行临时或偶然的复制,Stability AI很可能会辩称这符合美国版权法。
合理的使用
Stability AI的原告很可能会主张将他们的作品作为训练数据的摄取是非转化性和商业性的。如果接受这些考虑因素,将不利于合理使用的判断。然而,一些法院的判决已经裁定了类似的数字化使用受版权保护的作品符合转化性合理使用的标准。例如,在Authors Guild v. Google, Inc.案中,法院裁定Google从研究图书馆的收藏中数字化了数百万本书籍,以索引其内容并在回应用户搜索查询时提供少量书籍内容的摘录,这是一种“高度转化性”的合理使用。尽管Google的目的是商业性的,但与这些书籍的市场营销目的非常不同。Google的使用促进了更广泛的公众获取知识,并为TDM研究和新研究工具的创建提供了便利。在Field v. Google, Inc.案中,法院认定Google从Field的网站中进行的缓存复制是一种转化性的合理使用。
作品的性质因素在合理使用案件中通常没有太大的重要性。Stability AI的原告可能会主张,因为视觉艺术作品是版权的核心,所以对于这些作品而言,合理使用的标准应该比适用于Authors Guild案中的旧图书更加严格。相反的考虑是,Stable Diffusion所训练的视觉艺术家的作品与Field在Google, Inc.案中的情况一样,都是在公开互联网上提供的。
转化性目的往往对其他合理使用因素产生溢出效应,特别是数量因素。与Authors Guild案类似,Stability AI的原告可能会强调被告未经许可或补偿而对数百万作品进行了完全复制。然而,法院通常会询问这种复制是否是实现转化性目的所必需的。在Authors Guild案中,法院认识到,如果Google不复制书籍的内容,就无法索引书籍内容并在搜索查询中提供摘录。Stability AI很可能会对图片的训练数据使用提出类似的必要性论证。挑战使用所产生的市场影响有时被认为是最重要的合理使用因素。Getty对Stability AI的诉讼强调其已经建立了一个许可市场,用于将其优质照片作为生成式人工智能的训练数据。这增强了Getty的观点,即Stability AI从Getty网站中获取的1200万张图片对许可市场造成了损害。针对Stability AI的集体诉讼索赔则较为薄弱,因为Stability AI无法从那些作品被摄入以构建Stable Diffusion模型的视觉艺术家类别中获取许可。
将生成的作品视为侵权行为
对于Stability AI面临的集体诉讼,原告声称由Stable Diffusion生成的所有图像都是侵权的衍生作品,因为它们都源自模型训练所用的图像。原告将Stable Diffusion描述为一种“拼贴工具”,其生成的作品与艺术家自己的作品竞争,从而损害了他们的市场。此外,Stable Diffusion的用户可以提交请求,要求以某位具体艺术家的风格生成特定主题的图像。然而,长期以来,法院一直认为,为侵犯版权的衍生作品权,仅仅显示第二个作品是基于前作或其某些元素的是不够的,第二个作品必须侵占了第一个作品的原创表达的实质部分。因此,除非法院决定推翻几十年来解释衍生作品权并大幅扩大其范围的先例,否则这起集体诉讼中有关生成作品侵权的指控很可能失败。这起集体诉讼承认“通常情况下,对于特定文本提示所生成的任何Stable Diffusion输出图像都不太可能与训练数据中的特定图像非常相似”。即使是“以某位艺术家的风格”这样的主张也显得脆弱,因为版权法并不保护风格本身。只有在风格相似作品的表达元素与特定艺术家的具体作品的原创表达之间存在密切的相似之处时才可能构成侵权。
Stable Diffusion生成的作品极不可能与其模型训练所用的特定图像具有实质上的相似性,这是因为Stable Diffusion的组装方式。构建用于生成图像的AI模型需要处理大量的输入数据,以产生图像元素的抽象表示。Diffusion在对图像元素进行编码时会引入噪声。文本描述和图像的配对使得模型可以将抽象表示聚类在一起,使得相似的表示将彼此靠近。当用户输入提示以指导软件生成特定类型的输出时,生成式AI系统使用复杂的统计计算来组装预测将符合用户请求的输出。
结论
根据现有的先例以及对Stable Diffusion的训练和生成过程的了解,Stability AI似乎有合理的机会在版权纠纷中取得胜诉。然而,这些诉讼目前仍处于非常早期的阶段,法院可能需要数年时间才能做出裁决。
2023年5月中旬,美国国会首次举行了有关生成AI和版权问题的听证会,期间证人对此表达了不同的观点。美国版权局非常了解生成AI在依赖版权的社区中引发的困扰。该机构于2023年春季举办了“倾听会”,为利益相关方提供机会,解释他们对Stability AI案件提出的两个主要问题的观点:将版权作品用作生成AI系统的训练数据是否构成版权侵权?生成AI系统的输出是否构成侵权的衍生作品?在2023年夏季,版权局计划允许感兴趣的各方提交书面评论,表达他们对这些问题及相关问题的观点和分析。版权局打算撰写一份报告,阐明其结论,其中可能包括立法建议。对于对生成AI的未来有兴趣的科学家们,建议提交评论。
参考资料
Pamela Samuelson ,Generative AI meets copyright.Science381,158-161(2023).
DOI:10.1126/science.adi0656