
-
专利
-
商标
-
版权
-
商业秘密
-
反不正当竞争
-
植物新品种
-
地理标志
-
集成电路布图设计
-
技术合同
-
传统文化
律师动态
更多 >>知产速递
更多 >>审判动态
更多 >>案例聚焦
更多 >>法官视点
更多 >>裁判文书
更多 >>内容提要:在生成式人工智能平台如何承担著作权侵权责任的问题上,由于我国相关治理文件中未能对提供内容与提供服务加以明确区分,致使平台在主体属性和归责事由上出现法源选择和适用的双重难题。根据域外和我国长期适用“避风港”规则的司法经验,法院一般以类推适用信息存储空间服务提供者版权侵权认定规则涵摄新兴网络服务提供者类型。虽然生成式人工智能平台在内容来源、生成过程和使用方式等方面都不同于传统的信息存储空间和搜索链接服务,但在著作权侵权责任的认定上,仍有必要类推适用。就主体定位而言,在现有法律体系内,生成式人工智能平台仍属于网络服务提供者的范围。对于事前必要措施和事后必要措施的解释,一方面当特定提示语和侵权内容之间出现稳定复现时,可将修改相关模型参数纳入必要措施范围;另一方面在延续适用“通知—必要措施”的基础上针对合规通知的侵权内容中涉及他人作品的部分,增加内容标注义务。
关键词:生成式人工智能 网络服务提供者 “避风港”规则 通知—必要措施
一、问题的提出
互联网平台作为内容传播和获取的主要渠道,在给公众带来巨大经济和社会价值的同时,亦面临着愈发难以抑制的大规模侵权问题。在技术的帮助下,“用户生成内容”(User-Generated Content)模式已经使普通网络用户获得了随时借助他人作品进行“二次创作”的能力。如今“人工智能生成内容”(AI Generated Content)的普及,则是再次显著降低了网络用户生成内容的门槛,“全民创作”的时代真正到来。作为直接向网络用户提供人工智能技术的主体,生成式人工智能平台是否因其所生成的内容侵犯著作权而承担责任,将会直接决定人工智能产业的侵权治理成本和发展前景。然而在此问题上,我国和域外在司法判定上都存在不同结论。我国有法院认为平台方由于“投诉举报机制欠缺、潜在风险提示欠缺、显著标识欠缺”,且未能采取一定的技术性措施来避免生成与原作品实质性相似的图片,所以应承担侵权责任,相当于将生成式人工智能平台视为内容提供者且认定为直接侵权责任。但也有法院在认定同类争议时提出,平台对用户输入涉嫌侵权的提示语及其对生成内容的传播行为并不当然负有事先审查义务,只有当其对具体侵权行为具有过错时才可能构成帮助侵权,这显然是以间接侵权规则来审视平台的行为。而在美国的相关诉讼中,法院基本驳回了原告提出的平台间接侵权之诉,认为原告未能证明生成式人工智能平台有能力监督涉嫌侵权的行为或者从该行为中直接获取经济利益,其中对监督和直接获利的考量,明显是将平台视为网络服务提供者并纳入“避风港”规则的免责范围。
新技术对著作权制度的影响在历史上乃是常态,无论是广播时代“索尼”案中的著作权人与录像设备生产者之争,还是互联网时代Grokster案和谷歌图书馆案中的著作权人与各类网络服务提供者的分歧,版权产业和著作权法始终根据技术发展进行调整。本次冲击的不同之处在于,生成式人工智能平台开始根据用户提示语提供具有独创性的新内容,原作品和新内容的差异,以及用户主动提示和平台被动生成之间的关系,都意味着既有规则面临如下挑战。
第一,生成式人工智能平台是提供内容的主体还是提供服务的主体的认定争议。无论是线上还是线下,传统内容提供模式一直是拥有内容的一方单方面向用户提供,而生成式人工智能平台是被动基于使用者的提示语生成内容,内容生成的意图和结果皆来自用户,导致现今直接将生成式人工智能平台认定为内容提供者的司法结论存在问题。另外从法源基础上看,我国相关行政规章的表述本身就存在冲突。2023年《生成式人工智能服务管理暂行办法》将生成式人工智能服务提供者定义为“利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人”,其中使用的仍然是“提供服务”的表述。但在该办法第三章服务规范的规定中,又明文规定“提供者应当依法承担网络信息内容生产者责任”。那么人工智能平台究竟是提供服务还是提供内容,不但文件内涵和表达存在差异,司法判决的结果也并不统一。
第二,生成式人工智能平台是否适用“避风港”规则的争议。无论是认定为直接侵权还是间接侵权的判决,都认为人工智能平台未能满足事前和事后必要措施的要求。从事前必要措施看,法院认为平台未能根据《生成式人工智能服务管理暂行办法》的要求提供投诉举报机制、潜在风险提示和显著标识;从事后必要措施看,法院提出平台应当“进一步采取关键词过滤等措施,防范其服务继续生成与涉案作品实质性相似的图片”。可见,法院显然将上述措施视为生成式人工智能平台免责的前提,这其实是延续了在网盘和算法推荐等争议问题上部分法院要求将过滤纳入平台必要措施的裁判趋势。上述争议既包括主管部门公法性质的管制性文件是否能直接作为著作权侵权认定的法源基础,也包括“避风港”规则和著作权侵权规则体系在多年的本土化改造后如何应对生成式人工智能平台的侵权责任认定。裁判规范的选择不但会决定平台责任承担方式是否调整,更会影响人工智能产业的未来发展。
质言之,不同互联网平台在技术和商业模式上的特点,使得其技术成本和信息管理能力亦存在巨大差异,是类推适用既有规范及其解释经验还是创设新的规范,则需要结合生成式人工智能的技术特点和治理成本来讨论。有鉴于此,我国生成式人工智能平台侵权规则的法源梳理与适用,需要首先明确提供内容和提供服务的标准,确立生成式人工智能平台主体的属性。在此基础上系统反思我国和域外在信息存储空间服务等传统网络服务提供者类型上积累的裁判经验,根据人工智能生成内容的技术和商业模式界定其事前和事后必要措施的范围。以激励版权产业与人工智能产业合作为目标,构造生成式人工智能平台著作权侵权认定问题上的新的解释路径,为传统产业与新兴产业的协调发展提供司法裁判上的稳定预期。
二、生成式人工智能平台——主体属性的类型认定
长期以来,互联网平台直接侵权和共同侵权的区分,都是基于其所实施的行为。如果有证据证明平台直接参与了向公众提供作品的行为,就需作为内容提供者纳入直接侵权的判定标准下检视,反之,如果平台存在帮助或引诱等行为促成直接侵权的实现,则作为网络服务提供者并检视共同侵权规则的适用。同理,生成式人工智能平台是纳入既有网络服务提供者类型还是需要另立新类型,也需要在充分比对其行为与既有规范要件的基础上确定,其后才涉及适用直接侵权抑或共同侵权的规范。
在既有制度体系中,何谓“网络服务提供者”并无一个明确的界定规范。为世界各国所仿效的《数字千年版权法案》(Digital Millennium Copyright Act, DMCA),乃是采取列举的方式逐一设定不同网络服务类型的免责条件,但对于网络服务提供者概念本身既不存在一个统一的定义,也没有明确提供内容与提供服务的边界。根据该法案,可以适用“避风港”规则的“服务提供者”(service providers)包括四类:(1)为第三方提供在线内容传输渠道服务;(2)为通过互联网传输内容提供临时存储空间服务;(3)为用户提供内容存储空间服务;(4)为用户提供信息定位或链接服务。对于第一类仅提供传输服务的服务提供者,该法案将其定义为“根据用户指定进行点对点数字化在线内容传输或链接服务,且不会对传输内容进行任何修改”的主体。而针对仅提供传输服务以外的服务提供者,该法案则更广义地界定为所有“提供在线服务或网络接入服务的提供者或服务设备运营者”。从中可见,网络服务提供者乃是在技术中立前提下为用户提供传输、存储和获取内容等技术支持的主体。我国《信息网络传播权保护条例》(下称“《信网权条例》”)及相关司法解释,也移植了对网络服务提供者的四种类型化列举。这种以列举具体类型来界定网络服务提供者的立法模式,主要是因为早期互联网平台所提供的商业模式有限,所以仅在其信息管理能力范围内承担制止侵权行为,“避风港”规则中最重要的“通知—必要措施”义务,只需涵盖信息存储空间和搜索链接这两类有能力影响内容传输的平台即可。
生成式人工智能平台迅速普及后,我国已有相关规范加以跟进,但其在私法领域的主体属性却出现了法源上的混乱。依据我国现有相关政策性文件和司法判例,生成式人工智能平台是纳入既有类型还是创设新类型,甚至归入内容提供者范畴的尝试都已在实践中出现。我国《生成式人工智能服务管理暂行办法》一方面在第22条中将“生成式人工智能服务提供者”定义为“利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人”,另一方面在第9条中又提出“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务”。其中“网络信息内容生产者”这一概念,又来自2020年《网络信息内容生态治理规定》第41条,是指“制作、复制、发布网络信息内容的组织或者个人”。可见现有规章存在提供内容与提供服务不分的矛盾,在概念设定上使用“服务提供者”的表述,但在责任认定上又以“内容生产者”为标准。无论是《生成式人工智能服务管理暂行办法》还是《网络信息内容生态管理规定》,其上位法都是《网络安全法》《数据安全法》等公法性质的行政法律法规,显然不能直接作为著作权领域争议问题的法源基础。故此,在应对著作权侵权问题时,生成式人工智能平台的主体属性仍然需要回归私法规范,即根据提供者的具体行为来决定是否适用“避风港”规则。
在提供服务和提供内容的区分问题上,我国从作为特殊法的《信网权条例》到作为一般法的《民法典》都将直接提供内容的互联网平台称为“网络服务提供者”,与提供内容的网络用户等同对待。换言之,我国针对提供内容和提供服务的区分同样是在网络服务提供者这个统一的概念下通过平台具体行为进行个案认定,然后在法律效果上分别归入直接侵权和共同侵权的判定体系,并将直接或以实质替代等方式提供作品纳入直接侵权。所以生成式人工智能平台的主体属性,取决于生成内容的服务是否构成直接提供作品。如果单纯着眼于生成结果,用户通过生成式人工智能平台所获得的大部分内容确实可视为作品。但其中特殊之处,却体现于在内容来源、生成过程和内容传播三个方面如何认定平台的参与程度上,这些问题在已有判例中鲜有深入论证。
首先,从内容来源看,涉嫌侵权的作品既不是由平台主动提供,也并未事前存储于平台服务器中。用户输入提示语后,后续的生成过程是以大规模语言模型预训练的算法自动完成。如果平台同时是人工智能的设计者,则平台方仅在模型训练阶段塑造过人工智能生成内容的风格和偏好;如果平台使用来源于他人设计的人工智能,那么更是在所有环节都没有参与生成。无论属于上述何种情况,可以确定的是,平台既未主动使内容处于用户可获取的状态,也没有主动向用户推送内容。
其次,从生成过程看,平台无法决定所生成的内容中蕴含何种元素。人工智能乃是根据用户“定制”生成内容,即使同一用户多次输入相同提示语,所获得的内容也可能不同。在域外针对人工智能生成内容展开的诸项诉讼中,法院就已经明确驳回了原告著作权人请求认定生成式人工智能平台构成直接侵权的诉讼请求,认为人工智能算法并非拼贴或洗稿工具,除非直接证明原作品的一部分被包含在所生成的内容中,否则生成后的内容并非未经许可制作的改编作品。这说明人工智能生成内容并非是从已有作品中直接摘取具有独创性的元素来形成新作品,而是在前期通过机器学习获得大量同类作品的风格、逻辑和表达方式等,然后根据用户的需求生成新内容。
最后,从使用方式看,内容生成和向公众传播两个环节应区分对待。在第一个环节中,生成式人工智能平台类似于提供搜索引擎服务,都是基于用户的输入提供内容,差别在于用户从生成式人工智能平台那里获得的是新的内容。在第二个环节中,由于公开传播内容的主体是用户,平台仅向用户提供其定制的内容,并未使内容处于公众可获取的状态,其行为显然不满足信息网络传播权中“向公众提供”和“公众在其选定的时间地点获取”这两个要件。
综上可见,虽然用户有获得特定内容的事实,但该内容既非生成式人工智能平台主动提供,也没有事先存储于平台的服务器上,所以平台不构成信息网络传播,仍然以网络服务提供者的身份适用“避风港”规则。《生成式人工智能服务管理暂行办法》中不区分提供内容和提供服务,意在实现公法领域保障国家安全和社会公共利益的需要,但不应直接适用于著作权领域。同时,鉴于现今网络服务提供者的具体类型与“避风港”规则提供的具体免责条件对应,创设全新的网络服务提供者类型就需要对其归责和免责条件加以全面设定。在生成式人工智能技术尚在快速发展的阶段,如果在立法上将生成式人工智能平台作为全新的网络服务提供者来创设规则,短时间不可能做到立法的科学化和全面性。我国虽有法院在认定结论上提出生成式人工智能平台提供的是“新型网络服务”,但从判定方法看,其仍然认为平台对不受其控制和干预的传播行为不负有事先审查义务,事实上完全采取了基于《信网权条例》和《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(下称“《信网权司法解释》”)的区分标准,并未设定任何新规则。故此,与其不断根据人工智能技术的发展频繁修改法律,不如选择类比已有相关主体类型的制度安排,通过准确对具体情形下“应知”和必要措施的解释来界定生成式人工智能平台的侵权责任。
三、网络服务提供者——类型化涵摄的制度意义
将生成式人工智能平台界定为网络服务提供者,意味着其仍然可以适用“避风港”规则。但平台侵权责任的具体认定,却无法直接套用现有解释路径。即使《民法典》出于覆盖所有民事权利的需要没有具体划分网络服务提供者的类型,著作权领域的网络服务也仍在司法实践中借助司法解释和相关审理指南坚持类型化判断。首先依据特别法优于一般法的原则,以《信网权条例》规制可纳入法定类型的网络服务提供者;其次才针对超出法定类型但又属于提供网络服务的互联网平台适用《民法典》的网络侵权条款。这种具体类型与具体侵权责任对应的立法模式,主要意义在于尽可能根据网络服务提供者所提供服务的性质、方式及其引发侵权的可能性大小来合理安排归责和免责事由,避免法定义务超越网络服务提供者的信息管理能力。对于生成式人工智能平台而言,究竟是在网络服务提供者的范围内新设归责事由,抑或在针对其商业模式特征的基础上为必要措施的认定提炼具体解释,成为首先需要解决的问题。
回溯历史可以发现,如何规制新商业模式驱动下产生的网络服务提供者其实有先例可循。随着互联网商业模式的迭代,互联网平台所提供服务的丰富程度已远超出“避风港”规则所列举的四种传统类型。一方面移动互联网时代“用户生成内容”模式的普及,使网络用户大量使用受著作权法保护的作品进行二次创作成为常态,不但大规模侵权和重复侵权显著增长,而且平台与著作权人收益之间出现了越来越大的“价值差”(value gap);另一方面互联网平台在当今社会的重要性和经济实力,都远胜“避风港”规则诞生时依靠“门户网站”传播内容的Web 1.0时代,因而平台有能力获取市场优势地位。各国都试图改进规制手段来应对上述问题。
美国作为互联网产业长期强势的国家,亦是“避风港”规则的创设之地,理应引领和细化针对网络服务提供者的立法,然而其至今却始终坚持通过扩大解释存储空间服务来吸纳新兴互联网商业模式。从P2P软件分享平台、电子商务平台到“用户生成内容”平台,都先后通过法院判决类推适用信息存储空间服务提供者的规范,延续了“避风港”规则中的“通知—删除”义务。选择以信息存储空间服务来涵摄新的服务类型,可视作美国判例法传统和产业博弈考量相结合的产物。“旧瓶装新酒”的原因,主要在于信息存储空间服务乃是提供其他服务类型的基础,无论是传统的“用户生成内容”还是算法推荐平台,都仍然是以提供信息存储空间为基础的网络服务提供者。在此基础上,针对新型网络服务提供者是否构成“不知悉具体侵权行为”和“未直接获取经济利益”这两个共同侵权要件,并以此要求生成式人工智能平台尽到注意义务并阻断网络用户非法使用信息存储空间后,可以起到与原先规制信息存储空间服务相同的效果。如此一来,在信息存储空间服务上积累的大量判例经验就能类推适用,一方面省去了另设新规的繁琐和困难,另一方面也实现了以类推解释来保障同等对待同类行为的效果。我国司法实践虽然没有明确以信息存储空间服务归责事由涵摄新兴类别网络服务,但立法上已经实现《民法典》“网络侵权条款”对《信网权条例》的兜底和补充,而且“网络侵权条款”的“避风港”规则完全是对该条例同类规则的移植与细化。故此,实践中我国法院其实无需借助扩大解释的手段应对新问题,只需要直接适用《民法典》即可实现同类规制。但在判断特定网络服务提供者是否“知道”以及如何承担“必要措施”问题上,仍然需要根据具体服务类型来形塑判定标准。
法院在裁判中偏向于采取一种谨慎解释的司法态度,目的在于避免将技术创新等同于概念创新,不过于看重网络服务在技术和新商业模式上的变化,而是继续从平台实际的信息管理能力出发,将互联网产业整体视作处于发展进程中的产业类型。事实上即使是在同一细分领域的网络服务提供者,各自规模和信息管理能力也存在很大差别。所以针对采用新兴技术和商业模式的网络服务提供者,立法和司法上的基本立场也依旧是在归责事由上予以重点考虑,以避免过分增加平台的治理成本。实践中那些拥有大规模用户的平台,在经济实力和地位上一般具有两项优势,一是有条件使用包括算法过滤在内的各种技术措施来帮助抑制侵权问题,二是有能力从包括集体管理组织和出版机构等拥有大量作品著作权的权利人获得授权。但对于中小规模特别是初创阶段的互联网平台来说,上述优势显然不可能在其可承受的成本范围内获得。如果改变“避风港”规则而提升注意义务标准,不但会导致不正当竞争,更会抑制平台新兴商业模式的发展。早期针对短视频平台的判决中,美国法院就曾坚持以既有规则涵摄视频类社交媒体平台,将知晓的对象继续限制在具体而非一般的侵权事实范围内,并未提高其注意义务标准。相比而言,我国在此问题上同案不同判的情况则较为明显,特别是在算法推荐和算法过滤的案件中,法院对必要措施范畴的认定呈现出差异化认知。
与美国不同,本土互联网产业一直处于弱势地位的欧盟,早已呈现出强化互联网平台法定义务的立法趋势。在2019年《数字单一市场版权指令》(Directive on Copyright in the Digital Single Market, DSM Directive,下称“《单一市场指令》”)中,欧盟同样选择了在信息存储空间类服务上调整设定。但与美国司法实践中直接以信息存储空间服务涵盖新兴互联网商业模式不同,《单一市场指令》是根据平台规模的差异,在现有信息存储空间服务提供者类型中划分出一类新的“在线内容分享服务提供者”(online content-sharing service providers, OCSSPs),即“主要以存储和向公众大规模提供由用户上传之作品为营利性服务内容的互联网平台”, 不但要求平台在事前“尽最大努力获得授权”,而且必须于事后“尽最大努力阻止重复侵权”。如未满足上述要件,平台将被视为直接侵权而不适用“避风港”规则。
《单一市场指令》第17条构建了三层叠加式的免责体系,全面涵盖了从事前到事后的平台义务。第一层是事前义务,即要求在线内容分享服务提供者尽最大努力对其平台上传播的作品获得授权。在满足这一前提的基础上,第二层是要求在线内容分享服务提供者尽最大努力保证著作权人已向平台提供必要信息的作品不会在该平台被获取。第三层是要求在线内容分享服务提供者尽最大努力保证基于权利人合规通知被移除的非法内容不会被再次上传。但与此同时,本条亦明确“不应导致一般监控义务”(general monitoring obligation)。随后,欧盟又在2022年“为用户生成内容专门设计”的《数字服务法案》(Digital Services Act, DSA)中重申了对上述规则,并进一步在“在线内容分享服务提供者”的基础上设定了“在线平台”和“超大规模在线平台”两类主体类型,后者作为接受服务的用户规模达到四千五百万的平台必须承担更高的注意义务标准,使得该法案成为完全根据平台规模来确定法定义务程度的典型。但这种以规模设定义务的类型化路径,实践中被专门针对的显然就是谷歌、脸书和亚马逊等极为有限的几家互联网平台,所以并未从整体上显著增加绝大多数信息存储空间服务提供者的法定义务,仍然是局限在信息存储空间类服务基础上的有限调整。
由上可见,美国和欧盟作为创设和调整“避风港”规则的先行者,虽然基于各自产业特点在注意义务的设定上有不同选择,但在面对日新月异的互联网商业模式时,都没有贸然创设全新的网络服务提供者类型,而是选择在信息存储空间服务的基础上进行涵摄和调整。欧盟通过立法所调整的平台注意义务,也是将信息存储空间服务大类中运营规模较大的那部分单列出来,仍然维持了“避风港”规则最初的类型化标准和具体化的免责设定,从信息存储空间服务提供者这一既有网络服务类型的侵权构成要件来涵摄新兴服务。长期延续此种安排的原因,既是希望继续利用“避风港”规则保障新兴商业模式的发展,也是对未知发展方向的敬畏。针对互联网这一仍然在不断融合包括人工智能在内的新技术,且处于快速发展进程中的产业类型,在法律规范进行任何调整前都需要充分考虑一切类型和规模的网络服务提供者。对于生成式人工智能平台而言,延续这种路径也是现阶段更为可行的安排。从法律解释的角度看,这种类推适用和等同对待也意味着按照同一法律视角来对既存差异加以抽象。当新出现的平台服务类型与既有服务类型在差异上并未达到区分对待的程度时,两种情形的共同要素即应该通过类推使用来赋予相同法律后果,以使法律上的同等对待原则得以贯彻。特别是在我国著作权法与其他类别的知识产权法相比修法频率较低,且人工智能产业仍处于快速迭代的现实情况下,一方面应基于《民法典》“网络侵权条款”的解释来应对生成式人工智能平台的侵权认定,另一方面应以技术上存在相似性的网络服务侵权判例为参照,在不动摇既有法律稳定性的基础上通过类推和扩张解释,及时应对生成式人工智能平台商业模式运作中的侵权问题。
四、事前与事后必要措施的范围界定
基于既有网络服务提供者的类型以及生成式人工智能平台的运作原理,在司法裁判中可以在纳入生成式人工智能服务特殊性的前提下,借助信息存储空间服务和搜索链接服务的裁判经验来应对侵权认定问题。针对生成式人工智能平台在内容存储上的争议,可以类推适用信息存储空间服务提供者的规则。在内容获取阶段,人工智能模型一般通过网络爬虫等技术手段从互联网获取内容,然后存储到服务器中进行转码、汇总和分类。所以即使在运作过程中生成式人工智能并非主动且直接使用原作品,平台在内容存储上仍然需要信息存储空间服务作为前提。再者,针对生成式人工智能平台在内容提供上的争议,可以类推适用搜索链接服务提供者的规则。生成式人工智能服务与搜索链接服务类似之处,在于平台的服务目的是尽可能准确地向用户提供其需要的内容。与之类似,生成式人工智能平台同样无法预知提示语与所生成的作品,用户也完全有能力同样借助算法绕开被技术措施限制的词句,无论是事前屏蔽抑或事后删除都无法有效解决侵权内容的生成问题。因此,根据信息存储空间服务与搜索链接服务已有的解释规则和司法积累,生成式人工智能平台侵权认定的要件,可以通过“应知—必要措施”和“通知—必要措施”的解释来应对。
(一)“知道或应当知道侵害行为应采取的必要措施”释义
对于生成式人工智能平台而言,适用“知道或应当知道侵害行为应采取的必要措施”的关键,在于如何解释“应知”和如何界定应知后的必要措施范围。我国《信网权司法解释》将“明知”限定于网络服务提供者接到通知后未采取必要措施的情形,但对“应知”则是从积极要件和消极要件两个方面作出不完全列举。积极要件是指平台对涉嫌侵权的内容进行整理、编辑或推荐等主动行为;消极要件则是指平台未能基于应具备的信息管理能力来预见和预防侵权行为。
从积极要件的层面看,生成式人工智能平台需要考虑其行为是否构成“主动对作品、表演、录音录像制品进行了选择、编辑、修改、推荐等”。类似行为是否应认定为构成主动参与的争议,之前在算法推荐问题上也曾出现。但即使在要求算法推荐平台应承担更高注意义务的案件中,法院仍然认为算法推荐技术的适用不属于主动编辑或推荐。相比之下,人工智能是根据用户的需要定制内容,只有用户在提示语中明确要求使用受著作权法保护的作品,算法才会在内容生成时加入,所以平台更不构成对作品的主动编辑、修改或推荐。
从消极要件的层面看,认定与平台信息管理能力相适应的注意义务与合理预防程度不可能有客观标准,只能依赖行业标准的积累和司法中的个案考量,因而也是司法认定争议最为集中的部分。我国最高人民法院和相关法院发布的司法解释和指导意见中,都是根据具体类型的网络服务提供者来对需要满足的构成要件进行不完全列举,同时根据网络服务的性质、方式、引发侵权的可能性大小、网络服务提供者的管理能力、是否积极采取了预防侵权的合理措施,以及行业的平均预见水平和制止侵权的平均管理能力等因素加以判定。
具体到生成式人工智能平台的注意义务认定,上述在司法裁判中积累的判定经验,可以结合提示语的侵权明显程度以及提示语与侵权内容的关联性加以类推适用,在此基础上考量生成式人工智能平台是否有能力预知提示语中包含的侵权意图。由于提示语完全源自用户的个性化需求,平台无法事先预知,所以在此环节中用户的输入行为类似在搜索引擎上输入搜索信息,从而可借鉴对搜索链接服务提供者的“应知”的标准进行判断。现行法律对搜索链接服务的立法和司法经验中一直以来的观点,都认为对传输的作品、表演、录音录像制品或者搜索到的作品、表演、录音录像制品是否存在权利上的瑕疵先行作出判断和筛选是不现实的,如果要求搜索链接服务提供者对搜索内容和结果逐一审核,则网络服务提供者要么严格控制规模,要么增加审核投入,二者都会严重妨碍互联网产业的创新与发展,牺牲社会的整体福祉。因此当搜索链接服务提供者仅根据用户输入的搜索关键词提供链接,而且没有证据证明其中存在人工干预的痕迹时,搜索链接服务提供者就不构成“应知”。对于因用户重复搜索类似内容形成的搜索提示词,也因为庞大的用户量、搜索量,以及搜索提示词即时性、动态变化、海量性特点,不可能要求平台承担事先审核义务。
同理,排除内容的同一性差异,生成式人工智能平台基于用户提示语生成内容,类似于搜索链接服务提供者对基于用户搜索关键词而链接到相应搜索结果,平台无法事前判定所生成的内容是否包含侵权元素。针对算法推荐展开的既有讨论也证明,过于严苛地要求平台扩张事前必要措施,只会导致平台迫于压力采用过于严苛的政策进行过滤,既会损害用户的合法利益,也会不当增加中小规模网络服务提供者的运行成本。
基于上述推理,生成式人工智能平台是否因为提示语中包含侵权意图而构成应知,仍然取决于平台是否存在直接影响用户设定提示语的行为。如果平台仅被动地根据用户输入的提示语生成内容,其功能就类似于搜索链接服务平台基于用户指令而提供链接的行为,只要平台没有通过特定方式诱导使用者设定包含侵权要素的提示语,其应知义务认定就应维持在自身信息管理能力的限度,回归适用《信网权司法解释》第8条第1款中“网络服务提供者应当具备的管理信息的能力”来加以判定,考量应知是否能够在现有技术条件下直接阻止人工智能生成侵权内容。如果平台在用户使用人工智能时以各种方式引导用户输入引发侵权行为的提示语,则平台行为就类似于搜索链接服务提供者所提供的“主动链接”服务,有理由推定平台方对所链接对象的具体内容具有可预见性。类推适用到生成式人工智能平台,可以认为无论技术上是否有能力控制侵权内容的生成,平台都因为这种主动行为而负有对生成内容的预知义务,应视为构成应知。从上述判定标准出发,生成式人工智能平台所应采取的必要措施,可界定为事前尽可能降低人工智能算法在经过提示后输出侵权内容的可能性,然而这意味着在技术层面需要考察是否能够通过“调整模型参数”和“删除被训练语料库中的素材”来避免侵权。
在以往涉及信息存储空间服务的相关判例中,法院曾提出要求信息存储空间服务提供者积极与上传者取得联系,对涉嫌侵权的内容是否原创或者具有合法授权进行核实。但从生成式人工智能的现有技术原理来看,这一目标无法实现。实际上,真正的人工智能算法并非以类似“洗稿”的方式从语料库中直接复制原作品中的独创性元素,而是通过使用包含原作品在内的语料进行训练的基础上自主生成新内容。提示语引发人工智能算法生成了与既有作品构成实质性相似的内容并非是算法有意为之,而是程序运行过程中暂时难以完全根除的错误所致。究竟何种原因导致实质性相似,技术上尚无结论,也无法预防。再者,从现阶段生成式人工智能的训练情况来看,平台对训练数据的知晓程度也颇受限制。不但实践中训练数据的收集和整理有很大比例是由第三方完成,而且这种在训练语料收集和整理过程中的权利信息标注和披露,也极可能侵害他人的隐私。因此平台在其信息管理能力内所能采取的必要措施,只能是事后针对已经稳定呈现的具体提示语与侵权内容关联来修改人工智能算法,而不应要求平台在事前实现调整模型参数来提前预防。
(二)“基于通知产生的必要措施”释义
在如今的互联网环境下,对于有效回应合格通知的必要措施界定,显然已经不限于仅排除通知所发现的侵权内容,而是需要考量在何种程度上能够达到防止重复侵权。对于生成式人工智能平台而言,一旦用户发现某种表述的提示语可以稳定生成特定类型的侵权内容,此类行为将反复出现,因而防止基于提示语重复生成已被通知过的侵权内容,同样是界定生成式人工智能平台法定必要措施范畴时需要考虑的问题。根据《信网权司法解释》第9条第6款,网络服务提供者是否针对同一网络用户的重复侵权行为采取了相应合理措施,也的确是判定其是否构成应知的考量要素之一。
一直以来,立法对这种合理措施的要求,是建立在技术手段的基础上。早在“避风港”规则初次入法时,立法中就明确要求网络服务提供者采用“标准技术措施”(standard technical measures)来阻止用户实施重复侵权。但由于当时寄希望于完全由著作权人来承担实施技术措施的成本,导致何谓“标准技术措施”的“标准”始终无法达成共识,各方只能从其他渠道应对重复侵权。这也是为何同样作为美国“避风港”规则中网络服务提供者免责条件之一的“标准技术措施”条款名不见经传,且鲜有其他国家直接移植的原因。在互联网平台的信息管理能力显著提升后,欧盟又开始以“尽最大努力”阻止重复侵权的立法来要求网络服务提供者承担适用技术措施的成本,以此扩大平台法定必要措施的范围。与此同时,网络服务提供者在实践中也因与版权产业主体在商业模式上的冲突而产生了相当的诉讼成本压力。为了降低商业运作成本和诉讼成本的需要,一些主流平台已经普遍采取包括算法过滤在内的技术手段来阻止重复侵权。
鉴于生成式人工智能平台所生成的是新内容,这种旨在通过技术比对实现过滤的手段难以取得类似效果。现有算法过滤技术的实现,一般包括“过滤—处置—异议”三个环节。在“过滤”环节中,“过滤”的启动实质上取决于权利人授权。“过滤”的目的是确认版权内容与用户上传内容之间的相关度与重叠度,通过数字指纹技术逐帧拆解用户上传的文件,将其内容信息转换为对应的热图(Heat Map)信息进行采样,据以完成实时“对比”与“匹配”。故平台在过滤之前,技术上必须先行获取作为参照对象的原作品。相比之下,平台显然因所生成内容和原内容的差异而无法适用上述技术,因而阻止重复侵权只能从语料和用户两个层面来尝试。语料层面考量的关键是,回到平台是否有义务通过“调整模型参数”和“删除被训练语料库中的素材”来阻止重复侵权。但这种手段在论证“知道或应当知道侵害行为应采取的必要措施”时已经发现,现阶段技术条件下人工智能大模型一旦训练完成,其生成内容偶然复现特定侵权内容的原因暂时难以确定,更不可能认定何种训练数据与所生成的侵权内容存在稳定关联,因此在“基于通知产生的必要措施”中也无法纳入此项义务。而用户层面的考量关键,在于是否应将封号等义务纳入平台通知后的必要措施,以屏蔽侵权人的方式阻止反复侵权,以及平台是否建立已获取合规通知提示语的数据库,采取算法或人工审核的方式屏蔽相关关键词的使用。前者目的在于将必要措施的实施对象从特定侵权行为转向特定侵权主体,后者目的在于提升平台对反复侵权的管理效率。两者的共同特征,是尝试把传统的必要措施更多扩张适用到事前。
必要措施范围的扩张,并非专门针对人工智能的出现,而是在以往的司法实践中早有突破。这种解释路径显然与欧盟《单一市场指令》在扩张必要措施上的立法选择一致。然而对于生成式人工智能平台而言,反复侵权表现为相同或相近提示语引发了既有作品独创性元素的复现,但每次呈现的方式会有差异,需要通过个案认定究竟应归于侵权抑或合理使用,无法将所生成的内容一概认定为侵权。因此司法裁判中针对直播平台和视频分享网站提出的预知要求和事前必要措施,难以直接套用在生成式人工智能平台上。但即使技术条件和成本不允许,并不意味着平台无需采取任何必要措施来阻止反复侵权。在现阶段可承受的技术和成本下,平台有能力通过以下必要措施阻止反复侵权行为。
一是,在无法将作品库和生成内容进行算法比对的情况下,针对已得到权利人通知且认定侵权内容中涉及他人作品的部分,可以采取内容标注的方式,提示用户该生成的结果可能存在侵权争议。我国相关行政规章已在其他涉及算法和人工智能的领域提出“标识义务”。对于生成式人工智能平台涉及的著作权侵权争议而言,专门标识“此内容可能存在侵权争议”的义务仍然需要落实到事前必要措施的解释中。
二是,保障用户的利益,构建有效的“转通知”和“反通知”渠道,避免著作权人和平台为片面保障著作权而通过技术措施不当损害用户的自由表达。对于平台方而言,在接到通知后直接采取必要措施是最为节约成本和避免侵权风险的选择,更多围绕用户利益展开的“转通知”和“反通知”反而没有得到应有的重视,以至于我国法院开始借助司法判决将“转通知”纳入平台必要措施的范围,并认为转通知能够起到“警示”侵权人的作用,一定程度上有利于防止损害后果扩大。但针对“反通知”却缺少这样的考量,以至于用户的利益在其中被忽略。因此鉴于平台无法自行判断所提供的内容是否侵权,应通过对必要措施的解释来保障用户有效反通知的渠道,以此制衡可能出现的通知和转通知的滥用。
五、结论
从保障产业发展的延续性和制度的可预期性出发,生成式人工智能平台侵权的认定规则完全能够以现有的“避风港”规则来涵摄。从技术层面看,人工智能生成内容具有被动性和不可预期性,平台并未直接向公众提供同一性的内容,而是根据用户的提示和引导向不同用户生成个性化内容,所以仍然应被视为网络服务而非内容提供者。从规范层面看,“避风港”规则多年的本土化适用已经积累了相当的司法经验来应对不同类型的网络服务提供者,生成式人工智能平台在内容存储与输出上与信息存储空间服务和搜索链接服务类型的相似性,使得在应知和必要措施范畴认定上的判例经验积累为平台著作权侵权责任上提供了诸多可借鉴的解释经验。
在此基础上,应对生成式人工智能平台的制度适用有必要坚持以下两点。其一,在平台主体资格的认定上,避免直接适用《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理办法》等未明确区分提供服务和提供内容的行政规章,保障生成式人工智能平台作为网络服务提供者的主体定位。其二,避免过分超越现行法律来谈论规制手段,借助类推解释的方法来涵摄新问题。专门为人工智能著作权问题设定新规的做法看似“按需定制”,但也必然导致新旧规范的冲突和新规范对原产业的不当调整。所以针对生成式人工智能平台的特点,“避风港”规则的具体化可以从“应知—必要措施”和“通知—必要措施”两个方面来加以专门解释,在明知和应知的认定上,可以类推适用信息存储空间服务和搜索链接服务在典型判例上解释经验,同时仅在有证据证明特定提示语和侵权内容之间的关联稳定地重复出现时,才应将修改特定模型参数纳入必要措施范围。

评论