中文

智能时代,与AI同行

点击展开全部

法律宝库

更多 >>

中国人工智能法治研究2024年度观察

发布时间:2025-03-07 来源:法律适用 作者:AI善治学术工作组
标签: 人工智能
字号: +-
563

摘要

2024年可视为中国人工智能法治研究的新元年,进一步夯实了人工智能法治研究的中国叙事结构和自主知识体系。在研究议题上,呈现出“续章出新篇”的特点。在“续章”方面,决策式人工智能(算法)持久不衰,人工智能生成内容的版权问题重者恒重,智慧司法、自动驾驶、具身智能和元宇宙等人工智能应用场景平分秋色,人工智能法律责任研究仍然侧重民刑。在“新篇”方面,生成式人工智能风险治理堪称学术热点,人工智能数据语料库建设成为焦点,人工智能法治进入研究元年。

关键词

中国法学自主知识体系 生成式人工智能 人工智能训练 人工智能立法 决策式人工智能 人工智能生成内容

引言:人工智能法治研究的新元年

在人工智能重塑全球治理格局的过程中,构建中国人工智能自主知识体系是不可回避的重大命题。我国法学界一开始就有构建中国人工智能自主知识体系的自觉,逐渐摆脱西方法学范式移植和法律路径依赖,注重立足本土法治资源和实践问题,在传统法学与现代科技的张力中寻找人工智能治理的创新突破口,形成了“以人为本—AI善治”的价值坐标。从知识生产维度来看,2017—2023年人工智能法治研究所凝聚的智识,已经相继体现在2019年的《新一代人工智能治理原则》和2023年的《全球人工智能治理倡议》之中,形成了人工智能法治的中国叙事和东方智慧。

2017年兴起的人工智能法治研究热潮,以高被引文章《人工智能时代的制度安排与法律规制》为标志,可谓之“元年”。2024年,人工智能法治研究进入了“新元年”,这意味着人工智能法治研究已经从“前沿热点”成为不可忽视的主流学术讨论主题。具体体现在以下两个方面:第一,从CLSCI期刊文献数量和增幅上看,2024年人工智能法治研究文献总量达到2017—2023年文献总量的33.35%,2024年人工智能法治研究发文量较2023年增加168篇,环比增长47.86%,增幅创历史新高;第二,在2024年CLSCI期刊文献中,人工智能法治研究成果也取得了历史性突破,519篇文献中的CLSCI期刊文献量达136篇(占比26.20%),首次突破三位数,较2023年增加65篇,环比增长91.55%。(见图1)

一、人工智能法治研究的指导思想

当今世界百年未有之大变局加速演进,全球创新版图和经济结构经历深刻调整。人工智能已经成为国际激烈竞争的新焦点和各方抢占的制高点,世界主要发达国家纷纷加强人工智能谋划部署,力图在新一轮国际科技竞争中掌握主动权。目前,中国、欧盟、美国等均将人工智能立法提上议事日程。我国第十三届、第十四届全国人大常委会立法规划将人工智能立法列入其中,国务院2023年、2024年也连续两年将人工智能法草案列入年度立法计划。纵观人类社会的发展历程,每一次重大技术革命,都会带来新的治理难题,给传统法律框架带来挑战,但也预示着国家治理的机遇和法治的进步。

人工智能是我国推进社会高质量发展的重要发力点。习近平总书记强调,“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”“加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源”。《中共中央关于进一步全面深化改革 推进中国式现代化的决定》(以下简称《决定》)指出,要“完善推动新一代信息技术、人工智能、航空航天、新能源、新材料、高端装备、生物医药、量子科技等战略性产业发展政策和治理体系,引导新兴产业健康有序发展”。2024年《政府工作报告》首次提出了“人工智能+”行动,进一步明确了人工智能在国家发展战略中的重要地位。《决定》还强调,要“加快形成同新质生产力更相适应的生产关系,促进各类先进生产要素向发展新质生产力集聚”。人工智能作为引领未来的战略性新兴技术,已经成为发展新质生产力、推动科技革命和产业升级的核心引擎,同时新质生产力也成为推动新发展阶段经济增长的新动能。

高水平安全也是我国推进人工智能技术产业发展的重要指导思想。《决定》明确要求,“完善生成式人工智能发展和管理机制”“加强网络空间法治建设,健全网络生态治理长效机制”“加强网络安全体制建设,建立人工智能安全监管制度”,提出了加强人工智能法治的改革任务。近年来,我国陆续出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》,在全球范围内率先开展人工智能领域的规范制定工作,发布《新一代人工智能伦理规范》《人工智能安全治理框架》,积极进行制度探索。2025年1月12日至13日,中央政法工作会议要求,善于通过科学立法解决新问题,针对重点领域、新兴领域、涉外领域,司法部要主动研究提出立法建议。比如要研究无人驾驶、低空经济、人工智能、虚拟货币、数据权属等新问题。

我国也积极参与全球人工智能治理合作,提出中国主张,作出中国贡献。2024年7月1日,第78届联合国大会以协商一致方式通过了我国提出的加强人工智能能力建设国际合作决议,140多个国家参加决议联署。这是全球首个聚焦人工智能能力建设的共识性文件,充分彰显我国对人工智能发展和治理的负责任态度和重要引领作用。三天后,2024世界人工智能大会暨人工智能全球治理高级别会议发表《人工智能全球治理上海宣言》,提出要促进人工智能发展,维护人工智能安全,构建人工智能治理体系,加强社会参与和提升公众素养,提升生活品质与社会福祉。该宣言为全球人工智能的治理范式和治理路径提供了新思路,得到各界积极响应。我国遵循科技创新发展的规律,坚持发展与治理、创新与安全并重,在联合国框架内切实推动人工智能治理的国际合作,为全球人工智能发展和治理作出中国贡献。

综上,中国人工智能法治形成了以“发展”与“治理”为支点的自主知识体系。该自主知识体系有助于促进人工智能产业的健康发展和增进社会福祉,为中国在全球科技竞争中赢得战略主动。欧美从互联网时代积累形成的“技术先发优势”,已经在人工智能时代被我国迎头赶上。当前,欧美等国家正以前所未有的速度加速推进人工智能领域的立法进程,力图通过“率先”立法来确立并巩固其在该领域的主导地位。面对这一发展趋势,我国要应势而为,积极推动人工智能立法,构筑参与人工智能全球治理的前提和基础。人工智能立法也离不开自主知识体系的支撑,亟待学界进一步凝聚共识、沉淀夯实、丰富发展中国人工智能自主知识体系。2024年的人工智能法治研究成果正继续为中国乃至全球的人工智能法治秩序体系建设进一步夯实和深化知识基础和理论储备。

二、生成式人工智能风险治理堪称学术热点

生成式人工智能的法治研究成果在2024年呈现爆发式增长,占据本年度人工智能法治研究成果总量的22.54%,倍增于2023年生成式人工智能论文成果总量。面对生成式人工智能对社会现实和社会意识的颠覆性影响,各领域学者从不同角度提出实践法治问题,试图建构行之有效的分析框架。研究成果集中在五个主要领域,即生成式人工智能的风险治理、版权因应、侵权归责、刑事规制和个人信息保护。其中,风险治理议题热度最高,可以归纳为制度沿用、风险规制、治理转型,折射了高自主性智能科技何以治理的现实隐忧。

(一)制度沿用:致力于适用现有法律规则

《生成式人工智能服务管理暂行办法》作为全球第一部专门规制生成式人工智能的法律文本,引起了广泛关注。但其性质为部门规章,主要聚焦信息内容安全问题,因此其私法上的地位、义务和责任仍有待研究。多数意见认为,该办法并未从私法上明确生成式人工智能服务提供者的法律性质,应明确服务提供者为侵权法上的特殊责任主体,规定专门的免责机制,有条件地免除其赔偿损失责任。不过,也有学者主张生成式人工智能侵权的加害人具有“不确定性和群体性”,侵权法“一对一的主体模式”适用空间有限,可将侵权责任归属于“人—机联合体”,进而施加于人工智能的各参与者。

生成式人工智能服务提供者的注意义务可能来自“危险之先行行为引发的义务”“法令上义务”和“一般防范损害发生之义务”,且可通过概括预见能力判断其注意义务。具体来说,注意义务主要包括语料处理义务、对齐微调义务、内容审查义务和用户管理义务。此外,民法典上的通知规则要求服务提供者负有“避免致害内容再次生成的义务”;民法上的诚实信用原则与经济法上的产品信息披露义务为生成式人工智能生成内容的标识义务提供了“自律”与“他律”的法律依据。

在著作权方面,有研究提出由于著作权侵权领域的接触规则失灵,对接触的证明将转变为对过错的证明。此外,应类型化设置“避风港规则”适用的责任豁免规则,形塑选择性适用著作权合理使用规则的阻却违法事由认定机制。

(二)风险规制:尊重技术特性并立足现实国情

大模型的数据训练和部署应用会引发不同的风险,各自的风险根源在于“训练数据的质量问题和敏感性”和“模型被滥用、模型的负外部性和通用性”。生成式人工智能除了大模型相关风险以外,还存在个人信息与著作权保护风险、内容错误的误导风险,以及算法偏见、失控和滥用风险。此外,ChatGPT-4在运行过程中表现出来的各种内生性缺陷,使其极易发生数据泄露、数据污染、数据侵权等方面的刑事法律风险。

风险规制以全面识别和预防为核心理念,为此需要健全风险识别与评估、预警与救济等全链条治理机制,将生成内容、数据信息、模型算法一并纳入规制,形成三位一体的完整闭环规制策略,以将生成内容的潜在风险降到最低程度。借鉴域外经验,可让行业协会、研究机构等“中间行为者”发挥规制作用,采取“自中而外的规制方法”建立合作型规制空间。不过,在借鉴域外法时需要注意,欧盟集中统一式的风险分级分类方案具有不科学、僵化等问题,对生成式人工智能与大模型的规制也不尽合理。我国应坚持对人工智能风险的场景化规制,将人工智能应用者或其构成产品作为风险规制的对象,而对人工智能系统及其提供者,则主要关注国家安全、重大公共安全规制与其他领域的自我规制。

(三)治理转型:场景治理宏观且尚未形成理念共识

生成式人工智能作为生产工具改变了社会生产生活的形态,引发了超出现行法律规制的新生问题,并导致私人技术资本逐步成为数字空间的真实权力拥有者;“本体论身份引发的价值张力、训练数据的代表性偏差与安全系统被动保护”也带来了技术治理的三重困境。生成式人工智能的法治问题是典型的“科林格里奇困境”,因此从“规制”到“治理”的转型,成为生成式人工智能法治研究的重要方向。例如,大型语言模型及相关应用的法律风险治理面临微观和宏观层面的系列挑战,需要平衡多方面的目标,应当基于包容审慎监管、分层治理、深度治理和敏捷治理的路径对大型语言模型的法律风险治理开展谨慎、灵活的探索性制度实践,进而逐步完善生成式人工智能的风险治理体系。

在理念方面,人工智能的法律治理首先要融入“共治”的理念,既要着眼人工智能的社会意义,又要体现广泛的社会性和人的固有价值。还可借鉴“宪法人工智能”的基本理念,构建“动态的内容反馈评估机制”以实现生成内容治理的路径矫正。在不同治理场景中,要克服传统规制理念和手段对治理生成式人工智能存在的路径偏差。例如,“以审慎原则,发展原则、生态原则为核心的规制理念”可以应对生成式人工智能数据污染的治理需求;再如,强化算法歧视治理、明确算法的辅助性地位和实现决策过程的透明化的治理路径有助于防范生成式人工智能辅助行政决策的算法隐患;又如,治理生成式人工智能虚假信息应在不同阶段设置不同的处置主体和处置手段,应尽早介入,实施精准处置,实现有效反制,采取全链条式治理策略。

综上,生成式人工智能风险治理的议题展现百花齐放的态势,通过引入域外经验或借鉴跨学科知识,诞生了多种的新型治理理念、治理原则和治理框架,在治理强度与方法上存在较多分歧。在不同学术观点的精彩碰撞中,学者对本领域研究方向达成了一定的共识,生成式人工智能法治思路初具雏形,在法治轨道上进行技术创新成为治理前提,生成式人工智能的内容生产成为治理关键。风险治理仍是人工智能立法的基础性问题之一,未来有必要围绕风险规制的法治理念、策略、方案和规则等多个层面持续开展精细化研究。相比于人工智能,生成式人工智能并非新事物,人工智能法治研究“旧瓶”,仍可装生成式人工智能“新酒”。接下来的研究应着重厘清生成式人工智能和人工智能在法治底层逻辑上的关系,共性部分可直接援引人工智能法治研究成果,而不应“重复造轮子”,个性部分应展开充分的对话式研究,尽早求取“最大公约数”或形成互补性共识。

三、人工智能训练数据语料库建设成为焦点

在聚焦于人工智能训练数据语料库建设的主题文献中,法学类期刊被引总量最多、出版类单篇被引最高,研究内容主要包括版权保护、数据权利和个人信息保护三大方面。

(一)版权保护的“合理使用”与“版权许可”之争

“合理使用”是解决人工智能训练数据版权保护问题的“多数说”。人工智能训练数据中对版权作品的使用属于“非表达性”或“转换性”使用,构成合理使用,且著作权合理使用应作为数据训练著作权侵权规制路径的最优解。在立法上,应完善合理使用条款。具体路径上,可在著作权法中加入“为人工智能数据训练使用他人已经发表的作品”的合理使用条款;或在《著作权法实施条例》中增设计算机分析的合理使用类型,并通过三步检验法予以限制;或者是建立安全港制度,引入科研和业务改进例外的数据合理使用制度,进一步细化公开数据利用规则。在司法上,明确合法性认定条件。可通过司法判例明确网络数据来源合法性认定条件,协调版权规则确定线下数据使用合理性制度边界,构建开放机制满足公共数据参与语料库建设的需求。

“版权许可”是解决人工智能训练数据版权保护问题的“少数说”。一是法定许可,提出将用户训练算法使用作品的行为纳入法定许可范围,建构包括“法定特殊情形+定价”两部分的生成式人工智能预训练法定许可使用制度,并设立专门的集体管理组织负责著作权许可使用费的收取、转付及维权。二是授权许可,提出建立一套整体协调但内部区隔的模块化授权许可机制,强调大型企业主动建立版权许可机制,以公平、合理、无歧视的方式进行授权声明。此外,还有观点提出基于自发于市场的“作者-内容提供商-人工智能服务商”授权许可模式,引入版权人“选择退出”机制,并适用避风港规则。

(二)创新探索数据权利保护路径

人工智能数据训练行为不必然构成合理使用,数据权益难以被版权法周延保护。为此,可以通过数据产权路径,借助数据许可等拓宽持有者授权渠道,设置经营者和加工者特定义务,兼顾数据效能释放和主体权益保护。具体而言,应在保障训练数据来源者的在先权利基础上,使训练数据处理者享有训练数据持有权、使用权和经营权,与共同处理者分享平行的训练数据权利,并根据法律规定或合同约定负有向训练数据需求者提供训练数据的义务,由此实现训练数据权利的模块化设计。

(三)迈向包容审慎的个人信息保护

在生成式人工智能大模型的训练中,有关个人隐私、个人识别信息、医疗健康、生物信息等的敏感数据不应纳入训练数据,除非在个人同意的情况下经过去标识化和去敏感性处理。应在此基础上,完善个人信息保护法规制,具体措施包括拓展个人信息处理的合法性基础、改造告知同意机制、实施个人信息保护影响评估等。此外,还要强调以行政监管为主导的保护机制,侧重服务提供者的技术保护等义务。

综上,人工智能训练数据语料库建设,需要在合理平衡好各方利益的基础上才能实现“可持续”。毋庸置疑,个人信息应当受到保护,但在数据利益上,到底是通过版权保护,还是数据权利保护,学界众说纷纭,有待达成共识。在未来,人工智能训练数据语料库建设需要从以下三方面深入拓展。一是个人信息保护规则的细化,如个人信息分类分级保护、个人信息保护的具体评估标准等。二是形成利益保护共识,需确定是版权保护、数据权利保护的单一路径,还是二者兼顾的多元路径。三是完善配套规则,如人工智能训练数据的版权信息披露范围、自由度、标准、例外等,人工智能训练数据中的数据安全保护分类分级、监管制度等,以及包括伦理嵌入、技术保护能力提高等方面在内的人工智能训练数据的协同治理。

四、人工智能立法进入研究元年

由于立法议题的特殊性,相关研究成果主要集中在法学领域。现有研究内容涵盖人工智能立法的价值基础、基本路径、体系化构建和伦理治理模式,以及人工智能在交通、教育、产品责任等具体应用场景下的立法探讨。不过,我国人工智能立法的定位和目标、模式和路径、框架和支撑等基础性问题亟待解决。

(一)立法的定位和目标

第一,立法定位。我国在实践中快速形成了“科技和产业发展”和“信息内容管理”两种不同的人工智能立法定位,我国应将人工智能纳入前沿科技和新质生产力范畴进行定位,以推动科技创新和产业创新深度融合。或者说,我国需要在立法层面实现从“技术安全法”到“促进技术创新”的重心转变,建构基于综合治理范式的“人工智能技术促进法”。不过,也有学者主张“安全”元素,认为人工智能立法应当包含促进法、安全法与程序法的三重定位,以及认为人工智能法应当以发展与安全并重为指导思想。总体上讲,人工智能法应当定位于基本法并充分发挥其高阶引领作用,具体应采取“立总则、廓主线、留接口、适时灵活推进”的“总则式”进路。

第二,立法目标。人工智能已经成为当前国际技术竞争与规则竞争的关键领域。围绕发展应用之目标,一是须知“不发展是最大的不安全”,我国应当高擎发展旗帜,系统部署促进人工智能技术产业发展的专门制度,充分促进人工智能技术在生产生活中的应用;二是通过可信人工智能的理论检视和制度建构,破除人工智能发展应用之最大障碍,从根本上推动人工智能技术的应用和发展。围绕技术促进之目标,我国应当避免单一治理范式的局限,构建“风险预防—市场激励—创新资源保障”相结合的综合治理框架。此外,人工智能的有效治理是法律、伦理、市场和技术标准等多种工具融合运用的结果,法律并非唯一有效的工具,应当推动科技伦理的法治化。

该问题上的分歧在于分析框架和论证逻辑。部分学者立足于我国人工智能产业“领先的追赶者”的独特地位,推衍出发展为先的立法目标和包容审慎的治理原则。部分学者则以我国人工智能治理实践中快速形成的两种立法定位为逻辑起点,深入分析二者优劣,并结合技术特性及治理趋势,深刻论证我国人工智能法的合理定位。还有学者主张明确可信人工智能是我国人工智能立法的重要方向,可信人工智能法律建构之关键在于遵循以人为本、人类主导、技术中立等外在准则和透明、安全、可问责等内在准则,捍卫现代法治的传统和宪法确认的公民的基本权利,维护人类福祉。应当说,学者之间已经形成较大共识,普遍承认人工智能法具有风险治理(安全)和技术促进(发展)的双重属性,并认为在当下科技变革和国际竞争之特殊时代,我国应将人工智能法主要定位为“技术促进和产业发展法”,以法律制度破除发展桎梏、推动技术进步。

(二)立法的模式和路径

关于立法模式和路径,学者观点存在明显分歧。一派赞同集中统一式立法模式,主张为促进人工智能高质量发展与高水平安全单独立法。整体策略上,由全国人大常委会以人工智能为主题的综合性法律为主进行统一立法,根据人工智能不同应用场景和生命周期分别开展配套法规立法。在具体路径上,主要有三种不同主张。其一,注重务实。借由灵活的立法形式,应对立法与科技发展之间的时效差异。也就是说,可以考虑通过灵活的载体形式,以小快灵立法、全面性立法乃至法典化等形式适时、稳步推进。其二,优化层次。借由分层治理的思路,应对技术更新、产业迭代带来的问题。具体而言,“人工智能法”应当是我国人工智能领域的基本法律,旨在定基调、明方向,仅对立法目的、调整对象、基本原则、重要制度以及一般规则等基础性问题予以明确,具体的细节制度应在时机成熟时、实践检验下通过行政法规、部门规章等规范性文件以及国家标准等确定。其三,引入“系统—控制论”。在法律体系化方法中嵌入“系统—控制论”原理来整合领域立法素材,并以人工智能“研发—生产—服务—使用”节点为横轴,以“具体风险控制”和“抽象权利保护”两种控制模式为纵轴,构筑人工智能立法制度谱系的基本线索。

另一派则赞同分散场景式立法模式,主张对人工智能风险实施场景化规制。以解决具体问题为目标进行分散式立法,保持灵活性、小步快跑,可由全国人大常委会就人工智能安全与发展涉及的重大原则问题先制定一份法律问题的决定,明确基本原则与方向,然后通过不同部门法的“立改废释”分别推进。同时,将人工智能风险还原到具体的行业、整体产品与已有的法律关系中,利用已有的行业和领域性风险监管以及现有的法律关系对其进行监管。例如,人工智能伦理审查制度宜在科技伦理治理框架内单行立法。

学者们在人工智能立法路径上达成了部分共识,即强调在当下阶段保持立法的灵活性,先以“总则”“原则”或“框架”等形式明定方向、凝聚共识,为人工智能发展提供必要的制度保障,同时防止超前立法阻碍技术进步。

(三)立法的框架和支撑

在治理框架方面,我国人工智能立法应当厘清一个基本误区,即人工智能不能被假定为生成式人工智能,人工智能的技术路线与应用方式十分庞杂,应当对其进行适当区分,采取分层多支式的治理框架。人工智能的开发者与开发活动、提供者与提供活动、使用者与使用活动、监管者与监管活动,构成了人工智能法调整对象的主客坐标,建议关注人工智能法对外的空间效力边界,以及对内的与人工智能要素法和人工智能应用法的协调。在制度支撑方面,我国人工智能立法应当高度重视数据的基础性地位,应当从建立完善的数据伦理体系、推动数据技术的负责任创新、迈向数据法律的整体性治理三个层次推进全面、系统的数据治理体系建设。此外,还应当融入伦理治理元素,通过树立养成主义而非决断主义的理念,将科技伦理框架有序转换为法律治理方案。

大体而言,我国学者就人工智能立法问题形成了两个层次的共识:一为统一立法之共识,即建议采取集中统一式立法模式规制人工智能活动;二为立法定位之共识,即特别强调人工智能法之技术发展和产业促进定位,谨防立法过度对技术发展之阻抑。此外,具体制度之上的共识和分歧并存,包括分类管理制度、个人权益保障制度、国际合作制度等共识,而分类管理方案、个人权益类型、国际合作模式、发展支撑措施等制度设计层面则存在一定的分歧。

总的来说,立法本身是一场复杂的利益平衡活动,人工智能立法是一个重大的理论和实践问题,以下三个问题需要学界关注并形成更多的共识。第一,下沉到事实判断问题之上,以符合社会生活实际为坐标,对涉及人工智能的利益关系去“假”存“真”;第二,深入到价值判断问题之上,着重类型化讨论哪些利益关系适合应用人工智能法加以调整以及如何实现;第三,细化到具体问题之上,这些利益关系如何通过人工智能立法的体例框架、内容规则和配套制度等得以安放。这些问题亟需加强对话,以便立法时机一旦成熟即可供给智力资源。

五、决策式人工智能(算法)持久不衰

以算法为代表的决策式人工智能,在2024年总发文量方面与上一年度基本持平,发文趋势仍保持上升态势,这意味着人工智能法治下的算法研究已经度过了快速增长期,进入了相对稳定的成熟阶段,持续吸引着学界的关注与投入。围绕“算法”展开的研究,已经从“是什么”的基础阶段,进入了“如何管”的探索阶段,已经从初期的认知转向了更深层的应用治理,跳出了“讲概念、下定义”的框架,向更加系统化、精细化的方向发展,着重探寻有效的“规制之法”,这种研究动向也能从侧面说明“算法治理”的持久热度与重要程度。

(一)算法治理的主客体二分

积极伦理观的树立可以为算法技术向善的实现提供理论指引,但是欲实现算法科技伦理对算法行为的更好规制,就需要通过法律控制的思路以增强其外在约束力,这意味着法律在算法治理中起到独特作用。在整体策略上,需要考虑到算法规制“从合法到可信”的转向需求。具体而言,增强可信度意味着需要提高算法的可解释性或者透明度。一方面,技术上制造可解释人工智能是实现算法透明的一种新的选择;另一方面,如果确因安全因素不予公开算法,则需要满足利益冲突标准、价值比较标准与替代方案标准等三项利益衡量标准。需要认识到,揭开算法面纱、露出隐藏的主体,以及规训僭越的客体是算法治理的关键。基于此,可归纳算法治理的两大切入点,即围绕主体展开的责任与义务配置,以及围绕客体(算法)展开的应用失范治理。

在前者上,学界虽有争议,但基本认同算法背后的平台是主要的归责主体。然而,由此引申的平台义务仍不能形成共识。以平台注意义务为例,多数学者认同应提高平台的注意义务。但如何提高,仍是见仁见智。例如,有学者建议“互联网平台在算法纯粹输出场景下无需承担概括性的注意义务,同时应当在算法流量倾斜场景下承担更高的注意义务”。又如,还有学者主张分别从整体和个体层面出发,对算法推荐服务提供者承担较高注意义务的边界进行系统划定和完善衡量。

在后者上,算法应用失范依然主要表现为算法黑箱、算法共谋和算法歧视等,但是治理思路却更加多元,大体上可归纳为场景化治理、类型化治理、部门法治理三种思路,以部门法治理研究成果居多。其一,场景化治理思路,算法分场景应用的特性为这一治理思路提供了合理依据。将算法引入不同场景有不同难度,不同场景应当设置不同的人机分工关系和算法的任务范围,这要求将算法应用场景进行分类,制定“因景制宜”的治理策略。例如,应根据常规场景、关键场景和争议场景分别确定算法规制的路径选择和技术方案。具体就司法场景而言,数据和算法驱动的新一轮司法改革主要体现在四种一体化平台——智慧审判平台、智慧执行平台、智慧诉讼服务平台以及智慧管理平台的构建和运行上。其二,类型化治理思路,算法技术的多元特性为这一治理思路提供了合理依据。例如,可以将算法分为传达型算法、诱导型算法、修正型算法和驱动型算法,在对算法进行类型化构建的基础之上进行算法规制。其三,部门法治理思路,算法治理跨领域的特性为这一治理思路提供了合理依据。在多个法律部门中,行政法和反垄断法领域的算法治理研究热度较高。

在行政法领域中,将“人权司法方法适用于算法行政争议”具有一定的现实功能,但需要注意的是,自动化行政中算法解释节点要采取事后解释并辅之以事前解释。同时,基于法国实践的教训来看,以算法行政公开透明为中心的行政法规制框架无法有效应对多元的复合风险。在反垄断法领域中,现行反垄断法律规制体系的实施,面临着算法共谋行为认定难、共谋证据固定难、共谋责任划分难等挑战,算法黑箱、算法歧视等问题未有效解决,还出现了如算法驱动型差别待遇等新问题。以算法推荐为例,其过程的确存在一定的黑箱风险,应通过通知—删除(过滤)措施做有效的应对。同时,可以考虑通过动态构建差异化的受保护特征清单、打造具有一致性和可预测性的算法歧视审查框架,以及建立合法性与必要性并重的算法影响评估机制,多角度寻求算法反垄断的有效实现路径。

除此之外,公法领域注重全链条制度构建,主张围绕事前算法制定环节、事中算法运行环节、事后算法审查环节整体性构建关于算法目的的公法规制框架;私法领域注重保障多主体平衡,主张建立算法审查制度、基本权利保护责任制度以及算法问责制度,配置用户算法解释权和申诉权等。

(二)算法治理的多维方案

现有研究成果形成了算法治理的丰富框架,为应对算法带来的复杂挑战提供了多维度的解决方案。例如,在算法治理模式的选择上,可以构建“数据—模型—结果”三维一体的治理模式。又如,在算法治理工具的选择上,算法审计能够很好地契合自动化决策的社会技术系统属性,因而可以将其视为算法治理的有效工具。再如,在算法治理方式的选择上,应推动新兴技术工具融入治理实践,借鉴“以链治链”的形式,推动形成“以算法治算法”的治理方式。

总的来说,算法治理研究热度依旧,广度和深度则更胜。在主体责任与义务配置的问题上,需要尽快将学界共识以法律等形式固定下来,确定的责任归属能够为各主体的行为及其后果提供清晰指引。同时,需要加强对义务履行机制的研究,探索建立算法透明度、可解释性、可问责性等具体实施标准,为实践提供更加完善的治理方案。在治理算法应用失范的问题上,需要立足现有研究成果,比较不同治理思路和模式的优劣,重点评估算法审计、算法影响评估等治理工具和方式的有效性,尽快形成共识,探索出具有可操作性的治理框架。如此,算法治理才能走向更加规范化、体系化,推动我国人工智能法治体系持续完善。

六、人工智能生成内容的版权问题恒重

在人工智能涉及的知识产权问题中,版权问题一直是重中之重。尤其是2024年,人工智能生成内容的可版权性和权利归属问题成为聚焦话题,研究成果集中在法学、出版和社科综合领域。

(一)人工智能生成内容的可版权性

肯定论仍占多数,主张人工智能生成内容具备独创性,属于“作品”。一方面,人工智能生成内容具备“作品”的构成要件。人工智能作品具备接近于传统作品的客观价值,在性质上应归属于著作权法保护的“作品”范围之中。但是,人工智能生成内容的可版权性标准应该从作者身份转向独创性,因为该问题的关键在于用户是否直接触发创作行为并贡献足够多的独创性表达。人工智能生成内容能否构成作品,应该具体考虑个案的不同情景,只有生成内容能达到独创性的判断标准,才可构成作品,且越能体现出使用者个性化表达的生成物,越有可能构成作品。具体而言,同比例复制的孪生内容不属于作品,差异化表达的伴生内容属于演绎作品,创造性表现的原生内容属于原创作品。另一方面,承认人工智能生成内容的可版权性符合利益平衡的正当性。著作权法的“宽进宽出”结构提示我们,将用户做出独创性表达的人工智能生成内容纳入著作权法,是在认知层面最为经济的利益平衡分析框架,基于独立创作例外和版权救济手段的灵活性,承认人工智能生成内容获得作品资格的可能性,并不会过度妨碍公众自由。并且,赋予人工智能生成内容相应的知识产权保护,有利于鼓励用户利用人工智能从事知识创造活动,促进相关智力成果的传播和利用,而这反过来又有利于促进对人工智能的研发和投资,引导资本不断向人工智能产业注入,从而推动产业良性发展。

同时,否定论也逐渐增多,多维度论证人工智能生成物不具备可版权性。一是人工智能生成内容不具备“表达”的形式要件。用户贡献(如提示行为)不能决定构成内容的表达性要素,仍然属于“思想”,而非“表达”。以图片为例,由于用户输入的提示词与人工智能生成的图片之间并不具有直接的对应关系,故而提示词相对于图片而言仅属于思想而不构成表达。二是人工智能生成内容不具备“独创性”的实质要件。人类在人工智能内容生成过程中关于模型、提示词、参数的选择修改不具有著作权法意义上的创造性,人工智能与传统辅助创作工具存在本质区别。三是人工智能生成内容可版权不符合利益平衡原则。人工智能生成内容版权垄断会产生公共资源被抢占、作者权益被威胁和消费者选择受限的危害,不宜受到版权保护。此外,我国单独承认人工智能生成物的可版权性,将导致国际保护的不平衡,即以《伯尔尼公约》其他成员国为起源国的人工智能生成内容可以在我国获得保护,而以我国为起源国的人工智能生成内容难以在其他成员国获得保护。

(二)人工智能生成内容的版权归属

第一,使用者说。生成式人工智能的使用者基于创作行为取得作者身份和著作权,可通过共同创作、委托创作等既有著作权法律关系的权属规则将著作权原始分配给人工智能的人类使用者,或者通过将署名权和其他著作权进行分离的制度设计,将生成式作品的其他著作权分配给使用者。第二,设计者说。将人工智能设计者作为作者,可以激励设计者开发更符合创作需求的人工智能产品,使用者作为委托人,通过提示词引导人工智能生成内容,并优先根据合同约定权利归属与风险规避。第三,共有说。著作权共有模式,即著作权由使用者和人工智能技术公司这两个直接参与者共同享有,人工智能技术公司再代为行使大语言模型所收入内容数据的著作权人这一间接参与者的权利,从而兼顾各方利益主体的权利。第四,约定优先综合说。该说提出,基于信息成本、介入程度、负外部性以及域外经验的分析框架,人工智能生成内容的版权归属应以约定优先,法定缺省规则则依各方介入程度确定,可在个案中结合实质贡献、投资激励和利益平衡原则确定著作权归属。例如,根据“创作主义”或“投资主义”原则,将著作权分配给有意思能力和责任能力的自然人或法人,即在当事人约定优先的情况下,以归属创作者为一般原则,同时兼顾投资者利益。此外,针对纯粹人工智能生成的作品这一特殊类型,有不同的版权归属学说,如全权用户归属模式、条件性用户归属模式、订阅依赖归属模式、开发者保留归属模式等。

综上,关于人工智能生成内容可版权性之分歧,主要在于两个层次:人工智能生成内容应划归“思想”,还是“表达”范畴;若认可人工智能生成内容的“表达”属性,是否应当赋予其著作权。关于人工智能生成内容的著作权归属问题,学者之间基本达成共识,普遍认为不应归属于人工智能,分歧在于归属哪一类“人”。虽有多种主张,但大多数学者认为应将著作权赋予人工智能工具的使用者。DeepSeek取得跨越式进步,但人工智能生成内容的版权问题本质依然没改变,法律层面仍然无需激进的制度性变革。未来的研究应该区分输入端和输出端,不应笼统地讨论生成式人工智能的版权问题,输入端主要是作品型语料的版权问题,在输出端应当着眼于两个问题。其一,输出内容是否侵权,以及侵权时的注意义务和责任承担;其二,输出内容版权归属确定过程的利益相关者识别,以及利益分配规则的科学性和可操作性。

七、人工智能应用场景细分领域平分秋色

2024年人工智能应用场景的法治研究,主要围绕智慧司法、自动驾驶、具身智能(人形机器人)和元宇宙四个主题展开,研究成果数量相差不大。刊发智慧司法研究成果的期刊较为分散,而自动驾驶、具身智能和元宇宙研究成果主要集中刊发在部分刊物当中。

(一)智慧司法

法律人工智能是智慧司法的技术基础,相关研究聚焦于其理论研究与实践应用。法律人工智能的理论研究聚焦道义逻辑与法律人工智能的关联,以及从规范封闭与认知开放视角设计发展路线。实践应用则反思其“幻象”与“本相”,澄清法学界对数据法学相关学科的误解,强调法学应打破学科壁垒。法律人工智能虽有局限,但能作为司法论证助手,在人机交互平台协助法官,与司法融合支撑法律命题证立。人机协作是智慧司法的最佳前景,应当在数字法治框架下构建模式,发挥机器辅助决策优势,重塑司法公正。

需通过虚实空间耦合、强化技术解释权等举措,深入推进数智技术驱动的中国式司法现代化。在类案裁判和辅助说理方面,法律人工智能虽能将价值判断转化为经验判断并为法官提供参考,但无法替代法官选择类案判断的实质标准。相比裁判结果预测,更应关注司法人工智能辅助说理能力。刑事司法与人工智能的融合是重要的研究方向,需将人工干预机制从形式化向实质化、体系化转变,实体上明确辅助智能系统及决策在刑事司法中的定位,程序上遵循主体控制等原则。此外,人工智能嵌入商事仲裁可提升决策效能,人工智能仲裁裁决是仲裁法新发展,这种模式因为效率、经济、公正具有可欲性,算法转变为其提供技术可行性。

在智慧司法领域,职业共同体越来越清醒地认识到,人工智能无法取代“人”,算法无法替代“法”。在法官经验数据和专家知识的持续“喂养”之下,也许法律人工智能可以“独立”解决大部分标准化的事务性、非决策性工作,但至少多重司法价值平衡离不开法官的“价值理性”。可以认为,法律人工智能不会取代法官审理案件,只会是辅助工具。

(二)自动驾驶

一是自动驾驶的生命冲突,即自动驾驶汽车“电车难题”。与传统“电车难题”相比,自动驾驶汽车“电车难题”在伦理对象、选择时机以及利益关联方面存在特殊性,大大增加了法律规制的难度。目前的学说分歧,主要在于生命可衡量性:有学者认为对生命的紧急避险并非没有限制,在特殊情况下生命价值具有相对可衡量性,应构建刑法紧急避险的自动驾驶程序设计指导;也有学者认为除了存在危险共同体的情形外,生命原则上不具有可衡量性,在保护的优先性上应采取“无辜第三人>车内乘客>制造了法益冲突状态的危险源”的顺序。

二是自动驾驶的注意义务与刑事责任。容许风险本质是对法益风险的合理分配,应以此为基础形塑主体间更合理的注意义务体系。自动驾驶汽车生产者的注意义务认定需要求助于过失犯的一般性规定,并运用产品责任方面公认的原则。自动驾驶研发者是否违反结果预见义务需要参考当时的科学技术水平。违反自动驾驶汽车设计缺陷的注意义务则具有刑事违法性,应对自动驾驶汽车犯罪设立严格责任模式和过失责任模式。不同意见认为,刑法理论没有必要创设人工智能罪刑体系,纾解自动驾驶事故归责困境的路径为恪守信赖原则以限缩驾驶人注意义务,在被允许的危险理论视角下,研发者责任不应为严格责任。

三是自动驾驶的民事责任与保险制度。重新分配自动驾驶技术民事责任的归属,研究保险制度如何适应新的技术发展需求是当前研究焦点之一。以自动驾驶汽车为代表的替代型人工智能致人损害时应适用产品责任规则,但在产品缺陷判断问题上存在实践难题。在完全和高度自动驾驶阶段,使用者应为机动车责任保险的第三者;在有条件自动驾驶阶段,使用者过错责任仍然受到机动车责任保险的保障。

(三)具身智能

第一,法律地位之争。肯定说认为,人形机器人与人类本体差距正在缩小,其功能与外观可使其成为人类社会互动的参与者。具有“反事实”因果能力的智能机器人能够纳入权利主体理论,并且根据人类尊严和法律需求设置不同的权利主体层级。否定说认为,将人形机器人确定为法律主体,既不符合传统法理及其背后演进的逻辑,也违背立法目的,更会引发人类社会系统性的生存危机。

第二,个人信息、隐私与数据法益保护。人形机器人在与人类交互过程中,会掌握大量个人信息,存在泄露的风险。应在隐私类型化理论的基础上,考虑制定人形机器人应用场景和风险分类方案,引入前置法确立的数据分类分级保护规则,指导数据犯罪立法完善与司法认定,还需在人工智能立法中确立“通过设计来进行隐私和数据保护”的原则,并明确设计者的可责性。

第三,法律责任承担。在民事责任方面,对于人形机器人自主致人损害,需分别规定人形机器人提供者的产品责任、大模型提供者的共同侵权责任、人形机器人使用者的侵权责任;若考虑将人形机器人制造商作为最小成本规避者,可引入技术避风港等豁免机制。就刑事责任而言,在当前人工智能的发展阶段,传统的刑法教义学原理可以处理绝大部分的机器人刑法归责问题,理论上主要存在代理责任、过失责任、严格责任、独立责任四种各有利弊的刑法归责模式。涉及AGI人形机器人刑法归责的类型,主要存在间接正犯责任模式、过失责任模式以及AGI人形机器人直接责任模式三类观点。

(四)元宇宙

其一,人身侵害之辩。以性犯罪为例,肯定论认为针对虚拟人物的精神伤害就是针对现实人的伤害,无需媒介就可直接构成从虚拟到现实的穿透。就网络隔空性交的行为特征来看,隔空性交侵犯和现实性交侵犯在形式与本质上趋近一致。否定论主张被害人可以随时通过摘下眼镜、取下头盔等方式脱离元宇宙环境,很难认为数字人实施的具有强制性外观的行为足以穿透至物理世界,达成压制被害人反抗的效果,进而充实“以暴力、胁迫或者其他方法”这一叙明的构成要件要素。

其二,金融治理之策。元宇宙为金融市场带来了新的机遇和风险,应在智慧规制理论的基础上,结合不同跨界融合场景对现实世界的影响程度而采用“跨界融合治理”模式。在数字货币监管方面,应采用信息披露、算法偏差纠正、隐私保护与反欺诈措施。在金融信息保护方面,应审慎立法,专注于以消费者、用户为核心的价值维护,需要新建归责原理、避免“长臂管辖”,另辟金融信息保护路径。

其三,信息安全之治。就平台而言,应确立元宇宙平台的审批备案义务,明确信息技术服务提供者的安全评估和不良信息识别义务,以及平台运营者在不良信息传播方面的法律责任。就劳动者而言,在元宇宙虚拟空间的劳动场景下,劳动者有权获知用工方或穿戴设备提供者对其个人信息穿透与获取的范围、使用用途等,并获知工作条件。就政府而言,不同类型的数据可能涉及不同程度的敏感性和隐私保护要求,为此相关部门需要制定分类标准,并确立事前监管的管理模式。

总体上,在人工智能具体应用场景的法律问题研究中,智慧司法和自动驾驶等议题的讨论越来越务实,但在人形机器人和元宇宙等议题上仍不乏“科幻元素”。在要素式起诉状、答辩状已经开始实践的当下,智慧司法相关研究亟待投入更多的资源,主要包括智慧司法科学理论构建、社会主义核心价值观融入法律人工智能、人工智能量刑,以及生成式证据偏在性和质证问题。在自动驾驶汽车的产品准入市场之前,责任承担等制度设计也迫在眉睫,需要在解释论和立法论上深入研究并达成共识,并以此为前提细化责任规则。对于诸如人形机器人、元宇宙等探索性较强的议题,则应脱“虚”向“实”,回归到人类中心、社会实体等本质问题之上,比如数据安全、隐私和个人信息保护,以及责任承担问题等。此外,相比于人工智能的其他应用,人脸识别应用已经融入社会生活,其法律治理应得到足够重视,尤其是相关原则或规则如何适用,比如“最小必要原则”的“最小”和“必要”如何判断等。

八、人工智能法律责任侧重民刑

2024年的人工智能法律责任研究的特点,与2017—2023年期间的人工智能法律责任研究的“重民刑而轻行”大体一致。变化之处在于行政责任的探讨已经微乎其微,少量行政责任探讨主要聚焦于人工智能体执法并承担执法责任的可能性。

(一)人工智能刑事责任

除了上文已经提及的自动驾驶和人形机器人的刑事责任问题外,人工智能刑事责任问题主要涉及以ChatGPT、DeepSeek为代表的生成式人工智能刑事责任承担问题。刑事责任由人工智能承担,还是由人类承担,存在不同观点。有学者认为,ChatGPT、DeepSeek等生成式人工智能与人类一样可能是同时受自然法则(他律的、自然律的因果性)和道德法则(自律的、由自由而来的因果性)支配的物种,从而推定其可能拥有自由意志,进而满足承担刑事责任或者成为刑事责任主体的最本质条件。也有学者主张,ChatGPT、DeepSeek类生成式人工智能产品投入流通时,如果符合国家标准、行业标准且不存在当前科学技术水平能够发现的缺陷,一般不宜追究产品提供者的刑事责任,在产品投入流通后,产品提供者应承担适度的安全管理义务,若违反有可能追究其刑事责任。

(二)人工智能民事责任

第一,产品责任。人工智能产品责任针对人工智能生产研发端的风险损害,解决的是生产者一方的责任承担问题。产品责任支持者提出,应重塑产品缺陷判断标准,特别考量人工智能产品的新安全需求,并区分辅助型与替代型人工智能,合理判断人工智能自主行为与使用人行为是否构成替代原因,引入因果关系推定规则,以注意义务的违反判断生产者过失并以此作为认定产品缺陷的标尺。产品责任反对者则认为,人工智能系统无法像传统产品一样保证不出错,且产品构成类人工智能系统的风险和收益取决于嵌入产品而非人工智能本身;产品责任的规制思路弱化了人工智能技术广泛存在的嵌入性特征,可能使未来的很多人工智能脱离法律监管框架。

第二,应用责任。人工智能应用责任针对人工智能部署应用端的风险损害,解决的是服务提供者、使用者一方的责任承担问题。有学者主张生成式人工智能的服务提供者、使用者应按照主体对算法规则、数据投喂、关键词选择所作“贡献”的比例承担相应的责任,也有学者建议服务提供者原则上应当承担具有间接侵权责任属性的“相应的补充责任”。有学者反对概括性地界定归责思路,主张引入基于风险的类型化思维,对于高风险人工智能确立无过错责任,对于有限风险与低风险人工智能分别适用过错推定责任与过错责任,以实现风险与归责的动态平衡。

第三,归责原则。人工智能民事责任之认定应当综合运用各类归责原则,不应排除特定归责机制,以实现风险与收益的精准匹配。过错责任、过错推定责任与无过错责任的适用之争是人工智能归责原则议题的核心。“过错责任”支持者认为,过错责任可以成为规制生成式人工智能侵权的重要原则,在产品缺陷认定时通过复兴生产者过失要素可以妥当表达适当减轻生产者责任的价值衡量结论。“过错推定责任”支持者认为,过错推定原则可以充分救济受害人因人工智能生成内容侵权造成的损失,也能够反向激励服务提供者提高注意义务;既符合服务提供者与受害人地位不平等、技术复杂性高、信息不对称的现状,也符合强化受害人救济的现实需求。“无过错责任”支持者认为,无过错责任不仅制度成本更低、救济效果更好,而且未必会导致对人工智能创新活动的过度抑制,反而会有助于维护社会对人工智能产业及人工智能监管体制的信任。基于维护著作权人合法权益、合理分配社会风险、有效降低监管成本的考虑,AIGC服务提供者适用无过错责任承担著作权侵权损害赔偿责任更为适宜。

第四,“避风港规则”。支持者认为,网络时代设立的通知规则是极具价值的避风港规则,可以直接适用于生成式人工智能侵权,而非类推适用。当然生成式人工智能也在一定程度上改变了传统的通知规则,尤其是丰富了“必要措施”义务。有学者主张,应从区分两种情况进行适度调整:对于训练数据和生成内容都构成侵权的,可以引入“面向未来的审查义务”;训练数据不侵权而生成内容侵权的,采取“消除”措施即可,实施责任豁免。反对者则认为,AIGC服务提供者不再属于传统网络著作权侵权中的技术中立者,因而无法适用“避风港规则”主张免责。裁判者可以通过动态衡量服务提供者的注意义务内容而控制责任水平,无需再赘余地适用避风港原则进行责任限制。

总体上讲,学者基于不同视角和方法就人工智能的民事责任问题进行了深入探讨,虽有分歧,但也达成了两点共识。第一,反对“整齐划一”的归责方式,主张基于风险的不同类型和水平,综合配置各种归责机制,尤其不应排斥特定归责形式的运用。第二,强调民事责任科学分配之于技术创新的有效引导,偏重从政策激励视角研究责任规则的设置,如无过错责任之合理运用、通知规则之正确适用、缺陷认定标准之适度更新等。人工智能在行政领域的应用很难体现“独立性近人行为”,最多是行政主体的“替身”,而不是“替代”,因而行政责任的研究空间很小。而刑事责任的本质在于人工智能主体性,在当前研究已较充分的时间节点上,可探讨空间不大。未来人工智能法律责任研究,应从以下三个方面深入和拓展人工智能民事责任问题:其一,不同归责原则在人工智能应用场景下的功能和定位,如何形成科学完整的归责配置体系;其二,除直接适用或改造通知规则外,是否有必要构建适应生成式人工智能的其他避风港规则,以及是整体适用还是分阶段适用避风港规则;其三,加强特殊应用场景(如自动驾驶、辅助诊疗)中的人工智能民事责任认定研究,实现一般原则与特殊规则之衔接。

结语

当DeepSeek突然发布比ChatGPT问世时还令大众沸腾,当“秧BOT”现身春晚舞台转手绢,作为研究者的我们已经在人工智能应用的一波又一波浪潮中回归“冷静”。因为当我们回顾中国人工智能法治研究的2017—2023年“断代史”之后,再审视2024年“新元年”时发现,在以人类为中心的社会秩序中,人工智能的本质问题并没有改变,至少人工智能法治的核心问题没有质变。比如,DeepSeek依然落入生成式人工智能范畴,而“秧BOT”是具身智能(人形机器人)的具象化展现。当然,这并不意味着研究没有进展,2024年的中国人工智能法治研究呈现出“续章出新篇”的特点。“续章”意味着人工智能法治研究议题已形成“整体稳定”的知识生产格局,“新篇”意味着人工智能法治研究共同体能保持“局部活力”的知识生产能力。法学界的贡献之一在于人工智能法治知识生产,并为构建人工智能法治秩序体系提供智力资源。放眼未来,在《决定》形成的人工智能“发展和治理并重,兼顾国际合作”的叙事结构中,人工智能法治研究应该更加注重丰富中国人工智能法学自主知识体系,进而向全球呈现中国人工智能法治的学术体系和话语体系。

没有了 下一篇下一篇

评论

在线咨询