中文

智能时代,与AI同行

点击展开全部

法律宝库

更多 >>

生成式人工智能中信用数据法律保护的逻辑与进路

发布时间:2025-04-23 来源:《科技与法律(中英文)》杂志 作者:刘浩 清华大学
字号: +-
563

摘要

生成式人工智能场域下,信用数据法律保护是实现数字法治的关键一环。信用数据应以“用于识别判断企业和个人信用状况”作为核心判断标准,其具有实现直接效益、承担金融信贷以及维系社会信用的特有属性。就信用数据的流程性风险而言,其存在生成式人工智能的违法爬取与算法滥用风险;就信用数据的内生性风险而言,其存在生成式人工智能的回溯流转与深度伪造风险。信用数据的宏观治理应当重申目的限制原则的约束、确保利益衡量原理的运用以及实现多元治理理念的贯彻。信用数据的具体保障进路应当围绕事前监督的管理举措、事中监管的审查机制以及事后救济的责任分配展开,凸显生成式人工智能场域下信用数据法律治理的效率性、安全性以及公平性。

关键词

生成式人工智能;信用数据;风险治理;法律保障

自OpenAI推出自然语言处理工具ChatGPT、文生视频工具Sora以来,以该类工具为代表的生成式人工智能(Generative Artificial Intelligence,以下简称GAI)实现了人机交互领域革命式的飞跃。当下,GAI在诸多领域的亮眼成就为人造科学与工程、生物学、医学等基础学科的融合发展铺平了道路,其将减少真实人工产品和虚拟人工产品之间的差异,实现虚拟世界和物理世界中人类经验和行为的交叉融合[1]。毋庸置疑,GAI的交互性、自主性以及创新性深刻地影响和改变了既有的人际生活关系、社会利益分配,成为推动数字经济高质量发展、实现国家治理现代化的又一着力点。例如,2024年法国数据团队基于公共服务实用信息训练研发了模块化GA“IAlbert”,其旨在提升行政手续的效率而满足行政机关提供公共服务的不同场景需要[2]。然而,GAI特有的倾向性预训练语言模型、周期性数据处理流程、“黑箱式”算法逻辑规则等缠附诸多未知的风险,如美国一名律师借助ChatGPT搜集类案资料呈交法官,该机器人明确表示生成的案例信息“千真万确”并且附带了相关信息的出处,但法院最后证实,原告方所提交资料的判决结果和引语等全部是子虚乌有[3]。

既有研究尚未针对性地关注GAI中信用数据的风险治理和法律保护问题,但这是十分特殊且必要的。因为在完整的GAI运行过程中,信息抑或数据成为构筑GAI应用的核心,是预训练、算法决策、结果输出三个阶段的重要参数,是在不同神经网络架构下开展机器学习、深度学习的“养料”。从金融风险来看,由AI生成的小作文欺骗性与迷惑性极强,低门槛、影响大的谣言出现抑或反转让以“信息+信心”为核心的股市市场交易秩序混乱、动摇投资者信心[4],造成资本市场严重的信用毁损。鉴于此,本文将GAI场域下信用数据作为研究对象并具体展开如下探讨:分析信用数据有别于传统数据的规范定位,探析GAI中信用数据潜在的法律风险,辨析GAI中实现信用数据审慎治理的宏观逻辑,最后缕析GAI中信用数据法律保障的全流程进路。

01 生成式人工智能中信用数据的规范定位

信用与信用数据的关系在于:信用数据是传统观念上的信用在GAI场域下物理化的电磁记录,而信用是信用数据的保护法益,二者分属保护对象、保护目的范畴。信用数据的内涵和属性决定了GAI场域中信用数据的保护范围,有必要优先探寻其相应的规范定位。

(一)信用数据的基本内涵

从信用的发展历程来看,信用数据的出现拓宽了法律对信用的保护场景。在乡土社会的差序格局中,社会关系是逐渐从一个一个人推出去的,社会范围是私人联系的增加而构成的网络[5],此时信用只有在私人联系的“熟人”社会关系中发生意义,其调整的社会规范主要是道德而无需法律过多介入。在受到大数据、人工智能深远影响的当前社会格局下,信用以数据为载体,在“陌生”社会关系中淡化了人格属性而导向了财产属性一侧,法律规范便强化了保护的正当性根基。从乡土社会到人工智能社会的转型,信用也相应地发生了时代性的变迁:即交易者从基于人身血缘的信任、契约合同的信任逐渐转化为对信息(数据)的真实性和有效性的信任,数据信用成为人与数据之间形成的一种单向信任的生产关系和社会关系[6]。比如,就有效性保护而言,在网络交易平台恶意刷竞争店铺的销量和信誉导致店铺被平台以虚假交易事由搜索降权,此种“反向刷单炒信”行为被司法实践认定为破坏生产经营罪,其大幅扩充了信用的法秩序保护场景。

从既有规范对信用信息基本内涵的框定来看,其主要包含“技术信用、经济信用以及社会信用”三种类型。第一种,国标《信用基本术语》(GB/T22117-2018)2.22将“信用信息”规定为:个人或组织在社会与经济活动中产生的与信用有关的记录,以及与评价其信用价值相关的各类信息。其聚焦国家技术标准领域,对信用信息采取了“信用或信用价值”的“相关性”判断标准,其因界定范围过于宽泛而属于广义层面的信用信息。第二种,2022年《社会信用体系建设法(向社会公开征求意见稿)》(以下简称《信用建设法》)第二条将其规定为:可用以识别具有完全民事行为能力的自然人、法人和非法人组织身份和信用状况的信息。其围绕社会信用体系建设的领域,对信用信息采取了“身份与信用状况”的“可识别性”判断标准。相较于第一种而言,第二种类型中的“可识别性”比前述“相关性”标准的识别范围更窄,因而属于中义层面的定义。第三种,2022年《征信业务管理办法》(以下简称《征信办法》)第三条将其规定为:依法采集,为金融等活动提供服务,用于识别判断企业和个人信用状况的基本信息、借贷信息、其他相关信息,以及基于前述信息形成的分析评价信息。其关注经济信用的领域而采用了“合法性、目的性以及信用状况的识别性”判断标准,属于狭义层面的界定。三种信用数据并非既有规范的内容冲突,而是从关涉业务场景进行的分类,因而难以按照某一时点规范的效力层级确定信用信息的统一内涵。实际上,信用大数据时代已不存在严格意义上的信用信息而无法通过列举识别,无论是征信还是社会信用立法领域,为实现立法的安定性和周延性,应将“用于识别判断企业和个人信用状况”的信用目的作为判断“信用信息”的核心标准[7]。唯有对信用信息基本内涵的识别标准达成共识,探讨GAI中信用数据潜在的法律风险才有章可循。

(二)信用数据的特有属性

《中华人民共和国民法典》第一千零二十四条第二款将信用作为名誉权保护内容之一,名誉权与信用的法律保护问题在名誉数据与信用数据的保护问题上存在竞合关系。鉴于此,有必要对名誉数据与信用数据的规范属性加以甄别。

第一,信用数据具有实现直接效益的功能,是信用主体提升市场竞争地位的关键要素。除了文首利用GAI生成与信用有关的虚假小作文造成股价损失外,信用与收益的直接性关联还体现在互联网电商领域。因为在电子商务领域,刷单炒信直接损害的是电子商务信用评价机制,刷单者伪造信用指标侵犯了消费者的知情权、造成了不公平竞争以及平台运营者的巨大经济损失[8]。类似的数据造假借助GAI迭代技术会变得愈发简单和门槛极低,但其皆未必与民事主体的道德、能力、声望,以及身体状态等有关而关涉名誉权。

第二,信用数据具备承担金融信贷的功能,是促进社会征信业务健康发展的核心要素。在征信领域,信用数据一般包含信息主体的借贷、担保、欠税、消费、生产经营等,在取得信息主体书面同意下,还得以涵盖个人的收入、存款、有价证券、商业保险等。信用数据得以揭示金融市场信用风险、减少信息不对称对市场效率的影响,授信方得以衡量贷款风险、减少交易成本、提高信贷决策效率;被授信方能够降低实物抵押担保负担、提升融资力度;监管者可以提高金融体系的稳定性、稳定国家金融秩序以及优化营商环境[9]。尽管信用数据范围十分广泛,但《征信业管理条例》(以下简称《征信条例》)第十四条明确禁止征信机构采集有关个人宗教信仰、基因、指纹、血型、疾病等个人信息,然而实践中的名誉侵权却多与前述被禁止采集的数据存在密切关联。

第三,信用数据具有维系社会信用的功能,是建立健全社会信用体系建设的基础要素。《信用建设法》将社会信用体系区分为政务诚信、商务诚信、社会诚信、司法公信四大类,其皆离不开对信用数据的合理收集以及安全保障;依据其第五十八条,信息数据可界定包含基础信用信息(用以识别信用信息主体身份和记载基本情况的信息)、能够反映信用信息主体信用的信息(如行政许可、法院判决以及荣誉表彰等)两类。于是,信用数据包含除了“个人信息”以外的其他数据,而关涉名誉权的数据则以“已识别”或者“可识别”为限,否则行为难以符合名誉贬损对象要件中的“他人性”要素。

02 生成式人工智能中信用数据的法律风险

众所周知,GAI引发新一轮技术革命的同时也引起了各国对数据风险的担忧,比如2023年意大利数据保护局(DPA)“一刀切式”地禁止使用ChatGPT,并限制OpenAI处理本国用户信息,而欧盟则于2024年公布《人工智能法案》(以下简称AI Act)展现了对新技术的谨慎态度。GAI模式运行的流程性与信用数据的流动性决定了数据安全风险的泛在性,要探索GAI场域中信用数据的法律保护逻辑与进路,应结合GAI的“数据训练、算法决策、结果输出”运行阶段展开风险分析。

(一)信用数据的流程性风险:生成式人工智能的违法爬取与算法滥用

其一,GAI的数据训练阶段存在对信用数据的违法爬取而引发安全性风险。第一,在数据训练的输出阶段,验证数据集预训练依赖于GAI对原生性信用数据的正向式、主动地爬取而缠附危险。以ChatGPT为代表的GAI在预训练阶段需要大量的数据支撑,当其被投喂数据时能够及时将社会所有个体的姓名、性别、电话、居住地址、出行轨迹、消费记录、诊疗档案等相关信息予以储存记录,此时仅需借助简单的机器算法便可轻而易举地推测出特定个体的个人偏好、财务状况、信用评级等隐私信息,加剧了信息泄露和被滥用的潜在风险[10]。例如,2023年谷歌就曾被指控违法窃取数百万用户的数据来训练AI,Clarkson律所起诉谷歌“一直在秘密窃取数亿美国人在互联网上创造和分享的一切”,并利用这些数据来训练其AI产品(如Chatbot Bard),起诉书还称谷歌在构建其产品时“几乎占用了我们的整个数字足迹”,包括“创意和文案作品”[11]。第二,在数据训练的输入阶段,GAI同样能够反向式、被动地借助系统模型将使用者输入的文字、图像、音频等内容以数据形式违规留存。例如,2024年11月OpenAI隐私政策的第4条明确规定了“个人数据的保留”,即平台保留用户个人数据的时长取决于多种因素,其判断取决于处理数据的目的、数量、性质、敏感性以及未经授权使用或披露造成的潜在风险等,但仅在某些情形下取决于用户的个人设置,其平台自主性决定程序极高而可能侵害GAI信用数据服务使用者的知情权、决定权以及删除权等。尤其是在以WarrenQ-Chat为代表的AI金融垂直平台中,信用主体数据处理的正当程序、合理期限等要素至关重要,其与信用主体的利益具有直接性关联而安全保护必要性显著增强。

其二,GAI的算法决策阶段从自发到自觉的数据处理模式容易造成算法滥用而招致失秩性风险。第一,在GAI算法模型的自主研发中,研发者在预训练阶段就已经通过循环式人工标注的打分模型优化改进了原算法决策模型,将生成的信用数据内容以符合研发者、使用者同行人领域的偏好标准,抑或外行人领域的平行评价呈现,该算法对信用数据的形成逻辑固有地内含了某种歧视性和垄断性风险。就歧视性风险而言,比如编程算法以一定的基准预先设立抓取的特定路径而带有明显的个人偏见色彩;就实效性的征信数据而言,如若个人征信系统包含个人信息的数据库更新频次不足而导致数据不准确,则算法对数据分析的结果与个人真实的信用评价便不匹配,进而影响个人的贷款成功率等[12],其属算法滥用造成信用主体的不当“画像”、评分评级以及技术偏见,明显造成以信用数据为核心的征信体系、社会信用建设体系的秩序性混乱。在风险社会中,风险对立分配的逻辑在于:此种分配不仅取决于一个人的绝对财富水平,还取决于一个人相对于他人的财富水平;尤其是在此种风险对立下并非每个人都能从危险加剧情境中拥有“私人逃生路线”,于是个人相较于他人财富水平的对比关系决定了是否会被分配诸多风险[13]。此种基于财富差异形成的风险分配逻辑,在GAI领域体现在算法设计的风险配置上:即在GAI三方法律关系下,算法研发者、服务提供者多以资力雄厚的网络数据平台、高新科技公司以及相关的金融信用公司为主,信用数据服务使用者可能因为未资本性实质参与算法的设计阶段而明显处于弱势地位。于是,GAI中算法滥用(尤其是当前服务研发者与提供者多以混同存在)能够形成经营者过度集中而限制市场竞争,进而通过限制信用数据流通制造市场的规模性垄断。

比如,除去电子商务领域通过搜索引擎算法设计操纵店铺主体信用的自然搜索结果、等级排序而侵害数据信用的真实有效外,部分企业基于算法使用形成的价格政策可能会因违反市场规则而严重侵害国民对市场信用的信赖。比如,在金融高频交易领域,代表性的例子就是2014年美国的雅典娜资本调查事件,该资本编译了一种算法用于实施非常经典但迄今为止难以想象的金融操作,即利用算法作为一种市场收盘标记策略,允许在收盘前的几秒钟进行大规模市场交易以影响最后的交易价格[14],通过算法滥用破坏信用数据的秩序价值内核。第二,GAI算法决策除了研发者的自主设计外同时包含了AI的自觉性部分,其形塑了“算法黑箱”生成信用数据机制的不可知性与可解释性危机。在算法安全风险形成的机制中,人为性是安全风险的前因,人是一切安全风险的起点,“人的意志”经由开发训练贯彻至“算法黑箱”的形成维护中,又以决策和行为的形式击穿开发、应用乃至监管的场景层而抵达“风险侧”[15]。针对此种周期性与往复式的算法决策修改、对非专业人士代码技术解读壁垒的考量,GAI研发者与提供者实际上难以向被决策方说明算法生成信用数据的数理逻辑。于是,GAI算法技术的门槛性导致信用数据存在不可解释性的困难。同时,算法的应公开性与商业秘密的受保护性存在底层规范逻辑的冲突,于是GAI算法理解的非透明性造就了信用数据输出的不可知性。

(二)信用数据的内生性风险:生成式人工智能的回溯流转与深度伪造

其一,信用数据在GAI的结果输出阶段存在跨境的流动性风险。第一,该跨境流动性风险表现为对数据安全评估的违规风险。前已述及,信息数据包含识别性的基础信用信息、反映主体信用的信息两类。从事实上来看,其毫无疑问与个人信息存在重合。从规范上来看,《中华人民共和国数据出境安全评估办法》(以下简称《评估办法》)第二条明确规定,数据处理者在我国境内收集和产生的重要数据和个人信息的安全评估适用本办法。《促进和规范数据跨境流动规定》(以下简称《流动规定》)第七条规定,作为境内关键信息基础设施运营者的数据处理者向境外提供个人信息、重要数据(运营者以外的数据处理者向境外提供重要数据或者达到一定标准的个人、敏感个人信息)需要申报数据出境安全评估。《信用建设法》第六十四条亦规定,信用信息的处理应当在境内进行。然而,国内用户在使用以ChatGPT为代表的域外GAI应用时,相关信息却是传输至该服务提供者的境外数据处理中心,再经由AI应用反馈回复服务使用者;是否需要针对个人信息的收集、存储履行具体的事前告知同意便存在难题,而且其存在事实上的数据出境行为[16]。因为,在使用者与GAI应用如此回溯交互之余,提供者已然完成域内信用数据的境外流转以及留存,因而当然地违反前述强制性规范中的安全评估义务。第二,该跨境流动性风险体现为对国家安全以及社会公共利益的风险。

从规范上来看,《评估办法》第十九条和《中华人民共和国网络数据安全管理条例》(以下简称《网安条例》)第六十二条将“重要数据”定义为:一旦遭到篡改、破坏、泄露或者非法获取、非法利用等,可能危害国家安全、经济运行、社会稳定、公共健康和安全等的数据。2021年《网络安全标准实践指南——网络数据分类分级指引》(以下简称网安指南》)2.2则对“重要数据”又作出如下限制性规定:原则上不包含国家秘密、个人信息以及企业内部管理信息,但当个人信息达到“规模性”或者基于海量个人信息加工形成衍生数据而关涉国家安全、公共利益时不受此限。于是,识别性的基础信用信息(即个人信息)和重要数据并非水火不容的概念,二者在前述谓之“规模性、关涉性”下存在包容的余地。从事实上来看,当前绝大多数的GAI应用除了支持自然语言文本、声音、图像以及函数调用等方式互动外,尚且配有数据实证分析、金融统计分析输入的特色功能模块,其为大规模、海量的信用数据跨境流动提供了可能。于是,信用数据的违规跨境流动不仅可能危及个人信用法益,而且极有可能危及国家安全、社会公共利益的超个人法益。也正是基于上述原因,中国支付清算协会就曾发布《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》,避免企业员工因使用此类智能化工具导致跨境数据泄露的风险出现。

其二,信用数据于GAI的结果输出阶段呈现数据失真性风险。在利用GAI深度合成领域,此种失真性风险体现在“深度伪造”(Deepfake)问题上。从技术上来看,深度伪造技术在诱发网络攻击方面带来了毁灭性挑战,该技术能够创建生成虚假视频、虚假图像以及克隆语音信息,网络钓鱼者可以生成几乎完美而足以代表各种大公司(主要是商业银行)股东的语音复制品,说服员工和公众泄露他们的登录凭证,从而导致网络攻击[17]。例如,香港就曾发生诈骗分子利用AI的深度伪造技术从国外视听网站YouTube上下载视频,模仿跨国公司高层人员的声音并制作AI“多人换脸”视频,通过营造多人线上参与公司内部视频会议的假象成功欺骗公司职员转账2亿港元[18]。2023年《互联网信息服务深度合成管理规定》第十四条规定,深度合成服务提供者和技术支持者在提供人脸、人声等生物识别信息编辑功能时,应当提示该技术服务使用者依法告知被编辑的个人,并取得其单独同意。然而,从实践上来看,深度合成服务的提供者不仅可能难以取得个人的单独授权同意,而且完全可能是根本不具备取得授权的规范意识。比如,在“林某肖像权纠纷案”中,原告是坐拥25.4万粉丝的某短视频博主,被告是运营“AI视频换脸”微信小程序的某科技公司,法院查明被告未经同意便使用AI视频换脸技术侵犯了原告肖像权,本案难谓被告不存在取得原告单独授权同意的机会。

03 生成式人工智能中信用数据的宏观治理逻辑

虽然GAI的不当利用会造成信用数据的诸多风险,但毋庸置疑,其具有技术中立、技术向善的一面,有必要对GAI中信用数据宏观的治理逻辑先予探讨。

(一)重申目的限制原则的约束

一般认为,处理数据应当符合目的主义的原则源于《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第六条规定,其与最小必要原则存在亲和性。同时,该法第十七、十九条又规定了个人信息处理目的的合理告知、保存期限的目的性限制等标准。此处,目的限制原则与GAI的技术逻辑存在紧张冲突关系。因为,从数据训练阶段来看,就OpenAI而言,其官网General FAQ部分就“何种类型的信息被用来训练ChatGPT?”指出,GAI以及其他服务是使用互联网上公开的信息、与第三方合作的信息、用户或人力训练师和研究人员提供和产出信息三类。而正如前文所述,OpenAI对用户所提供的信息数据保留了极高的自主决定权,信用数据可能被反复性、无限次地用于模型训练,于是目的原则的限制自然落空。从算法决策、结果输出阶段来看,对数据处理目的限制原则的偏离主要源自GAI的数据挖掘。即个人数据在被收集的时候需要被详细说明且不得超越既定的目的限制,数据挖掘属于数据收集过程中典型的二次目的;但由于数据挖掘的探索性本质,确定何种合理的模式实际上是不可能的,因而数据挖掘的目的具有不确定性而难以被目的性限制[19]。正是源自前述两方面目的限制原则的适用窘境,有学者认为:在GAI模型训练下,目的性限制原则陷入了循环论证的悖论;而在人机互动对话的场景下,该原则亦难以明确划定个人数据的行为边界,因为大模型与GAI所嵌入应用进行服务和数据的交互可能是实现服务所必要的[20]。

然而,目的性限制原则在人工智能领域中处理数据的“遇冷”并不意味着应当排除此原则的适用;相反,目的性限制原则在GAI的信用数据处理中具有重要指导作用而理应被强调和重申。理由包括如下几个方面:第一,从既有处理信用数据的规范条文来看,《民法典》第一千零三十五条(明示处理信息的目的)、《个人信息保护法》第六条、《征信办法》第十二、十五条(分别规定针对个人和企业采集信用信息的目的限制)以及意见稿《信用建设法》第六十条(处理信用信息与目的的直接性相关)等皆规定了数据处理的目的性限制抑或直接性关联。第二,从信用数据的识别标准来看,“用于识别判断企业和个人信用状况”是判断何为信用数据的核心标准,其同时也构成对GAI中信用数据处理的目的性限制。例如,在GAI的数据训练、算法决策、结果输出三个阶段,其处理的信用数据范围并不涵摄个人宗教信仰、基因、指纹、血型、疾病和病史信息等,其不仅是因为前述《征信条例》第十四条的禁止性规范的形式要求,更重要的实质原因在于此类数据与具体个人信用状况并无直接性关联,对其应当进行数据处理的场景性脱离。第三,从目的性限制原则与相关数据处理指导原则的关系角度来看,本原则处于个人数据保护法中的“基石”地位,如若削弱乃至放弃该原则,那么建立在本原则基础之上而彼此关联的最小必要性、透明、质量原则等皆会难以适用[21]。

(二)确保利益衡量原理的运用

利益衡量原理是个人数据处理领域的指导性原则,信用数据静态控制与动态利用关系的对立实际上是对信用数据主体权益与GAI研发者、服务提供者利益冲突的反映。在人工智能场景下处理信用数据应当坚持利益衡量原理的运用,其正当性类型具体包含法益侵害阙如和保护优越法益原理两种。第一,法益侵害阙如原理的适用尊重信用数据主体的自主性。即GAI服务的研发者与使用者已经遵循公开、透明原则合理地履行了信用数据的告知义务,明示了信用数据采集的方式、范围以及可能存在的风险,详细说明了数据的收集、存储、使用、加工、传输、提供、公开、删除等具体处理规则,GAI服务给予用户信息选择权。比如为防止终端用户信息的泄露,讯飞公司生产的翻译机专门设计了离线翻译版本,用户在离线状态下使用该产品并不会将信息上传至网络空间;法律可以对AI制造者进行规制,即凡是能实现离线使用的产品,制造者应当保障终端用户的信息选择权而设计该替代性程序[22]。当GAI服务平台遵守了《个人信息保护法》第十六条“处理者不得以个人不同意处理其个人信息或者撤回同意为由,拒绝提供产品或者服务;处理个人信息属于提供产品或者服务所必需的除外”的规定为用户提供了替代性方案、基础性服务的情形下,使用者单独同意选择某种服务时,依据同意阻却之法理,GAI服务平台无需对信用数据风险承担责任。第二,保护优越法益原理的适用强调人工智能平台的决定权。即实施相关信用数据处理行为积极创设或者消极保护的利益明显优越于对数据处理所创设的风险时,信用主体理应忍受必要的风险。从私法来看,《民法典》一千零三十六条第三款规定了为维护公共利益或自然人合法权益合理实施信息处理无须承担民事责任。从专法来看,《个人信息保护法》第十三条第四至六项规定了应对突发公共卫生事件或紧急情况下人身财产安全、公共利益新闻报道与舆论监督、个人自行公开或合法公开的情形下无须取得个人同意。从域外来看,除了欧盟GDPR第6条(f)规定了“合法利益”事由外,英国信息专员办公室(ICO)在《人工智能和数据保护指南》中同样指出,数据处理者可以基于合法利益处理个人数据以开发和持续使用AI,但是处理者必须承担额外责任以保护个人权益,证明数据处理的必要性和相称性[23]。因此,在通用性、实时性AI广泛普及之下,信用数据的处理自应确保利益衡量原理的适用,并以此构建GAI中的信用数据应用模块。

(三)实现多元治理理念的贯彻

互联网时代的重要特点是去中心化,国家与社会、政府与市民、国家机构与非国家机构之间的关系转变为扁平化、去中心化的新模式,不同主体之间相互依赖、科层较少而渐趋于网络体系的综合治理[24]。因此,GAI场域下信用数据的治理既不能强调监管机关的过度“家长主义式”监管,也不能完全依赖于平台“自由主义式”自治。因为,高度化的监管模式在周延保障信用数据安全的同时也会导致数据流通的低效和GAI应用模块发展的受阻,而完全的平台自治在全面实现数据赋能的同时也可能诱发信用主体的权益风险和GAI的失范危机。实际上,人工智能领域信用数据法律保护问题是技术与规范如何统筹协调的问题,其问题的本质在于如何妥当调和法律规范稳定性、适应性间的对立统一关系。应当认为,GAI场域下信用数据的治理需要坚持多元化的思维理念,尤其是注重将“内部管理型规制”引入人工智能领域。所谓“内部管理型规制”,是指为实现人工智能技术创新与风险防控的同频共振,主张以内部管理为源头治理而以最小成本遏制风险,在内部管理无效时诉诸外部规制,其呈现“平台自律、政府治理、法律规制”的三种逻辑顺位关系[25]。具体而言,平台自治是目标,GAI研发者与服务提供者以及关联的行业自律是实现GAI技术创新、AI场景应用优化的最前端,平台内部风险的识别、介入以及制度性保障是信用数据安全保护的第一道屏障。行政监管是主体,多元治理并非淡化行政主体的主导地位,而是强调GAI研发者、服务提供者与行政监管主体的协商沟通,对GAI中信用数据流通实现有形的政府引导与无形的市场调节。法律规制是基础,旨在将GAI中信用数据的流程性、内生性风险划归至损害赔偿抑或制裁预防中实现规制,其处于治理的末端。总之,应将内部管理型的多元治理模式纳入信用数据的治理,培育AI技术新发展的同时细化信用数据在AI场景中的治理规则,防范信用数据全流程性风险。

04 生成式人工智能中信用数据的具体保障进路

基于前述宏观治理逻辑的指引,GAI中信用数据的具体保障进路可以围绕事前监督、事中监管以及事后救济三个层面展开具体探讨。

(一)信用数据的事前监督保护:着力构建以效率为导向的管理举措

事前监督能够大幅降低GAI中信用数据治理的成本投入,在规避信用数据风险的同时实现经济效益的稳定产出,应以效率为导向积极构建以下三种具体的管理举措。

其一,强化推进GAI市场评估和信用数据保护顾问的双维举措。就GAI的市场评估准入而言,欧盟AI Act第6条以“是否对自然人的健康、安全或基本权利造成显著损害风险”为标准,对AI系统有高风险、非高风险之分,当高风险人工智能系统作为产品的安全部件抑或本身属于产品时,其必须接受第三方合格性评估,并根据附件所列的欧盟统一立法将该产品投放市场或投入服务。而我国《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)第十七条仅聚焦于提供舆论属性、社会动员能力的GAI服务领域,规定了AI应当按照国家有关规定开展安全评估。对比发现,欧盟对GAI的市场准入制度采取的是风险性标准,而我国采取的则是领域性标准。域外对GAI市场准入的范围明显宽于我国,未来我国人工智能领域可以借鉴该风险高低标准,将动态的市场准入和安全评估推行至对自然人、法人信用侵犯的信用数据治理领域,于事前端防范信用数据的违法爬取以及跨境流动风险。同时,除了《暂行办法》第八条规定服务提供者应当对数据标注人员进行培训、监督以及指导外,可以借鉴德国《联邦数据保护法》第4f条第1款所规定的“个人数据保护顾问”制度,将其独立作为阻挡层的制度保护实现GAI中信用数据治理的平台自律。个人数据保护顾问作为公共机构和私法主体书面任命的常设主体能够直接阅读算法而比一般人和行政官员更容易发现问题,其本身作为企业员工所形成的信任关系不仅能够保护企业内部的商业秘密,而且也使得外部的行政部门保持适当的谦抑性[26],契合内部管理型制度原理。

其二,积极落实GAI提供信用数据服务平台的数字守门人义务。虽然数字平台在本世纪初开始涌现,但直到最近它们都一直相对较少地受到监管限制,尽管监管机构一直在奋力跟上技术迭代以及迅速演化的商业环境,但强大的网络效应、数据使用的高回报、低边际成本、低分销成本等都使处在核心的数字平台市场易于倾斜[27]。为避免GAI服务平台经营者集中、形成数据孤岛效应以及将数据流通风险不当地转嫁至服务使用者身上,有必要落实和强化GAI中服务提供平台的代理式监管义务。欧盟2022年公布的《数字市场法案》(Digital Markets Act,以下简称DMA)确立了“守门人”(Gatekeeper)地位,明确规定禁止守门人使用第三方的终端用户个人数据以及将不同主体提供的数据进行合并等义务,确保了数字领域市场中“业务用户、终端用户以及提供核心平台服务提供者”三者间的竞争性、公平性以及稳定性关系。欧盟并非针对所有数据服务提供者皆加担此种义务,而是对守门人规定了“指定条件、状况审查、名单更新、义务更新”等限制性条件,比如就指定条件而言,DMA第3条规定了成为被指定“守门人”需要具备的条件要素:对内部市场有重大影响、提供核心平台服务(比如在线中介服务、在线搜索引擎、云计算服务等)而成为业务用户接触终端用户的重要门户以及在业务中(包含在不久的将来)享有稳固和持久的地位。我国GAI信用数据治理领域可以借鉴此种守门人制度,将部分提供核心平台服务的网络数据平台、金融信用公司等确立为信用数据领域的数字守门人,区分提供GAI信用数据服务存储、查询、公开、删除等功能的业务用户以及实际查询使用的终端用户,并针对数字守门人进行两端信用数据访问、数据移植以及数据互通制定相应的技术标准。

其三,沟通探索GAI提供信用数据服务平台的监管沙盒新举措。监管沙盒(Regulatory sandbox)是指,监管者与运营者齐聚一堂,后者开展新兴产品、技术、服务方面的安全风险实验,前者则学习和理解相关技术的特征机制而获取法规起草的专业知识,是一种相对孤立的、循环的学习和实验环境,根据实验目的不同而有监管或政策沙盒、创新沙盒、软件开发沙盒和数据沙盒四类。[28]从域外来看,欧盟AI Act不仅明确将AI沙盒视为应当支持的创新举措,而且于第58条明确规定欧盟委员会应以法案形式确定AI沙盒的建立、开发、实施、运行以及监督方式,该法案以规定监管沙盒的参与资格、沙盒计划以及退出机制等为共同原则。从域内来看,我国《暂行办法》第十六条规定,生成式人工智能服务的监管主体包含了网信办、发展改革委、工业和信息化部、公安部等,各个主管部门依据GAI技术特点、行业应用去完善和创新发展相适应的科学监管方式。因此,我国将监管沙盒作为GAI中信用数据治理的创新举措具有前置规范层面的依据,有助于实现AI平台自治的审慎治理目标。当然,聚焦于GAI提供信用数据领域,运营平台所应沟通协商的监管主体除前述第16条规定的部门外,还应尤为重视向中国人民银行提交监管沙盒入驻申请,由其对运营者信用数据的技术制度、安全管理、系统开发、风险防范进行齐备性、合规性以及可操作性审核,以此保障信用数据的高效率、低风险流通。

(二)信用数据的事中监管保护:积极健全以安全为价值的审查机制

对算法的事中监管是GAI中信用数据治理的主体部分以及重心所在,应当在数据治理的全生命周期中以安全为价值有序推动如下两种审查机制。

其一,切实履行形式实质并重的平台算法审查机制。第一,GAI信用数据服务提供者与终端用户所签订的用户使用协议、行业自律标准等“软法”成为判断算法透明、算法可知、算法精准的直接性依据,其属于平台算法形式审查机制的对象。比如在由GAI提供信用风险评估服务而订立用户使用协议时,为避免算法运营商以故弄玄虚的话术搪塞算法披露或歧视,应当树立以效果为导向的算法披露理念而确保非专业人士能够知悉该智能预测的逻辑与过程,其包括但不限于公开算法设计方式、数学模型及源代码、如何使用预测变量评估信用这一目标变量、算法优劣等[29]。又如,我国金融领域的行业标准《人工智能算法金融应用评价规范》(JR/T0221—2021)于5.1部分指出,金融行业应用AI算法安全性评价主要是从目标函数安全性、算法攻击防范能力、算法依赖库安全性、算法可追溯性、算法内控等方面提出了基本要求、评价方法与判定准则等。此类“软法”除应符合前述相应的技术设计目的需要外,还应嵌入伦理规范、行业习惯以及广义上的公序良俗、诚实信用等目的理性检验要素,其共同构成形式审查机制的基础标准而对算法偏见、算法歧视问题予以初筛。第二,应当诉诸高位阶规范扩大GAI场域下信用数据主体享有的算法解释权范围,通过对该解释权的法定化建构平台算法的实质审查机制。我国既有规范对信用数据服务提供者加担算法解释义务依然是条件式、鼓励性以及局域性的,比如《暂行办法》第十九条规定仅在配合主管部门监督检查的场景下GAI提供者才应按要求对算法机制予以说明;又如,《互联网信息服务算法推荐管理规定》第十二条规定鼓励算法推荐服务提供者优化检索、排序、选择、推送等规则的透明度和可解释性;再如,最高法《关于规范和加强人工智能司法应用的意见》第六条规定,保障AI系统中的司法数据采集管理模式、法律语义认知过程等各个环节能够以可解释、可测试、可验证的方式接受相关责任主体的审查、评估和备案。然而,在包含自动化决策合同场景下,自动化决策者与相对人之间的民事主体关系已然从平等关系过渡为权力支配关系,创制算法解释权的目的便旨在调整平衡前述地位关系,为相对方提供额外制度救济以实现实质平等[30]。此种算法解释权的内容涵摄信用数据处理行为、利弊结果、因果关系与责任归属、安全保障等,将其法定化能够将算法“权力—支配”关系调整为算法“权利—义务”关系,其为判断研发者、提供者成立不作为犯罪的作为义务来源、过失犯中注意义务的违反等提供规范指引。

其二,严格执行信用数据分类分级的安全审查机制。GAI场域下信用数据全链式处理包含了注释、标注、清洗、脱敏、更新、充实和聚合等步骤,而前述“技术信用、经济信用以及社会信用”的三种类型仅仅是信用数据内涵层面的大类划分,其无法与数据处理的审查程序、违法后果相勾连,有必要探索新的审查识别机制。2021年《数据安全法》第二十一条规定“国家建立数据分类分级保护制度”并强调对“重要数据、核心数据”的安全保护,其确立了数据分类分级的基本原则而自然得以作为信用数据的审查识别机制存在。同时,2021年《网安指南》4.2按照《数据安全法》第二十一条规定进一步拓展了该数据分类分级框架,依据“遭到篡改、破坏、泄露或者非法获取、非法利用,对国家安全、公共利益或者个人、组织合法权益造成的危害程度”,将数据从低到高分成“一般数据、重要数据、核心数据”。然而,2022年《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》(以下简称《数据二十条》)“第二部分第(三)项”对数据产权的分类分级确权授权是围绕“公共数据、企业数据、个人数据”三种建立的。此时,存在依照“等级不同”和“主体不同”划分的两套数据分类分级标准而理应确定契合GAI场域下信用数据治理的区分标准。毋庸讳言,应当采取依照“等级不同”区分的标准而将信用数据相应地划分为“一般信用数据、重要信用数据、核心信用数据”三类,以此开展信用数据的安全审查和识别保护机制。理由在于,第一,从效力等级上看,“等级不同”的分类标准有利于保证信用数据治理的稳定性。《数据二十条》作为政策性规范,其效力较低而富于变动性;相反,《数据安全法》作为专门性法律具有高位阶、稳定性,能够实现GAI场域下信用数据治理的连贯性。第二,从既有规范中看,《评估办法》和《流动规定》的第二条在数据跨境安全和自由流动方面、《网安条例》第四章在网络数据处理和数据安全方面皆明确使用了“重要数据”概念。因此,采取依照“等级不同”区分的标准有利于实现域内信用数据安全保护、域外信用数据跨境流动治理的衔接性。

(三)信用数据的事后救济保护:注重实现以公平为目标的责任分配

事后救济是GAI中信用数据治理的末端与最后保护的屏障,应当以公平为目标通过赔价(补偿、赔偿)和非难(报应、惩罚)实现风险结果的合理划归。

其一,作为GAI中信用数据损害责任分配的前提问题,应当坚持人工智能责任主体(能力)否定论。在前置法领域,责任的本质是应答,即行为人对自己行为的自我答责而以自由意志和自我决定为前提,AI因为不具有前述意志与决定而无法对自己行为予以应答,其只对人类输入的指令有算法反应,对于自身所造成的侵权或损害责任不具有认识而勿论反应一说[31]。在刑法领域,非难的前提系以辨认和控制能力组成的责任能力为基础,其性质可分为“犯罪能力说”与“刑罚适应能力说”[32],AI明显既不具备有责行为能力、意思能力,抑或犯罪能力,同时也不可能享有被科处刑罚的资格。有鉴于此,GAI场域下信用数据的风险治理问题不应聚焦于人工智能本身的能否答责性问题上,探究信用数据的现实化危险应当如何实现结果归属公平性、责任承担终局性的归责机制问题成为逻辑之使然。

其二,应当注重GAI场域下信用数据处理现实化危险结果中的结果归属与责任承担判断。在典型的GAI提供信用数据服务领域,存在GAI研发者、服务提供者以及终端用户使用者三方主体,对于侵害用户信用数据的法益侵害后果并非断然归属于研发者抑或提供者,其主要包括如下类型。第一,仅由研发者对损害结果负责的情形。比如在GAI信用数据服务研发阶段采用了监管沙盒模式,研发者通过隐瞒处理信用数据的算法缺陷、算法漏洞或者伪造沙盒计划、研发报告等欺诈手段通过了沙盒监管主体的监管抑或风险测评而实现GAI投入运行,此时提供者提供信用数据服务所造成的用户损害结果应当单独归属于研发者本身,其类似于间接正犯的构造(即研发者利用了无责任能力提供者的行为),而应当将被利用者行为造成的结果归属于利用者本身。第二,仅由提供者对损害结果负责的情形。信用数据事实上存在类似于前述依照“等级不同”区分的“一般信用数据、重要信用数据、核心信用数据”的划分,提供者对经由分类分级的信用数据处理存在注意义务(安全保障义务)的程度高低问题。如果因为服务提供者未尽到合理的注意义务而错误设置算法导致运行失误,那么其应当承担刑事责任;如若平台在设计伊始便合理设置算法逻辑、预测安全风险、将数据的保护需求嵌入算法以及合理展开全流程合规监管,那么算法生成错误结论就超出了平台的期待可能性[33]。第三,仅由使用者对损害结果自我答责的情形。当提供者已明确告知使用者信用数据服务的禁止性条款,使用者依然利用信息系统漏洞、基于不法使用目的抑或通过删除、干扰以及修改等方式破坏GAI系统功能进而导致信用数据泄露的,其因介入了明显异常的被害人自身行为因素而切断服务提供者、研发者对损害结果的因果力。

05 结语

伴随着大数据、云计算、人工智能等高新技术的快速发展,传统存在于“熟人间”的伦理信用、道德信用以及自然信用转变为了“社会中”的技术信用、法律信用以及经济信用。通过数据这一有形载体,具有社会经济价值的信用开始具备识别性、无限复制性、非消耗性的新表现形式。众所周知,GAI具有显著放大信用数据效益与引发信用数据风险的优劣秉性,因而GAI场域下信用数据的法律治理既应注重AI技术迭代更新与异化风险的问题,同时也应当关注信用数据区别于名誉数据、隐私数据等数据的特有属性。当前,GAI正由“人—人”交互的现实空间朝着“人—机”交互的虚拟空间迅速发展,信用数据治理的逻辑与进路需要进行相应地动态调整,通过规范与技术的融合实现科技向善而止于“智”善的远景目标。

参考文献

[1]JOVANOVIC M.Generative artificial intelligence:trendsand prospects[J].Computer,2022,55(10):107­112.

[2]人工智能:你知道Albert吗?[EB/OL].(2024-05-22)[2024-11-01].https://www.info.gouv.fr/actualite/ia-connaissez-vous-albert.

[3]武乐之.让ChatGPT协助办案美国资深律师被坑[EB/OL].(2023-05-29)[2024-12-01].https://m.gmw.cn/2023-05/29/content_1303388480.htm.

[4]李华林.依法治理股市AI“小作文”[N].经济日报,2024-06-20(007).

[5]费孝通.乡土中国[M].北京:生活·读书·新知三联书店,2013:34.

[6]高艳东,李莹.数据信用的刑法保护——以“流量黑灰产”为例[J].浙江大学学报(人文社会科学版),2020,50(3):63­78.

[7]王苑.信用大数据背景下信用的私法保护[J].中国法律评论,2023(1):68­78.

[8]王华伟.刷单炒信的刑法适用与解释理念[J].中国刑事法杂志,2018(6):95­111.

[9]李晓安.论信用的法权性质与权利归属[J].法学论坛,2020,35(2):50­61.

[10]龙柯宇.生成式人工智能应用失范的法律规制研究——以ChatGPT和社交机器人为视角[J].东方法学,2023(4):44­55.

[11]CNN官网.谷歌被指控窃取数百万用户的数据来训练其人工智能工具[EB/OL].(2023-07-12)[2024-12-01].https://edition.cnn.com/2023/07/11/tech/google-ai-lawsuit/index.html.

[12]吴椒军,郭婉儿.人工智能时代算法黑箱的法治化治理[J].科技与法律(中英文),2021(1):19­28.

[13]DEAN C.Risk society and the distribution of bads:theo­rizing class in the risk society[J].The British Journal ofSociology,2013,64(1):44­62.

[14]MARTY F.Algorithmes de prix,intelligence artificielleet équilibres collusifs[J].Revue Internationale de DroitÉconomique,2017(2):83­116.

[15]陈嘉鑫,李宝诚.风险社会理论视域下生成式人工智能安全风险检视与应对[EB/OL].(2024­11­5)[2024-12-31].http://kns.cnki.net/kcms/detail/61.1167.G3.20241105.1028.010.html.

[16]毕文轩.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角[J].比较法研究,2023(3):155­172.

[17]DASH B,SHARMA P.Are ChatGPT and deepfake algo­rithms endangering the cybersecurity industry?a review[J].International Journal of Engineering and Applied Sci­ences,2023,1(1):1­5.

[18]王展.被骗2亿港元!男子参加多人视频会议只有自己是真人[EB/OL].(2024-03-04)[2024-12-01].https://sft.henan.gov.cn/2024/03­04/2956493.html.

[19]HAN J W,KAMBER M.Data mining:concepts and tech­niques[M].Amsterdam:Elsevier,2006:679.

[20]尹玉涵,李剑.生成式人工智能的个人信息保护问题及其规制[EB/OL].(2024-09-12)[2024-12-01].https://doi.org/10.15886/j.cnki.hnus.202310.0241.

[21]武腾.人工智能时代个人数据保护的困境与出路[J].现代法学,2024,46(4):116­130.

[22]祝高峰.论人工智能领域个人信息安全法律保护[J].重庆大学学报(社会科学版),2020,26(4):150­160.

[23]张涛.生成式人工智能训练数据集的法律风险与包容审慎规制[J].比较法研究,2024(4):86­103.

[24]黄细江.人工智能技术下的个人信息保护:迈向合作的多元治理[J].中国科技论坛,2022(3):140­147.

[25]童云峰.生成式人工智能技术风险的内部管理型规制[J].科学学研究,2024,42(10):2038­2046.

[26]林洹民.自动决策算法的法律规制:以数据活动顾问为核心的二元监管路径[J].法律科学(西北政法大学学报),2019,37(3):43­53.

[27]WITT A C.The digital markets act-regulating the wildwest[J].Common Market Law Review,2023(60):625­666.

[28]BOURA M.The digital regulatory framework through EUAI Act:The regulatory sandboxes' approach[J].AthensJournal of Law,2024,10(3):385­398.

[29]贺译葶.人工智能在信用监管中应用的法律风险及其应对[J].甘肃社会科学,2022(4):142­150.

[30]张凌寒.商业自动化决策的算法解释权研究[J].法律科学(西北政法大学学报),2018,36(3):65­74.

[31]刘艳红.人工智能的可解释性与AI的法律责任问题研究[J].法制与社会发展,2022,28(1):78­91.

[32]张明楷.刑法学[M].北京:法律出版社,2021:396­397.

[33]陈禹衡.生成式人工智能中个人信息保护的全流程合规体系构建[J].华东政法大学学报,2024,27(2):37­51.

 

没有了 下一篇下一篇

评论

在线咨询