中文

Base on one field Cast our eyes on the whole world

立足一域 放眼全球

点击展开全部

法律宝库

更多 >>

论人工智能与知识产权

发布时间:2023-09-11 来源:知识产权杂志 作者:曲三强
字号: +-
563

内容提要

科学技术可以改变世界,以GPT为代表的人工智能科学技术的快速发展,影响并改变着人类社会的生产方式和生活方式,相应的社会发展新模态也正在形成。从本质上看,人工智能与知识产权的关系就是主体人类与客体自然之间的关系在科学时代的一种折射。其中,人与自然的关系是第一性的矛盾,人与人的关系则是第二性的矛盾。前者关系的紧张会逻辑性地传导给后者,并加剧后者的矛盾。经验表明,建构文明社会的法治,通过科学技术创新改进生产工具,提高生产效率、创造更多财富以满足人类不断增长的物质文化需求,是解决人类社会基本矛盾最人性、最公平、最合理的方式。人工智能本身具有工具属性,必须对它进行理性的价值评判,干预并规制科学技术创新的自发倾向,使之按照人类命运共同体的价值目标向善而行。与人工智能最相契合的法律机制是知识产权制度,后者具有自然法意义上的合法性。运用知识产权制度来调整和规制人工智能的开发与应用,合理配置资源要素,提高劳动生产效率,促进经济繁荣发展,公平分配社会财富,才能最终实现科学技术向善并造福人类的理想目标。

关 键 词

知识产权 人工智能 生成式人工智能 硅基生物

引 言

科学技术创新所导致的社会变革与法律影响既是本文研究的原因,也是本文研究的目的。科学技术可以改变世界,人类正处于前所未有的科学技术大爆发的时代,信息、生物、新材料、新能源、人工智能等技术的快速发展,影响并改变着人类社会的生产方式和生活方式,与此相应的政治、经济、文化和社会发展的新模态正在形成,作为上层建筑的政治和法律及其思想意识形态也在发生变化,并适时做出调整。

本文就以生成式人工智能模型GPT(Generative Pre-trained Transformer)为代表的人工智能与知识产权的关系展开研究,从哲学和法理层面剖析人工智能的本质及其在社会经济生活中的角色和作用,探讨信息时代人工智能的法律属性和特征,解释人工智能与知识产权的关系,探讨两者的法律本质和应用场景。

一、科学技术改变世界

科学技术创新是驱动社会发展的力量源泉,科学技术也是重要的生产力。科学技术的进步在很大程度上决定了社会的进步,科学技术创新可以改变世界。历史经验表明,科学技术的每一次重大创新都深刻地影响并改变那个时代条件下的生产力要素结构,并对相应的生产关系和经济社会产生重大影响。从本质上看,人工智能的出现也是生产力要素变化的结果,其对现代经济社会生活的影响广泛而深刻。与蒸汽机、电气化和信息网络一样,由GPT引领的技术工业转型,改变了传统行业的运营方式,开创了新的产业模式,为现代工业的生产经营带来前所未有的机遇和挑战。

(一)影响人类社会的基本矛盾

从哲学的角度看,矛盾是社会存在的普遍现象,人类从始至终都处在一个矛盾的世界中。在普遍的因果联系中,存在着最基本的两组矛盾:人与自然的矛盾和人与人的矛盾。就此两者而言,人与自然的矛盾是主要矛盾,人与人的矛盾从属于前者而成为次要矛盾。

作为一个共同体,人类社会是相对于自然界的存在,是主体意识相对于客体世界的觉醒。人类主体意识的觉醒是借助语言实现的,语言使经验成为“我们的经验”,或者说人类之所以能够获得自觉的经验,是因为有了语言。大约10万年以前,地球上生活着尼安德特人(Homo neanderthalensis)和智人(Homo sapiens)。尼安德特人的脑容量比智人大许多,身体也比智人更强壮。按道理说,在残酷的生存竞争中,头脑聪明且身强力壮的尼安德特人本应该会胜出,然而,事实证明却是那些身体弱小且不太聪明的智人在进化过程中活了下来,成为人类的祖先。出现这种结果最重要的原因,就是当时处于弱势的智人发明了一种符号语言。凭借这种符号语言,智人能够相互交流、记载和积累经验,从而结成社会群体来共同抵抗来自自然的挑战和困难。由此可见,谁真正地掌握了语言,也就意味着谁对这个世界拥有一个完整知识的理解,而知识从来都是人类战胜自然的原生力量。

相对于人类而言,自然资源的供给呈现稀缺的趋势,造成这种状况的主要原因,是人口数量的增长和相应的物质生活需求增长在不断地加重地球的负担。在供给人类以满足其生存和繁衍需求的过程中,作为主体的人类与作为客体的自然需要达成一种平衡。如果这种平衡被打破,就会出现饥荒、瘟疫、洪涝和极端气候变化等灾难。人与自然的矛盾会沿着对抗的趋势发展下去,因为人口总数量和物质总需求的无限增长会持续加重地球的负载。此外,毫无节制的对生活向好的欲望会造成巨大的资源浪费,从而激化人与自然的矛盾。如果这种对抗关系不断延伸和扩大,它所产生的势能将会逻辑性地传导给人类社会,使人与人的关系也变得紧张起来。由此可见,人与自然的关系会直接影响到人与人的关系,而且还会限制或制约后者的发展。

既然自然资源的稀缺趋势加剧了人与人之间的关系紧张,那么应该采取怎样的方式来获得和配置资源,才能缓解外部世界加诸人类社会的压力?当然,解决压力最根本的方法,就是不断加大有效供给,以此来满足日益增长的物质生活需要。换句话说,就是要科学调整生产力要素结构,合理配置要素资源,提高劳动生产效率,生产创造更多产品。在一众措施中,改善劳动生产工具,优化要素供给条件,是文明社会的不二选择,这也诠释了为什么科学技术可以改变世界。

(二)生产力要素变化催生人工智能

从经济学角度看,资源是价值创造的必要条件,是不可或缺的生产力要素。最初的资源主要是山川土地、江水河流、树木森林、空气阳光,人们基本上是“靠山吃山,靠水吃水”。伴随社会的发展,人们对生活的需求从单一逐渐变得多元,商品交换的形式也变得复杂起来。劳动生产效率的增长迫使劳动分工变得越来越细,商品交换也变得愈加频繁,这使得人与人之间不得不保持更加紧密的经济关系。所有这些变化都说明:外部自然界的压力会逻辑性地传导给人类社会,进而促使人类社会关系的改变。

生产力要素结构经常处于变动不居的状态。各要素条件的状态良好,相应的生产效率就会比较高。各要素条件变得不好,就会严重影响生产效率。在后者情况下,如果能够提高要素配置效率,那么在很大程度上也可以缓解各要素条件不好所带来的消极影响,不致使其对经济增长造成太大的负面效应。如果要素条件不够有利且要素配置效率跟不上,那么经济增长势头很可能受阻。不过,无论如何,要素配置也只是权宜之计,不是解决问题的根本方法。根本的解决方法还是要从改善和优化要素条件入手,实现全要素生产,达到提高生产效率的目标。从经济学角度看,生产工具是生产方式的重要组成部分,在生产力要素结构中占有重要地位。“工欲善其事,必先利其器”,其中“器”指的就是生产工具。改造生产工具与提高生产效率之间为正相关关系,也就是说,生产工具越先进,生产效率就越高。一般说来,围绕生产工具的改造而展开的全部活动都可以视为科学技术创新。在现代社会,科学技术创新在提高生产效率方面扮演着极为重要的角色,只有通过科学技术创新提高要素配置效率才是经济生产解厄脱困的根本路径,换句话说,就是要通过科学技术创新为经济的不断增长注入新的动力。

ChatGPT标志着强人工智能时代已到来。人工智能技术为经济社会的发展带来了新的机遇,成为促进产业经济成功转型的驱动力量。随着数据模型的迭代升级,人工智能在教育、文化、医疗和金融众多领域得到了广泛应用。人工智能技术在破除传统时空地域限制,推动信息技术交流,缩短人与人之间的距离,促进国际合作交流的同时,也加剧了行业之间的竞争,在员工就业、信息安全、环境保护以及道德伦理等方面带来新的风险和挑战。

(三)法律是文明社会解决矛盾的基本方式

十七世纪发生在欧洲的启蒙运动导致发生了十八世纪欧洲的工业革命,两者之间具有内在的因果联系。启蒙运动是一场资本主义性质的反封建、反教会的思想文化运动,积极倡导建立理性有序的民主社会,运用法治方式(rule of law)来解决社会矛盾。分别以艾萨克·牛顿和约翰·洛克为代表提出的英国启蒙主义思想,为自然秩序和社会秩序的构建提供了强大的理论基础。牛顿称,天上有一个遵循自然的上帝;洛克说,人间有一个遵守法律的国王。天上的上帝不能违背自然规律,尽管自然规律就是上帝的作品,但是他仍须尊重自己的作品;同样地,人间的国王也不可以任意践踏法律,虽然他也参与了法律的制定过程。牛顿和洛克所主张的自然秩序和社会秩序,其实就是理性社会运行的基本规则。

平等地保护每一位社会成员的财产权,是文明社会应尽的责任。当一项科学技术创新成果能够被商业利用时,就意味着这项成果的经济价值得到了市场的认可。科学技术成果的价值实现,包括企业创新规模扩大后所形成的企业产权,离不开法律的保障。对企业家和个人而言,基于法治的产权保护,是其从事生产和扩大再生产的信心来源和制度依赖。有恒产者才能有恒心,在产权得不到尊重和保护的地方,企业家和个人就不会从事那些风险较大的长期投资,更不会有发展百年老店的长远设想,因此,持久的创新发展需要有坚强的产权制度作保障。只有在产权能够获得充分保障的地方,科学技术创新才能获得内在驱动力和可持续发展。

由于先天条件、生存环境和成长经历不同,在社会中生活的人们会存在各种各样的差距,正所谓,能力有大小之分,力量有强弱之别。在生存竞争过程中,强者通常能够获得更多的资源和机会,更容易胜出;弱者则处于相对弱势的地位,容易落败或被淘汰,物竞天择似乎成为自然状态下的天公地道。不过,随着社会文明的进步,这种先天造成的不平等现象被不断修正。历史表明,在如何看待资源和财富分配的问题上,人类社会经历了从野蛮到文明、从简单到复杂的漫长过程。不同的历史发展阶段,资源和财富分配的形式也不一样,从早期简单的商品交换,到现代复杂的市场经济。从本质上看,无论是原始社会的个人争斗,还是现代社会的规模战争,都是资源和财富的分配问题引起的。

人有思想和意识,会做功利的比较和趋利避害的选择,这是人类有别于其他动物物种的主要特征。正是由于这种铭刻在基因里的功利本性,才促使人类逐渐放弃野蛮的争夺劫掠,而选择了相对文明的方式来分配资源和财富。这里所称的文明方式,就是不断纠正和弥补人类先验的差别,济弱抑强,扶危解困,用分配正义的方式来实现人与人之间的实质正义。文明进化的经验教会人类这样一个道理,即通过野蛮的争斗和劫掠来分配资源和财富,是最低效率的方式;与之相反,通过妥协和契约建立起符合人性的法律制度,借此来取长补短和分工合作,公平合理分配资源,才有可能达成经济高效、和谐共生的理想目标。由此可见,法律是社会文明进步的结果,是文明社会解决矛盾的基本方式。

作为命运共同体,人类在面对自然的外部压力时,最明智的选择就是相互妥协、相互协作、和谐共生。唯其如此,方能组织起有效的社会生产,获取必需的生产和生活资料,创造和积累财富,满足人类生存和繁衍的基本需要。在利益的交织和冲突中,人类社会应当遵循人性的依归与引导,依照公平正义的价值取向,建构科学合理的制度规范,借以抑制和消除那部分自发且悖理的势能。总而言之,建设文明的法治社会,既是人性的升华,也是历史的选择。人性的本质决定了人类社会一定会从必然王国走向自由王国。

二、人工智能对当今社会的影响

数字技术与经济社会的深度融合已经成为当今社会发展的新趋势。数字经济的赛道非常宽广,为经济社会的发展提供了广阔前景。采用数字智能对传统产业的生产和管理系统进行改造,不仅可以提高生产效率、节省能耗、削减库存、减少排放,而且还能更好地满足消费者的定制化需求,促进经济多元化发展。

在数字技术领域,尤其是芯片产业,各国之间在产业供应链上的依赖度很高,由此而决定了国际交流与合作十分重要。当外部环境变得不够好,特别是出现来自他国的技术封锁情况时,相关国家的基本反应都是转而强调自主研发和技术自立的重要性。其实,这样做的风险很大,因为科学技术创新上的自力更生具有许多不确定性:成功了固然可以缩小差距,但是不成功会加大已有的差距。因此,最好的策略不是把自己封闭起来,而是积极改善外部条件,加强沟通与交流,营造互利共赢的良好环境。在国家内部,要努力破除跨部门、跨地区和跨机构的数据共享障碍,实现数据资源配置平衡,加强数据隐私保护。面对世界经济下行的压力,当务之急是进行结构性改革,鼓励科学技术创新,保护知识产权,促进市场流动性,盘活经济。

作为科学技术创新成果,人工智能属于生产工具要素的范畴。人工智能的出现表明,人类社会的生产能力已经达到了前所未有的高度,并且在极大程度上改变了传统的生产方式和生活方式,对社会关系和道德伦理产生了深刻影响。

在社会经济生产方面,人工智能技术对产业结构、竞争格局、就业形势等方面的影响非常深刻,在很大程度上改变了生产力要素的结构,造成了生产关系的变化。

在社会财富分配方面,由于人工智能技术大幅提高了生产效率,基于逐利的天性,资本大量涌向人工智能产业,造成这个领域资本的相对集中。人工智能本身就是大数据算法的产物,本性有“合纵连横”的倾向,一旦获得资本的加持,便会逻辑性地形成一种垄断。如果这种自在的发展趋势没有受到外部力量的干预,社会财富就会向少数掌控人工智能技术的人的手里集中,如此一来,极有可能造成财富分配不均、贫富差距加大。

在社会文化生活方面,人工智能的普遍应用会影响千行百业,改变人们的生产和生活方式。人工智能提供了更便捷、丰富和智能化的服务,其应用场景涵盖了文书工作、智能家居、智能医疗、智能交通、影视制作等众多领域。与此同时,人工智能的普遍应用可能会导致社交活动减少,造成理解和沟通障碍,人际关系淡化等问题。人工智能还可能影响人们关于工作、休闲、消费和社交的观念,对于生活目标、自我定义和行为选择的看法,带来许多社会伦理和道德观念问题。

在社会运行和治理方面,人工智能的普遍应用可以大大提高社会管理和决策流程的效率,节约大量的人力资源成本。政府和社会组织还可以利用人工智能的数据分析和预测能力,优化城市规划和资源调配,提高社会治理的水平和质量。与此同应,人工智能的普遍应用也可能会引起人们对隐私和安全的担忧。由于编程缺陷或其他无法预料的错误,人工智能可能发生难以预测的行为,产生危害后果。人工智能编程在预设目标时是不会做任何道德上的考量的,并非不能设计出对抗、疏离、奴役甚至灭绝人类的目标。由于人工智能能够自我复制和快速扩大自我规模,伴随超级智能的出现,人工智能将变得越来越强大,甚至可能出现超越人类而不受控制的情况。

三、人工智能的价值评判

代表科学技术最高水平的人工智能有其自身发展的逻辑。当人与自然矛盾的外部压力加大,经济规律就会发自本能地倾向科学技术的创新,以便生成更多的新产能。换言之,当资源供给不足时,如果物质生活需求不降反升,那么善工利器便成为人类的最佳选择。由此可见,科学技术创新永远不会停歇自己的脚步。从本质上讲,科学技术具有工具属性,属于方法论范畴,其本身客观中立,缺乏独立意识。在哲学的认知方面,科学可以是客观的,因为科学家都在试图寻找真理,而这些真理能够独立于科学家的态度和偏见得到证实。工具属性决定了科学技术是一把双刃剑:既可以造福人类,也可能戕害众生。因此,作为万物之灵的人类,必须对包括人工智能在内的科学技术保持清醒的理性判断,干预并规制科学技术创新的自在倾向,使之按照人类命运共同体的价值目标向善而行。

(一)硅基生物与碳基生物之辨

作为人工智能的伴生概念,硅基生物已经成为一种科学假说。所谓硅基生物,是指用硅作元素而构造的物种体系,从科学意义上讲,具有完全硅基成分的生命形式在现实世界中并不存在。硅基生物是相对于生物学意义上的碳基生物而提出的概念。从理论上讲,硅基生物与碳基生物最本质的区别是两者赖以生成的基础元素不同。碳基生物是以碳为基础的生命形式,基于碳的化学特性来进行生命活动,也就是说,碳基生物是通过氧、氮、硫等元素的生化反应所形成的蛋白质和核糖核酸等有机化合物来维系生命。碳基生物能够在水液介质中进行新陈代谢,其主要特征是碳-碳化合物键多样且稳定,能够在不同环境中衍生出从单细胞到复杂生命形式的生物体系。相形之下,硅基生物是一种以硅为基础的“生命形式”,硅原子比碳原子的体积大,所以硅化合物具有比碳化合物更加稳定和坚硬的特性。

以人工智能为代表的科学技术已经达到了空前的水平,假以时日,人工智能强大的自我学习能力完全有可能发展成为一种超级智能。当人工智能迭代到ChatGPT10的时候,硅基生物或许能跃升到食物链的顶端,因为相对于碳基生命的人类,硅基生物具有更强的耐受力和更长的寿命。因此,有人曾悲观地预测,硅基生物的出现不可避免,并终将取代碳基生物成为世界的王者,就像当年称霸地球数千万年的恐龙最终被哺乳动物取代一样。

面对蓬勃发展且难以把控的人工智能,人类社会陷入了一种普遍的焦虑,甚至产生了哲学层面的意义危机。一百多年以前,在欧洲的那场科学技术革命几乎从根基上瓦解了基督教信仰,导致当时的社会出现价值真空和意义危机,许多人惊呼“上帝已死”,再也找不到生命存在的意义。现如今,另一轮科学技术革命出现,人工智能在取代人类工作机会的同时,也动摇了人类作为万物之灵的信仰。人们再一次陷入意义危机之中,开始怀疑是否真的有一种更为高级的文明形态正在取代人类文明。

其实人类信仰的基础是非常薄弱的,无论“上帝”有没有“死”,人类都会陷入意义危机,因为构建这种意义假设的基础本身就有问题。所谓的理想世界其实是人类用来自我安慰的乌托邦,没有理想世界指引,人们并不一定会陷入虚无的状态。虚无的真相并不直接导致消极,消极的根本原因在于执着于绝对本质的信念。如果你相信这个世界存在绝对本质的话,那么当你历经千辛万苦仍旧找不到它的时候,你就会产生挫败感,感觉万念俱灰。倘若你能从幻觉中醒来,意识到人生的意义并不依赖于这个绝对本质,那么也就没有什么好绝望的了。当你不再执念于这个世界到底有没有意义的时候,你便重新获得了自由。生命活动的标志就是确立自己的价值观,这是生命的力量,凭借这种力量人们可以战胜虚无。如果生活是无限次的重复,那么生活的意义取决于我们如何体验和评价当下的生活。凭靠主观意志去创造属于自己生命意义的人,便是尼采所称的超人。尼采分别采用了“奴隶道德”和“主人道德”两个概念来表明自己的价值观。所谓“奴隶道德”,就是放弃自己生命的激情,用虚假的思想来约束和安慰自己,却把人生的希望寄托在虚妄的观念之中。所谓“主人道德”,就是放弃一切幻觉,直面虚无和荒谬,用生命的激情去自我创造。尼采的思想给了我们这样一种积极的启示:不论人工智能多么强大,也不论外部世界如何变化,人类唯一能把握的只有自己的生命意志与生命体验,即使现实是荒谬的,甚至是虚无的,人类仍然可以选择直面这种荒谬和虚无。

碳基生物和硅基生物不是平行的两个生命系统,应该是主体与客体、创造与被创造的关系。以碳基生物为本质的人类,是地球上的万物之灵,是独立于大自然的主体世界,与之相对,大自然的万千事物都是主体之外的客体实在。由此可见,代表硅基生物最高形式的人工智能,只是以碳基生物为载体的人类精神活动的产物。人工智能没有改变人性,也不可能改变人性,它只是在质和量两个维度上拓展和增强了人类博弈自然的能力。

在判别人工智能创作能否等同于自然人创造的问题上,“有无思想力”应该是判断是与非的重要标准。自然人具有主体思想意识,包括理智、意志、创作动机和创作意图等思想力。思想力是人类特有的生物属性。一个作品表现出来的思想深度和内涵往往是独创性的集中体现,而独创性是衡量其能否构成作品的主要标准。按照这个标准,人工智能的创作很难满足著作权法对作品的要求,因为人工智能只是单纯地通过学习规则、爬取数据和深度算法来进行所谓的创作。换句话说,人工智能并不具有自我意识和创作意图,只是在程序的预设之下进行的模拟训练。当然,这并不排除在特殊情况下,人工智能的创作也具有一定程度上的创造性或独创性,然而这不过是形而上学的表象,隐藏在背后的却是完全不同的逻辑。在通常情况下,自然人创作的作品包含思想内涵、思想表达、情感活动等基本特征,人工智能产生的作品则基于概率推理和统计分析,缺乏创造性的思维与思考。由于人工智能的创作不是思想活动的成果,因此,不能将之与自然人创作的作品相提并论。

(二)人工智能的法律规制

科学技术与法律的关系其实就是人类社会如何把控科学技术创新与发展的问题。通过法律来调整人工智能所引起的新型社会关系,规避人工智能未来可能发生的风险,是人类社会的明智选择。如果缺乏严格的限制和充分的监管,人工智能技术可能会引发许多消极结果。如果人工智能真的能够超越人类智力水平成为超强智能,那么,它将成为人类难以预测、无法控制的变量。由于人工智能缺乏道德上的判断力,如果被恶意利用,譬如自动化杀戮或破坏系统,极有可能给人类造成大规模的伤害。就现有技术而言,人工智能的安全性远不够可靠,可能被黑客攻击,或被恐怖、犯罪组织滥用的命门很多。再者,还有可能因为人工智能系统存在的漏洞被误用而引发事故或灾难,比如,自动驾驶技术造成的交通事故,高频交易系统引发的金融崩盘,等等。此外,因人工智能的普遍应用而带来的劳动力成本下降,还可能造成规模性的失业,间接引发社会失稳和动荡。依靠大数据和算法进行的决策和预测,也很容易导致歧视和偏见等问题。

所有这些问题都会严重影响人类社会的发展与进步,甚至将人类社会引向错误和毁灭的方向。有鉴于此,必须建构起与人工智能相适应的法律机制,积极主导并理性谨慎地规制和利用人工智能,以确保科学技术的研发和使用具有道义上的正当性和经济上的有效性,符合人类命运共同体的发展目标。

四、知识产权的法律本质

科学技术的每一次迭代都会在很大程度上引发当时社会生产力结构的变化,继而影响相应生产关系的改变。人工智能也不例外,由于海量资本集中在人工智能高地,使得拥有或掌握人工智能技术的人很容易成为自然资源和社会财富的掠食者,客观上加速了自然资源和社会财富分配的失衡。作为生产关系与资源分配的调节器,知识产权可以在两个方面有所作为:一是在知识产权的拟制中按照知识产权的价值标准选择客体内容;二是在知识产权的运用中按照公平正义的价值取向划定权利的边界和范围。简而言之,就是在知识产权的内部注入国家意志的可塑性内容,在知识产权的外部划出人类共同资源和财富的疆域。

(一)人工智能与知识产权的邂逅

在时代发展的十字街头,人工智能与知识产权的不期而遇或许是历史的宿命。如果说作为科学技术的人工智能是一种必然,那么作为法律机制的知识产权就是一种应然。在唯物主义看来,必然是事实,属于客观范畴;应然是判断,属于主观范畴。在排除任何外部干扰的情况下,客观性决定了科学技术会按照自身的逻辑发展,由此而形成的趋势具有自发性。从哲学角度上看,不具主体意义的科学技术应属于纯粹的客体实在。相对于人类主体而言,科学技术从来都是思想的对象而不是思想的本身,始终处于工具客体的地位。换句话说,科学技术不具有思想和思想的能力,不具有是非善恶的道德观,其自身无法确定价值取向或进行价值判断。从这种意义上说,包括GPT在内的人工智能无论怎样升级迭代,即使达到超级智能的水平,也不可能反客为主,取代或掌控人类。理由非常简单,因为人工智能没有思想和灵魂。当然,也可以换个维度来考察,如果未来某一天人工智能真的超越了人类智力水平而成为一种客观存在,也只是表明出现了异化现象,并不意味以碳基生物为本质的人类主体的消逝。

科学技术的自发倾向具有很大的不确定性,它会按照自身的逻辑去发展而罔顾任何道义上的责任。技术本身对于其对人类社会可能产生的意义是没有感觉和意识的。真正有感觉、有意识的是那些掌握了该技术的人类。在善工利器的问题上,具有主体意识的人类不应任凭科学技术自在发展,应该将其纳入自己的道德评价体系,根据人类的理性和主观意志规划科学技术发展的目标和轨道。从法学意义上说,相对科学技术,知识产权应是主观见之于客观的理想机制,利用知识产权的法律范式来驾驭科学技术的发展进程和方向,以达到为人类社会服务的价值目标,也许就是知识产权的使命所在。

(二)知识产权的合法性基础

自然权利是每个人与生俱来的权利,包括生命、自由、财产等权利。与自然权利相对应的是社会权利(亦称法定权利),是在社会法律和制度框架下赋予公民个人的权利,包括言论自由、财产权、选举权和平等权等权利。在现代社会中,社会权利一般是由政府或社会组织赋予,通过法律或社会契约来体现和保障。相对于自然权利,社会权利更具体、实在,在现实中的应用场景也更生动。

知识产权经由法律确立并通过制度规范进行保护和行使,其效力由法律法规来确定并予以保障。知识产权的享有和使用,须经过特别的申请、审查与授权程序,由此可见,知识产权不是自然法意义上的自然权利,而是由国家权力机关为自然人的创造性劳动成果而设立的法定权利。不过,需要指出的是,知识产权虽然是法定权利,保护的却是个人创造财富的自然权利。也就是说,知识产权制度的目的是保护自然人的智力创造成果,是对人的创造力的尊重。保护知识产权有利于鼓励创新和投资,促进产业经济发展,维护社会公平正义。

作为法律拟制的权利,知识产权在不同国家具有不同的制度内涵。自然权和法定权是知识产权的两种重要成分,其中自然权成分决定了知识产权的本质属性,法定权成分决定了知识产权的基本特征。这个看似矛盾的权利复合体,却是对立统一的法律实在,两者的有机结合构成了知识产权区别于其他财产权的主要特征。

知识产权的自然权属性为其合法性提供了坚实的法理基础。自然法主张,每个人都拥有与生俱来先验的东西,对于这些先验的东西,实在法只能确认而不能创设。勒内·笛卡尔(René Descartes)将这些先验的东西称为“天赋观念”,洛克称之为“天赋能力”,自然法则统称为“天赋人权”。由于每个人的生命权、自由权和财产权都是先验的,神圣不可剥夺,所以才被称为天赋人权。这种观念并非仅仅停留在思想家的思想层面,而是为文明社会的法律制度所广泛接受,并演绎为许多的典章文献。例如,法国《人权宣言》第1条就宣称;“人生来就是而且始终是自由的。”从自然法的角度看,人与生俱来就有思想、创造、发明和发现的能力,这些天赋的能力属于个人而不属于国家。因此,当一个人在思想、文化和科学技术等方面做出创造性贡献时,他就理所当然地应当获得经济上的回报和法律上的保护。洛克的劳动创造说和卢梭的社会契约论都为上述观点提供了有力的理论支持。把创造性的智力活动与普通的体力劳动看成本质相同的劳动,这是自然法顺应时代要求对现代知识产权作出的全新阐释。正是因为有了自然法理论的支撑,现代社会才能如此理直气壮地将科学技术创新成果纳入财产权法律的框架之中。

知识产权的合法性主要来自实在法对自然权的确认,不过,除了包含自然权成分外,知识产权还包括法定权成分。对于后者,需要考量的因素有很多,各个国家都会根据具体情况量身打造符合本国国情的法律法规,以确定这部分权利内容。权力机构在做选择时,哪些内容合适,哪些内容不合适,均听命于国家意志。当然,国家意志也不能任意所为,而是要受到自然法和国际法原则的制约,包括知识产权在内的所有法律权利,都必须在自然法和国际法的价值准则下建构和运行。

知识产权的法定权特征是由其权利客体所决定的。知识产权的权利客体是人类智慧劳动的成果,是无形的精神财富。人类文明之所以能够进步如斯,完全是由于汇聚了先辈们薪火相传的文化遗产。面对浩瀚无际的知识海洋,知识产权如同法律打造出来的容器,不断汲取文明知识的营养。然而,这样的“汲取”不应该是无休止的,而应该是弱水三千,只取一瓢饮。换言之,知识产权的权利边界应当止于自然人智慧创造的外延。人类精神财富的知识产权化过程,其实就是将精神财富私有化的过程。在这个过程中,采取什么样的标准为知识产权划出权利边界,以区分公共资源与私人权利,是一个主体认知和判断问题。当然,这种主体认知和判断不能脱离作为客体的精神财富展开。因为如果没有人类的智慧创造,知识产权便失去赖以存在的客观基础。从这种意义上讲,正是个人的智慧创造为知识产权的合法性撑起了一片江山。

在知识产权的构建过程中,不可避免地会掺杂主体的意识和意志。由于不同国家的国体和政体存在着各种各样的差别,因此,各个国家通过本国的立法程序拟制出来的知识产权也具有本国特色,这也为知识产权的地域性特征作了很好的解释。

(三)知识产权的法律属性

民事法律所称的知识产权与物权存在许多不同,其中一个重要区别就是它们的生成过程不同。物权指的是对物所拥有的权利,物有形可触摸,如房屋、土地和车辆等。物权的取得通常是基于占有、使用和交付等行为,物权可以在一定期限内获得收益,具有直接性、排他性和绝对性等法律属性。相形之下,知识产权是针对精神成果客体所设立的法律权利,涉及思想、创意和创新成果等无形财产。知识产权的获得一般通过法定程序实现,同样具有排他性和可转让性等法律属性,能够保障权利人在法定期限内获得经济利益的回馈,不过,知识产权不具有物质形态,其生成和保护的过程均依赖制度的保障。

(四)知识产权的价值取向

知识产权所包含的价值取向贯穿立法和司法的全过程。在立法过程中,立法者在对知识产权客体进行建构时,需要坚持习近平法治思想,依照内心确信的价值准则施行,体现公平正义、尊敬人性、自由平等、鼓励创新等价值准则。什么样的智慧成果应当受到法律保护,什么样的智慧成果须排除在外,都必须遵照法律之上的价值准则。司法过程也一样,对哪些客体对象予以特殊保护,对哪些客体对象予以普通保护,法律之上的价值准则同样具有引导意义。

1.公平正义

公平正义是法律之上的价值准则,是最高位阶的评判准则。根据该准则,社会的资源、财富和利益必须在全体社会成员之间公平合理分配。公平正义可以具体地表现为权利公平、机会公平、规则公平和救济公平等内容。

洛克在《政府论》(下篇)中提出这样一种观点,人在自然状态中是独立的,享有一种被称之为天赋人权的自然权利。为了保证各自和相互之间的利益不因社会的无序而遭受侵害,人们须在彼此之间建立一种契约关系。根据契约关系,人们愿意放弃自己的一部分自然权利,并将这部分权利让渡给一个大家共同认可的权力政府,以换取保留下来的那部分权利能够获得法律的充分保障。政府的权力来源于社会成员让渡出来的那部分权利,因此,政府的合法性是来自社会成员的让渡而不是上帝的神授。洛克强调,虽然政府依据社会契约建立,但是,绝大部分的自然权利仍旧保留在社会成员的手里,对于这部分未交出的生命、自由和财产等自然权利,政府无权剥夺。洛克坚信,自然权的核心就是保障个人权利不受专制暴政的侵害,建立政府的目的就是为了保护公民的基本权利不受侵犯。社会契约的过程就是个人所拥有的自然权利转换成为现实公民自由权利的过程。公民自由是公民在具有政治和法律秩序(法治)的社会中生活的权利。政府的目的就是为了保护公民的生命、自由和财产不受他人的剥夺和侵犯,政府绝对不能不受限制或者不经过正当程序而任意剥夺公民的基本权利。洛克还承认,当个人将自己的权利让渡给政府之后,便不能再随意撤回,因为那样就失去了组建政府的意义和目的。因此,个人在交出自己部分自然权利的时候,为了防止政府滥用权力,个人在让渡自己部分自然权利的同时,必须对政府的权力进行制约,以确保公民与政府之间的相互承诺不被违反。

自然正义本身是目的而不是手段。亚里士多德认为,自然正义作为出于自然的东西对自然而言是不能变动的,在众神之间即存在着永恒的自然正义;自然正义作为实际的政治正义可能是变动的,但是它不因人为的有目的的制度化措施而变动,而只能随着人类对自然认识和改造能力的进步而变动。

社会正义是自然正义的社会反映,是关乎伦理道德的命题。在现代社会,市场的信念建立在社会正义的基础之上,市场经济的价值基础是社会全体成员共同认可的道德标准。如果一个社会脱离了社会正义,混淆了善恶良知,那么这个社会便会陷入无序和混乱。对现代社会而言,社会正义就是对个人自由权利和财产权利的尊重。

知识产权必须遵守公平正义的价值评判标准,知识产权保护同样须符合公平正义的价值准则。利益冲突时,社会正义原则提供了一种在社会的基本制度中分配权利和义务的办法,确定了社会合作的利益和负担的适当分配。在现实社会生活中,法治原则与公平正义紧密相关。对于个人权利的保护仅依靠合乎正义的立法是不充分的,还必须有法治原则作为保障。

2.尊重人性

十七八世纪的启蒙思想家将人道主义思想融入法理学中,由此而形成了自然法学说。自然法是普遍存在的自然理性,是普遍知识的道德标准。自然法认为,每个人都享有尊严,尊重人性就是要尊重以人为本的主体世界秩序。自然法与正义紧密相关,具有不证自明、普遍适用的公正性。亚里士多德认为,自然正义产生了自然法,它是人类理性的体现,是人们行为的道德准则,也是国家制定实在法的基础。自然法的性质是其永恒不变的规范,它命令人们履行自己的社会义务,禁止人们做坏事。以人性为中心的自然法构成了实在法的基础,人们只有按照自然法的要求建立国家、制定法律,才符合人的本性要求。

3.自由平等

自由被誉为科学技术创新之母,原因在于离开了自由的前提,科学技术创新就会受到束缚,从而失去动力和源泉。当人们谈到知识产权的合法性时,必须看到它在多大程度上肯定了自由,因为自由是知识产权价值观的最好呈现。自由是人类社会永恒的话题,尤其是当它面临挑战的时候。在追求和捍卫自由的路上,许多启蒙思想家是无法绕开的思想者,就像物理学绕不开牛顿和爱因斯坦,经济学绕不开亚当·斯密一样。这些启蒙思想家关于自由的理论也总是围绕“自由为何总是遭受诘难”的恒久命题展开。

1644年英国思想家约翰·弥尔顿发表了《论出版自由》,首次提出“出版自由”的概念。弥尔顿认为,人普遍具有理性,而理性是由理智和意志两个因素构成的:理智负责判断,意志负责选择。自由的核心就是理智和意志不受羁绊,一个能够理智思考并自由选择的人,才是真正的自由人。所谓自由,就是每个人经过深思熟虑之后所做出来的理性选择,自由允许我们读懂自己,了解自己真正的选择。

亚当·斯密则从古典经济学的角度阐释了自由的意义,他认为,个人交易自由是个人自由中最重要的内容。在法律框架下,一切限制个人利用其所能获得的合法手段去谋求自己经济利益的做法都不具有正义性,都是不道德的。对经济的任何干预都是对个人交易自由的限制,都会侵犯个体的权利和自由。

伊曼努尔·康德则从哲学的角度对自由作出定义,“自由不是你想做什么就能做什么,而是你不想做什么就可以不做什么”。同理可证,思想自由是绝对的,行动自由是相对的。康德的这种主张,为依照正当法律程序来规制自由提供了哲学上的依据。

以赛亚·伯林为我们提供了一个关于自由的全新视角,他从“消极自由”和“积极自由”两个维度对自由进行了阐释。在他看来,所谓“消极自由”,就是个体活动免于遭受干涉、阻碍、强制或侵犯的权利。不过,这种命题方式的破绽非常明显:一个人既然可以不受限制地行动,那么同样可以毫无节制地侵犯他人,因为“狼的自由就会成为羊的末日”。为了弥补这种理论上的破绽,伯林提出,消极自由必须建立在两个前提之下:一个是法律规制,一个是自然权保留。所谓“积极自由”,就是个体主动掌控自我的行为,也就是说,用自己的意志来行动。在伯林看来,“积极自由”暗含着一种“人格分裂”的属性,人由于有动物性的一面,所以在欲望或感情的驱使下,往往无法支配自己实现“积极自由”,因此,人必须“分裂”出一个“理智人格”来控制其动物的本能,以此将自己塑造得更加完美和理想化。

4.鼓励创新

人的创新能力无法被规划,科学技术创新只能来自思想的自由。创新的模式有两种:一种是重新阐释问题,一种是颠覆性破坏。前者如牛顿,用“引力假说”和“惯性假说”重新阐释了亚里士多德的“四元素”运动观,重新定义了运动的本质,并由此拉开了古典力学的大幕。后者如康德,用“认识论”彻底颠覆了围绕自然客体认识世界的传统观念,提出“只有自然客体符合人的先验形式才可以被人认知”的论断。在许多场合下,创新只是创新者的灵光乍现。智慧属于个体的天赋,隐藏于个体之中,是无法通过规划和设计去实现的,甚至与个体是否努力都没有关系。拥有天赋的人能够通过转移重点、置换条件、颠覆思维等方式,从司空见惯的普通事物中找出与众不同的蹊径,实现创新和超越。由此可见,鼓励科学技术创新最好的方法,不是创造多么好的物质条件,而是捍卫人的想象力和思想自由。不过,从工具理性的角度出发,既然创造力是源于对传统观念的颠覆,那么人的想象力就可能产生破坏性。相对于传统而言,创新的思想在某种程度上会有潜在的危险性,正如哥白尼的“日心说”之于基督教,达尔文的“进化论”之于“神创论”。当一种文明以稳定作为唯一追求时,就会本能地阻止那些在他们看来具有危险的创新,因为解决这些危险的创新比解决那些问题本身更重要,也更简单。

自十七世纪欧洲工业革命以来,几乎所有的重大科学技术发明和创造都发生在西方世界,简单地把这种现象归结为历史的偶然,显然不具有说服力,这种现象背后的决定性原因是西方国家的社会结构和法律制度。解析这种原因时不难发现,西方社会建立在“二元对立”的结构上,世俗与神权的博弈、私权与公权的对峙,以及不断标新立异、寻求变革的工商业文明,都使西方社会始终处于动态发展中。“二元结构”所表现出来的动态和不确定性,为科学技术创新提供了自由的土壤,能够使智慧之树萌生和成长。

知识产权的价值取向深受国家的政治体制、法律制度和文化传统的影响,换言之,知识产权的生成过程一定会融入其所在国的国家意志,正是由于这样一种特质,才决定了知识产权异于其他财产权的主要特征。由于国情上的差异,各国的知识产权法律制度并不完全相同,由此而决定了知识产权不同于其他财产权的地域性特征。

知识就是力量,思想既可能成就一种文明,也可能毁掉一种文明,因此,对于思想的结果必须进行道德价值上的评判,而评判的标准只能是“公平和正义”。人类文明的发展进步是一个知识积累和文化积淀的过程,正是一代又一代的薪火相传,才造就了现代文明的璀璨辉煌。所有科学技术的迭代升级,文学艺术的推陈出新,都是后辈人站在前辈人的肩膀上实现的。所谓科学技术创新,也只不过是对以往文明成果的添加或添附。凭靠这些添加或添附,创造者或创作者才有了主张知识产权的合法性。需要强调的是,创造者或创作者个人的权利主张,只能针对其所添加或添附的部分提出,而不包括现有的科学技术或既存的文学艺术。正所谓“你把一滴番茄汁放入大海,不可以对整个大海主张权利”。任何赢者通吃的权利主张,既不公平,也不正义。由此可见,公平正义的尺度就是知识产权的权利边界:边界之内是科学技术和文学艺术的创新成果,边界之外是文明历史积淀的智慧海洋。

五、知识产权法对人工智能的适用

知识产权之于人工智能的影响其实就是前者对后者的法律化过程。在这个过程中,需要强调的有两个方面:其一,人工智能及其产品能否被纳入知识产权的法律框架;其二,如何从法理上证成人工智能法律保护模式的合法性。

科学技术是一把双刃剑,虽其本身并无是非善恶之分,但其所向有正邪良凶之别。正是因为这样,知识产权的规范和引导才有意义。如何引导科学技术向善的方向发展,保证科学技术成果被善用而不是被恶用,是文明社会构建知识产权必须坚持的价值取向。当然,精神层面的问题总表现得复杂抽象。由于知识产权针对的客体是精神活动的产物,所以精神成果被应用于物质世界会引起一连串的复杂反应。以GPT为例,其强大的功能具有天然碾压群芳的优势,GPT的普遍应用不可避免地会冲击甚至颠覆许多传统行业。如果不对其进行干预或约束,其可能成为行业竞争或利润收割的野蛮力量。因此,应该采用公平正义的尺度评估GPT的生产贡献,从其对投入产出的比例、对数据资源的占有、对经济生态的影响等方面进行价值评判。

人工智能的三大要素,即数据、算法和算力,是人工智能的技术核心和支点。三大要素的交互作用与驱动,产生了智能算法和机器学习。从知识产权法原理出发,能否将智能算法和机器学习纳入法律框架加以保护,仍是一个颇具争议的问题。

(一)数据保护

从本质上讲,人工智能是数据的一种集成。数据与数据权争议的实质是数据该不该被赋权保护的问题。从法律意义上说,数据被纳入权利保护之前,是公有领域的公共资源。从自然法角度看,数据赋权具有正当性和必要性,因为所有经由人类精神劳动创造的成果,只要符合法律规定的条件,都可以成为权利客体并受到法律保护。“尽管数据是随着科技社会的发展而产生的一种新的客体,具有无形性和非独占性等独特的特征,但是数据依然具有民事权利客体所要求的独立性与财产性,是现代民法中一类新型的民事权利客体。”而在诸法之间,与数据关系最为紧密的法律,非知识产权法莫属。

满足知识产权的基本属性要求是数据成为知识产权客体的前提条件。知识产权的基本属性是财产性,因此,在知识产权法语境下讨论数据的保护和使用,最基本的要求就是数据的财产性和商业价值。知识产权的另外一个属性是专有性,对于这个属性,数据似乎显得底气不足,因为数据的排他性特征并不十分明显。不过,既然数据可以通过技术手段进行界分和控制,那么就有可能实现对数据的占有和控制,这为数据权利的定分提供了可能性。立法曾经将数据以“数据信息”的客体形式纳入知识产权范畴,这在一定程度上强化了这种立场。

需要从主体、客体、内容以及保护原则方面完成数据赋权的建构,探寻其与知识产权的有机联系。至于采取什么样的立法模式,比如设置一种新的权利形态,抑或用旧瓶装新酒,通过法律解释来扩大适用范围,都有待实践经验的积累与凝练。无论如何,主张采用知识产权法保护数据的呼声日益高涨,在此方面,一些学者确曾提出不少颇具建设性的意见。

(二)算法保护

人工智能算法是用系统的方法描述解决问题的策略机制,包括一系列解决问题的指令和对解题方案完整准确的描述。深度学习是机器学习的子集,基于人工神经网络。学习过程之所以谓之深度,是因为人工神经网络的结构是由多个输入、输出和隐藏层构成的,其中各层包含的单位可将输入数据转换为信息,以供下一层用于特定的预测任务。得益于这样的结构,机器可以通过自身的数据处理进行学习。算法本身和算法结果均有可能涉及知识产权保护问题。

在过去几年中,人工智能在语言模型、可预测学习、人类反馈强化学习等方面均取得了重大突破,这使得生成式人工智能具有了很高的应用价值。ChatGPT已经实现了长文本写作、长代码写作的功能,而且精准度颇高,可扩展性也很强,带来了非常好的用户体验。不过,继而产生的问题是:人工智能生成物能否受到著作权法的保护?如果答案是肯定的,那么著作权又应该属于谁?

根据著作权法规定,作品应当是自然人创作的,包括文学、艺术和科学等领域的作品。GPT生成的成果,是由人工智能深度学习模型驱动的,其生成的文本不完全受人的意识驱动,而是机器自我学习的结果。在多数场合下,人工智能生成物是由机器人程序生成的,没有自然人思想创作,更没有情感意识等因素,其生成的内容不是人类的独创性表达,不具有独创性,因此不构成著作权法意义上的作品。不过,这并不排除在特殊情况下,人工智能生成的成果由自然人通过机器人程序进行加工和改编,具有一定的独创性,这样改编或加工的作品,可以视为“著作物”的衍生物而给予著作权法的保护,其著作权应该属于自然人而不是机器人。

(三)算力保护

人工智能的算力主要包括三类应用:第一类是图像检测、视频检索,如人脸识别,这类应用对国民经济和国家安全意义重大:第二类是智能决策,如能与人下围棋的阿尔法狗,这类应用也可以在国民经济方面发挥很好作用:第三类是自然语言处理,通过超级计算机可以为社会管理机构和组织提供主动、准确、智能的服务。以上三类应用,都涉及人工智能与公权和私权的交集,从而产生许多复杂的法律关系,需要立法和司法做出适当的应对。

六、人工智能不能成为法律主体

人工智能不具有法律主体人格的条件和意义,不能充当法律的主体。从本质上看,人工智能是有别于人类的机器程序,即使已经达到了超强智能水平,甚至成为类人化的硅基生物,也不可能取代人类而成为法律主体。从法律意义上讲,法律主体必须是具有行为能力和权利能力的自然人和法人。相形之下,人工智能既不具有法律意义上的主体行为能力,也不具有法律意义上的主体权利能力,它只是受自然人操控的技术工具,必须根据自然人的指令提供服务和反馈,不能主导任何法律行为并从中受益。

由于人工智能不具有权利能力,因此,不能享有或行使权利。换句话说,作为工具客体的人工智能,其自身不可能成为其产品的主体。应该承认,在某些场景下,许多人工智能生成物的确已经达到甚至超越了人类的智力创造而具有创新性或创造性,已经不再容许我们怀疑它们的“作品”属性。即使这种情况发生,也不能认为人工智能生成物是人工智能独立创作的作品,针对该作品而生成的权利只能归属于那个掌控或使用人工智能的自然人或法人。与权利归属的道理一样,既然人工智能不具有行为能力,也就无法承担相应的法律责任。如果由人工智能开发应用的算法特征或可认知行为能够被识别为具有个人或组织类型的性质,那么其相应的法律责任就应该由掌握或利用人工智能的自然人或法人来承担。

(一)人工智能不具备法律责任构成的主观条件

1980年美国哲学家约翰·塞尔(J. R. Searle)设计出“中文屋之辩”(The Chinese Room Argument)的思想实验。这个实验主要是用来反驳以“图灵测试”为代表的强人工智能观点。在后者看来,如果一个人工智能机器能够使被参与测试的30%的人产生误判,那么就可以认为这个机器已经通过测试,具有了真正像人一样的智能。“中文屋之辩”对此提出了反驳:假设在房间里的人不会说中文,也不能用中文思考,但是只要拥有某些特定的工具,就可以让那些母语为中文的人都以为他能够熟练地使用中文。塞尔认为,电脑就是这样工作的,它们无法真正理解所接收的信息,但是可以运行一个程序来处理信息,这样就给他人造成了一种拥有智能的印象。

人工智能不是生物意义上的碳基生命,它既无理智,也无意志,因此不是法律意义上具有道德价值判断能力的理性人。在许多情况下,人工智能都是根据提示者所设定的语境完成指令行动。从本质上讲,人工智能的逻辑推理过程与人脑的意识活动并不相同,前者只是一种算法运行。现代社会的法律责任体系建立在自然人的人性基础之上,强调法律责任与自然人人格之间的关系,法律通过对行为人主体人格的价值评判维护社会秩序。作为法律责任构成主要条件的主观过错原则,其实就是法律对行为人主体人格的可谴责性评价。所以,在绝大多数情况下,法律责任都与行为主体的意识活动联系在一起。承担法律责任的前提是对责任构成要件的满足,在责任构成诸要件中,主观过错是法律对行为人主体人格的道德评价,这种评价具有谴责性和否定意义。只有在法律责任构成的全部要件都得到满足的情况下,才考虑主体承担法律责任的问题。

人工智能的认知智能与自然人的认知智能的本质区别是实现方式和依赖基础不同。人工智能的认知智能主要通过程序和算法模拟人类的认知过程。自然人的认知智能则由大脑神经回路的结构和功能组成,经由自然人的大脑活动实现。自然人的认知智能在很大程度上是通过经验和感觉的学习适应环境,能够在多种任务和情境下做出应对,具有通用性和灵活性。相形之下,人工智能的认知智能更多依赖于前期训练和输入的数据,针对的都是特定任务,因此,尽管人工智能的认知智能不断向人类的认知智能靠近,但是仍然难以与人类的认知智能匹敌。

人类是具有主体意识的物种,而意识是一种可以感受痛苦、快乐和爱恨情仇的能力。与智能相比,意识更重要,也更有价值。对于人类而言,智能和意识密不可分,两者相辅相成。人们通过感受来解决问题并实现目标,这是其他类型的智能难以企及的能力,尽管人工智能已经非常聪明了,但是它们缺乏意识并且不具理性,因此不会感到快乐和忧伤。

人工智能的认知智能与自然人的认知智能存在本质差别。到目前为止,人工智能仍旧不具备像人类一样的思想意识、自我认知和情感体验的思维能力和心理能力。人工智能在执行任务时,只是按照预定义的算法和程序操作,而非像人类那样,在心理动机的推动下根据自己的意志去实现预设的目标。人工智能既然不具备思想能力,也就无所谓动机、目的的意识活动。如果非得要强加给人工智能某种“思维能力”,这种“思维能力”也只是一种“类人化的思维”,与人类生物大脑的思维活动具有本质区别。因此,不能把人工智能的认知智能与自然人的认知智能相提并论,两者的认知方法和思维方式完全不同。人工智能基于程序和算法运行,其认知方法是通过模拟人类语言、行为和知识的处理方式实现。相形之下,自然人的认知智能通过自身神经系统、神经元之间的连接和信息处理机制实现的,具有复杂的思维过程,因此,自然人具备很强的情感理解、人际沟通能力以及人类精神层面具备很强的认知能力。人工智能的认知智能虽然具有较高的计算能力和处理大规模数据的能力,但是缺乏情感、自我意识和认知理解等人类所特有的思维能力和心理能力。

(二)人工智能不具备法律责任构成的客观条件

在现行法律框架下,人工智能不具备法律责任构成的客观条件。按照侵权行为法的要求,实施侵权行为的行为人应当具有辨认和控制自己行为的能力。也就是说,行为人在实施侵权行为时,对自己行为的法律性质和社会意义有一个理智上的判断。当这种理智判断形成后,对是否实施和怎样实施该侵权行为,有一个意志上的把控。只有行为人在明知或应知的情况下,实施了侵犯他人合法权利的行为,才承担相应的侵权责任。人工智能显然不满足这些法律要件。人工智能不具有自己的理智和意志,无法判断和把控自己的行为,其所有行动都是根据预设好的程序或模型做出的,无关乎理性和感情。人工智能的行为虽然是人工智能自身产生的,但却是自然人预先设定的。从本质上说,人工智能的行为仍是自然人行为的一种延伸,如果需要对行为后果承担责任,也应当由自然人而不是人工智能承担。人工智能行为所造成的损害结果,应当归责给那些开发或使用人工智能的自然人或法人。

应当承认,随着科学技术创新的迭代升级,人工智能的确可以在一定程度上模仿实施一些类人化行为。比如,赋予人工智能特定的任务或函数,根据预定义的算法和模型来执行特定的行为。在执行具体任务时,人工智能可以感知周围环境、收集信息和数据,并根据预设算法的评估和判断,做出相应的决定和行动。人工智能在游戏、语音识别和图像处理等领域的表现确实令人惊艳,甚至能够超越人类的能力,但是人工智能尚不能完全取代人类,仍然还有很长的路要走,还需要克服许多障碍和困难。

(三)人工智能引发的侵权责任的归责

人工智能是不具法律能力的实体,无法承担任何法律责任。如果人工智能的可认知行为构成了行为法意义上的侵权,应由掌控和使用人工智能的自然人或法人承担其所引起损害结果的法律责任。在现实生活中,掌控和使用人工智能的自然人或法人涉及人工智能的开发者、提供商和用户,他们都有可能成为人工智能实施侵权行为法律责任的承担者。

人工智能设计者和制造者在设计、制造、销售和使用过程中,必须遵守相关的法律法规。由于人工智能的可认知行为能力是由程序和算法来实现的,所以人工智能开发者在设计、制造、销售和使用过程中侵犯他人法律权利,或者由于未能保证相关信息安全触犯了相关的法律法规,应承担相应的法律责任。如果人工智能提供商不是开发者,而是从开发者那里购买了相关的人工智能技术或服务,则需要视具体情况来确定其应当承担的法律责任。在提供相应服务前,人工智能提供商应当确认其所提供的应用程序或技术不会侵犯第三方的知识产权,并应采取适当的技术和管理措施以确保第三方的知识产权不受侵犯。人工智能使用者应当对可能出现的风险和后果进行充分的风险评估,并制定相应的安全防护措施和应对方案,采取合理的预防措施。人工智能用户在使用人工智能机器人服务过程中,如果存在侵犯他人知识产权的行为,也应承担相应的法律责任。

综上所述,对于人工智能可认知行为构成的法律侵权,需要根据具体情况进行合理的责任分配和判断。对于由人工智能产生的破坏性、危险性事件,应就其危险性和破坏性进行评估,由司法机关根据行为的合理性、必要性和过错程度等因素来进行裁判和归责。

结 语

哈耶克告诫我们说,人类在改善社会秩序的努力中,如果不想弄巧成拙,那么他就必须明白,在这件事上就像以本质复杂的有机体为主体的任何领域一样,他不可能获得主宰事物进程的充分知识。科学技术的进步使人类不断膨胀,觉得自己的能力正在无休止地增长,有点儿“被胜利冲昏了头脑”。科学技术进步诱使人们不但试图主宰自然环境,而且还想主宰人类环境,这就是危险所在。对待思想产品和科学技术创新,不可以像工匠打造器具那样去铸模产品,而是应该像园丁那样去呵护花草,利用掌握的全部知识,通过提供适宜的环境来培养花草的生长。

人工智能的出现极大地影响并改变了当今经济社会的运行模态,挑战和机遇并存。在历史变革的十字街头,我们必须保持清醒,认清以GPT为代表的人工智能科学技术的本质,把握人工智能时代的历史机遇,以主人翁的姿态参与其中,建构与人工智能相适应的知识产权法律机制,科学合理配置生产要素,公平正义分配资源财富,提高劳动生产效率,促进经济社会健康有序发展,为科学技术向善和造福人类而努力奋斗。

评论

在线咨询