-
专利
-
商标
-
版权
-
商业秘密
-
反不正当竞争
-
植物新品种
-
地理标志
-
集成电路布图设计
-
技术合同
-
传统文化
律师动态
更多 >>知产速递
更多 >>审判动态
更多 >>案例聚焦
更多 >>法官视点
更多 >>裁判文书
更多 >>2023年8月31日,英国下议院(House of Commons)发布人工智能(AI)治理中期报告,以便对英国政府提出相关建议。报告深入研究了人工智能治理的多方格局,对管理AI的现有框架、法规和道德准则进行全面分析,提出政策制定者、利益相关者和公众需要一个强大而透明的人工智能治理框架,以维护人权、问责制度和社会福祉。
自1950年以来,AI一直是公共、私营和研究部门关注的主题。自从“大型语言模型”(如ChatGPT)出现以来,AI已经成为一种通用的、无处不在的技术。人工智能模型和工具能够处理越来越多的数据,已经在医学、医疗保健和教育等领域带来了巨大好处:发现人类无法发现的规律,通过常规流程自动化提高生产效率,为创新消费产品提供动力等。然而,AI也可能被操纵、提供虚假信息,在混乱、复杂的环境中并不总是发挥人们所期望的作用。
最近AI的发展速度使AI治理和监管的争论不再是理论性,而是变得更加重要和复杂。这也引发了公众对公共政策如何应对的强烈兴趣,以确保既能收获AI的有益成果,又能保护公共利益、预防已知的潜在危害。当务之急是确保治理和监管框架不会落后于技术创新的步伐。政策制定者必须采取措施,安全地利用技术的优势,鼓励未来的创新,同时提供可靠的保护、防止伤害。
报告确定了人工智能治理的12项挑战,政策制定者及其设计的框架必须应对这些挑战:
(1)偏见挑战。AI可能引入或延续社会认为不可接受的偏见。
(2)隐私挑战。AI可能会使个人身份被识别,并以超出公众意愿的方式使用他们的个人信息。
(3)失实挑战。AI可以生成故意歪曲某人的行为、观点或性格的材料。
(4)数据获取挑战。最强大的AI需要非常庞大的数据集,而这些数据集只有少数机构拥有。
(5)获取计算挑战。开发功能强大的AI需要大量的计算能力,而这些计算能力只有少数机构拥有。
(6)黑箱挑战。一些AI模型和工具无法解释其产生特定结果的原因,这是对透明度要求的挑战。
(7)开源挑战。要求公开代码可能会促进透明度和创新;允许代码专有可能会集中市场力量,但可以对危害进行更可靠的监管。
(8)知识产权和版权挑战。一些AI模型和工具使用了他人的内容:政策必须确保这些内容原创者的权利,而且这些权利必须得到实施。
(9)责任挑战。如果AI模型和工具被第三方用来造成伤害,政策必须确定技术开发者或提供者是否对所造成的伤害承担任何责任。
(10)就业挑战。AI将扰乱公众从事和可从事的工作。政策制定者必须预测并管理改变的影响。
(11)国际协调挑战。AI是一项全球性技术,制定管理框架以规范其使用必须是一项国际性工作。
(12)生存挑战。有些人认为AI会对人类生命构成重大威胁:如果存在这种可能性,那么AI治理就需要为国家安全提供保护。
2023年3月,英国政府以白皮书的形式提出了“有利于创新的人工智能监管方法”。白皮书提出了五项原则[1],以制定监管活动的框架,指导AI模型和工具的未来发展及其使用。这些原则最初不会被纳入法律,而是由各个部门的监管机构在中央支持职能部门的协助下进行解释并转化为行动。
对此,报告认为英国有必要提出一项重点突出的AI法案,将有助于达成将英国定位为AI治理领导者的雄心。如果不认真、快速、有效地努力建立正确的治理框架,并确保在国际倡议中发挥领导作用,其他司法管辖区将抢占先机,它们制定的框架可能会成为默认框架,即使这些框架不如英国提供的框架有效。
[1] 安全性、安全性和稳健性,适当的透明度和可解释性,公平,问责制和治理,可争议性和补救性。
评论