夏浩胜|生成式人工智能的域外监管动向及启示

文章正文
发布时间:2024-02-01 12:33

原创 夏浩胜 上海市法学会 东方法学

欧盟和英国为了规制生成式人工智能采取了不同的监管模式。欧盟的总体监管策略是按照风险等级分类监管、依据人工智能的特点调整侵权责任规定、构建完整的法律框架。针对生成式人工智能规定了基础模型提供者的义务、专家评估和全链条监管。英国的总体监管策略是建立以创新为宗旨的监管框架、以结果为导向的治理方法、制定跨部门监管原则、建立中央风险职能部门。针对生成式人工智能则认为监管为时过早。通过分析两种模式的特点及弊端,从借鉴有益经验和规避不利缺陷的角度出发,我国的监管模式可以从实行全链条监管、明确监管的法律原则、完善侵权责任制度、摒弃人类中心主义的治理思维等方面完善。

引言

为了规范生成式人工智能的健康发展与合理运用,国家互联网信息办公室于今年4月发布了《生成式人工智能服务管理办法(征求意见稿)》。相较之下,欧盟早于2021年开始制定人工智能法案,并于今年5月针对生成式人工智能进行了专门修订。英国同样于2021年出台了《国家人工智能战略》,并于今年3月发布了《支持创新的人工智能监管方式》。虽然上述举措有着促进生成式人工智能负责任使用,减少负面影响的共同目的,但却在监管的总体方向和制度设计方面存在较大差异。本文的目的在于分析欧盟和英国生成式人工智能的监管动向,探寻可供借鉴的有益经验,以不断完善我国的相关规定。

一、欧盟的监管动向分析

(一)

总体监管策略

1.按照风险等级分类监管

欧盟拟议的人工智能法案以风险分类为基础,依据不可接受风险、高风险、有限风险以及最低风险实施不同的监管制度。其中,构成不可接受风险的人工智能系统将被彻底禁止,比如社会评分系统。高风险人工智能系统作为重点监管对象,主要是指那些对基本权利和安全产生负面影响的系统。这些系统需要在投放市场前进行评估,投放使用时进行审查,且系统的提供商、进口商、分销商以及在某些情况下的用户都将负担一定的义务。有限风险系统必须遵守“最低透明度要求”,让用户意识到他们在与人工智能交互,如果由人工智能系统生产的文本、图像或音频内容都必须以某种方式标记。最低风险系统,例如视频游戏或垃圾邮件过滤器中使用的人工智能,在该法案下没有额外的义务。

生成式人工智能在拟议法案的原始提案中并未涉及。直到2022年底,以ChatGPT为代表的大型语言模型迅速风靡全球,欧盟才据此进行了修订。拟议法案为生成式人工智能创建了一个单独制度,没有将其纳入四类风险中的任何一种。在这项制度中,提供者被要求承担一系列义务以保证透明度和公平性。

2.依据人工智能特点调整侵权责任规定

如何规制人工智能的侵权问题一直是欧盟的关注重点。因为过错责任原则受到人工智能系统复杂性、自主性与不透明性的挑战,导致受害者难以识别或证明责任人的过错或产品缺陷,以及该过错或产品缺陷与损害结果之间的因果关系。为此,欧盟在2022年通过了两项提案来解决这个问题。

首先是拟议的《关于将非合同民事责任规则适用于人工智能的指令》主要规定了证据披露与过错推定规则。指令第3条规定,当特定高风险人工智能系统涉嫌造成损害时,法院有权下令披露相关证据。第4条规定,在满足一定条件的情况下,法院可推定损害结果与责任者的过错具有因果关系。这两项规定大大降低了人工智能时代消费者索赔的举证难度,有利于改变消费者处于弱势地位的现状。其次是修订《产品责任指令》的提案,澄清了长期以来关于“产品”定义的争论,将产品的范围扩张至数字内容、软件、人工智能功能产品以及人工智能系统。在这些产品存在缺陷的情况下,对制造商等主体适用无过错责任。这样一来,不仅受害者可以得到最大限度的保护,而且也能促使制造商对人工智能产品进行严格的质量把控,消除潜在的危险性。

3.构建完整的法律框架

欧盟的人工智能监管是复杂和多方面的,人工智能法案并不是唯一的立法,业已通过的通用数据保护条例、数字服务法和数字市场法都将在监管过程中发挥重要作用。

通用数据保护条例除了解决数据和隐私风险的问题外,还包含关于算法决策的规定:不允许算法系统在没有人为监督的情况下做出影响合法权利的重大决定。根据这一条款,2021年优步被要求复职六名被公司算法系统解雇的司机。数字服务法通过创建新的透明度规则、要求独立审计、支持在大型平台上进行独立研究以规范网络平台中人工智能的运作。数字市场法则在披露要求、训练数据监管、访问规则方面对人工智能和基础数据有重大影响,以至于有学者认为,在数字经济中,关于人工智能应用的最广泛和有效的规则不包含在拟议的人工智能法案中,而在刚刚颁布的数字市场法中。

(二)

关于生成式人工智能的特别规定

在今年5月修订的人工智能法案中,欧盟针对生成式人工智能设立了专门章节以弥补此前相关规定的欠缺。最新版的人工智能法案主要从以下方面对生成式人工智能进行规制。

第一,强调基础模型提供者的义务。依据法案规定,人工智能按照六项一般原则进行治理。对高风险的人工智能系统,一般原则转化为对提供者和部署者的要求,对基础模型则转化为对提供者的要求。根据规定,基础模型的提供者需要承担以下义务。(1)在投放市场和投入使用模型之前,保证该模型符合本条规定的要求;(2)在设计、开发的过程中识别和记录风险;(3)基础模型的设计和开发应当节约能源,减少浪费;(4)将基础模型在欧盟数据库中备案;(5)在基础模型投放市场或投入使用后的10年内,相关技术文件保留给国家主管部门使用。此外,对专门用于自主生成文本、图像、音频或视频内容的供应商还规定了其他义务,包括遵守透明度的义务和公开受版权法保护的训练数据。

第二,注重独立专家的作用。对基础模型的审查和评估仅依靠提供者自身难以保证公正性和客观性,所以本条在两处提到了引入独立专家进行评估。一是在基础模型开发之前和开发过程中,利用独立专家的参与,识别、减少相关风险,并记录开发后剩余的不可缓解的风险;二是在设计和开发基础模型时,独立专家可以参与评估基础模型是否满足可预测性、可解释性、可纠正性、安全性和网络安全水平的要求。

第三,着眼于全链条监管。人工智能系统的供应链是复杂的,多方参与的结果注定不能只关注提供者。对基础模型而言,下游供应商也应当受到规制。比如法案要求提供者制定广泛的技术文件和可理解的使用说明,以使下游供应商能够遵守相应义务。尤其是,如果基础模型是作为一种服务提供的,与下游供应商的合作应该贯穿服务提供的整个过程,以便适当地降低风险。

二、英国的监管动向分析

(一)

总体监管策略

1.建立以创新为宗旨的监管框架

生成式人工智能的监管必然涉及政府的定位和作用问题。由于世界各国的政治、经济制度不尽相同,所以政府在监管中扮演的角色也呈现较大的差异。但都比较肯定的一点是,无论政府采取何种应对措施,都不应当阻碍或者扼杀本国产业的创新和发展。这一理念在英国的监管模式中体现得淋漓尽致。

2023年,英国发布了《支持创新的人工智能监管方式》白皮书,提出拟建一个促进和支持创新的人工智能监管框架。这一做法延续了此前《国家人工智能战略》和《建立有利于创新的方式来监管人工智能》的一贯主张。支持创新的监管框架旨在防止不合理的过度监管,避免损害初创或中小企业的创新力及竞争力。为此,英国目前并不打算采取同欧盟、巴西等国家地区相同的措施,即通过制定专门的人工智能法律进行规制。相反,为了促进人工智能行业的创新和可持续发展,英国将通过现有的法律制度发挥监管作用,避免新的立法带给企业额外负担。

2.以结果为导向的治理方法

白皮书指出,监管框架是基于常识性的,以结果为导向的方法。换句话说,监管的重点不是人工智能系统本身,而是针对具体使用情况可能引发的后果。因为人工智能所引发的道德和法律风险高度依赖其使用的特定情形,所以采取通用措施为整个人工智能技术分配规则以及风险级别的做法可能存在问题。比如,当人工智能系统用于高风险医疗决策时应严格审查,但用于风险较小的服装挑选决策时仅较少的审查即可。因此,英国坚持人工智能的监管应当具体问题具体分析,而非根据某类人工智能系统制定一刀切的规则。这一做法的好处是监管框架获得了极大的灵活性,可以随时适应新的技术发展而不需要更新法律规定。尤其是和欧盟相比,后者的做法被一些学者认为过于僵化,无法提供充分和持久的保护。典型的例子就是人工智能法案因为去年突然出现的生成式人工智能不得不再次修改。

3.制定跨部门监管原则

鉴于英国的监管框架旨在通过分散的监管机构以现行法律完成监管任务,白皮书便制定了五项跨部门的监管原则,并对各原则的定义进行了解释以及详细阐述了这些原则被确立的原因。这些原则分别是(1)安全性、可靠性和稳健性:应以安全、保障和稳健的方式使用人工智能,谨慎管理风险;(2)适当的透明度和可解释性:开发和部署人工智能的机构应说明何时以及如何使用人工智能,并以适当的详细程度解释系统的决策过程,以匹配人工智能的使用所带来的风险;(3)公平:人工智能的使用方式应符合英国现有的法律,例如2010年的平等法案或英国通用数据保护条例,并且不得歧视个人或造成不公平的商业结果;(4)问责制和治理:需要采取措施,确保对人工智能的使用方式进行适当监督,并对结果进行明确问责;(5)可争议性和补救:对于人工智能产生的有害结果需要有明确的途径来提出争议,并做出决定。上述原则不仅有助于监管机构合理适用现行法律法规,也指导了企业负责任地设计、开发和利用人工智能,并进一步推动了监管框架的灵活性和相称性。

4.建立中央风险职能部门

由于分散的单一监管机构可能无法解决一些跨部门的人工智能风险,因此,白皮书提出建立一个中央风险职能部门以识别、评估、监测可能需要政府干预的跨领域人工智能风险。为了保证中央风险职能部门发挥作用,需要从制定中央监管指南、建立人工智能风险登记册等方面着手。

(二)

关于生成式人工智能的特别说明

对于生成式人工智能,英国目前尚不会专门立法。白皮书指出,基础模型的快速发展的确带来了全新挑战,但对其采取监管行动还为时过早。这一决定的主要考量在于,第一,科学研究尚未就基础模型的工作原理、能力范围以及相关风险达成共识。第二,基础模型的供应链非常复杂,引发的风险并非单一监管机构能够应对。特别是基础模型的不透明性使得人工智能风险引发的结果责任难以识别。第三,人工智能更新换代的速度很快,现在仍不确定生成式人工智能的进一步发展动向。

不过,考虑到生成式人工智能潜在的巨大风险,英国并不排除未来制定专门的法律和政策,以确保监管框架的有效性。白皮书指出生成式人工智能的未来监管重点有以下方面。第一,中央风险职能部门主动、严格监控与基础模型相关的风险,并确保创新与监管之间的平衡。第二,政府需要与研究机构密切合作,充分利用研究人员和其他利益相关者的专业知识,在这个不断发展的领域制定政策。第三,为基础模型的开发者和部署人员制定具体要求。比如透明度要求,告知用户何时使用人工智能以及用于训练模型的数据。第四,建立生命周期问责制,为整个基础模型供应链参与者公正、合理地分配法律责任。

三、欧盟、英国的监管差异与弊端

(一)

二者的主要差异

目前,欧盟和英国的监管模式主要存在三方面差异。一是监管机构的设置不同。欧盟主张建立单一的监管机构,该监管机构具有新的授权和执法权力,负责监管所有部门的人工智能。英国则倾向建立多个监管机构,并利用现行监管机构的经验和专业知识实施监管。其次,监管的主要方法不同。欧盟的方法在于区分人工智能系统的风险级别,并根据不同的级别制定不同的监管措施,英国则依据人工智能系统可能产生的结果进行监管。最后,监管的法律不同。欧盟的人工智能法案是一项新的法律提案,将直接适用于所有欧盟成员国。但英国目前不准备进行立法,而是适用现行的法律规定解决问题。

(二)

欧盟的监管弊端

1.对参与者的规定不足

人工智能不是一个产品,也不是一次性服务,而是一个在不同环境中通过多方参与的系统,对不同的个人和群体有不同的影响。欧盟人工智能法案的起草灵感来源于产品安全法规,在很大程度上将人工智能提供者设想为洗碗机或玩具之类的产品制造商。对这些类型的产品,最初的制造商当然有理由承担责任,因为他们知道或者应当知道产品的安全性能和使用法则。根据这一思路,欧盟法案给制造商规定了大部分责任。可问题在于,人工智能不是诸如洗碗机之类的产品,下游参与者的使用和调整与最初的构建同样重要,比如ChatGPT生成的内容就受到使用者提示的严重影响。虽然人工智能法案注意到其他参与者的情况,但还远远不够。尤其是基础模型能让用户在不受上游供应商监督的情况下用于多种目的,当使用不是由最初的提供者而是由下游参与者决定时,就可能脱离法案的控制。

2.风险评估的时间存疑

人工智能系统的风险评估不仅需要考虑对个人和社会的影响,更要考虑人工智能的整个生命周期。人工智能系统不是固定不变的客体,它能够基于自主学习不断发展变化,超越研发者的最初构想。在人工智能系统的动态演变中,其产生的各种问题也可能随之变化。因此不能仅在一个时间节点考虑人工智能系统可能引发的法律风险,而应树立一种整体观、全局观,从长远的角度拓展为一条时间线。欧盟法案只是列出了哪些类别的人工智能系统被认为具有不可接受风险,从而被禁止使用。但没有解释清楚这些人工智能系统何时对社会和个人构成不可接受风险。言下之意,欧盟设置的各类风险标准只是人工智能系统投入市场时候的标准,没有涵盖后续的运作程序,贯穿整个生命周期。

3.可能对企业发展造成限制

因为训练数据侵权引发的版权纠纷已将开始出现,为了解决这一问题,法案要求提供者披露相关的系统信息。可是正如OpenAI联合创始人Ilya Sutskever所表示的,公司过去披露这么多信息是错误的,因为对培训方法和数据源等信息保密是防止其被竞争对手复制的必要措施。从商业秘密的角度而言,模型的训练、优化数据已经具备相当的经济和市场价值,在缺乏有效措施保护的情况下,贸然要求企业披露,无疑有损其市场竞争力。更进一步,如果连OpenAI都认为遵守这些义务如此困难,那么透明度条款对基础模型施加的负担只会使中小型人工智能企业处于更加不利的地位,毕竟大公司拥有的能力和资源不是小公司可以相比的。

(三)

英国的监管弊端

1.面临创新与责任的两难困境

人工智能的监管需要把握分寸,妥善处理监管不足和过度监管的问题。如果监管不足,引发的法律风险会对个人和社会产生不利影响。过度监管又会阻碍市场的自由竞争,扼杀创新。自2022年底开始,基础模型的快速发展与大规模使用在全球范围内引发了监管担忧,中国、欧盟、巴西为了解决即将或已经到来的难题,都在积极制定法律政策。欧盟以责任导向的监管策略可能大量禁止危害基本权利和生活安全的人工智能系统的使用,而严格的监管措施有可能减缓人工智能产业的发展及其在各领域的应用。相比之下,英国以创新为导向的监管策略,允许更广泛的人工智能应用,并为人工智能的发展施加更少的禁止性规定。但由此引发的问题是较弱的监管规制可能无法有效应对人工智能引发的各种问题。毕竟,为了促进创新,英国当前的数据保护规则正在被削弱。而更深层次的思考在于,企图通过放松责任管制换取创新发展的设想有可能本身就是一个错误的假设。

2.监管机构的作用有限

有学者认为,在人工智能快速发展的时代,英国决定同时采取主要由行业主导和放松管制的方法是非常危险的。尤其是大型语言模型带来的挑战远远不是分散的监管机构能够有效应对的。大型语言模型涉及的法律风险主要包括了版权侵权、隐私和数据泄露、生成虚假违法内容等,这些风险可能已经属于现有监管机构的职权范围。但是,尚不清楚的是监管机构的现有权力是否足以应对当前风险的广泛性和复杂性。此外,由于这些系统将以不同的方式影响多个部门,如何协调各部门展开合作,充分调动部门积极性也有待思考。如果各部门和监管机构各行其是,以不同的方式解释和应用白皮书的监管原则,就会导致混乱的监管局面,加剧风险。

3.受到欧盟的实际制约

英国采取不同于欧盟的监管模式,在一定程度上反映了脱欧后建立一个独立治理体系的强烈意愿。但这样的意愿目前看来似乎不易实现,因为欧盟的影响有可能左右英国的政策走向。在数据保护领域中,为了使数据从欧盟自由流向英国,欧盟委员会需要确信英国与欧盟提供了相同级别的数据保护。鉴于英国脱欧后仍然保留了通用数据保护条例,相关规则的设定符合欧盟数据流通的要求。可现在尚不清楚英国在推行以创新为导向的监管模式后,数据保护政策还是否会被欧盟认为是适当的?此外,欧盟的人工智能法案很可能会通过所谓的“布鲁塞尔效应”在英国产生影响。因为欧盟的市场规模和监管能力决定了它可以制定全球公司遵循的治理标准。正如欧洲议会主席Roberta Metsola所表示的,该法案为未来几年设立了全球标准。反过来说,如果在欧盟国家活动的英国公司为了避免在欧盟规则之上承担额外负担,可能会向英国当局施压,要求与欧盟的监管政策保持一致性,这样一来,英国最终很有可能与欧盟殊途同归。

四、对完善我国监管制度的启示

(一)

实行全链条监管

当下,生成式人工智能的参与主体与传统人工智能有着显著区别,这就决定了完全沿用传统人工智能治理规则规制生成式人工智能的路径不具有可行性。在欧盟人工智能法案针对生成式人工智能修订之前,就有学者抨击道,像ChatGPT这样的生成式人工智能系统至少在动态环境和使用规模两个重要点上与该法案最初针对的传统人工智能系统不同。由此可见,准确把握生成式人工智能的参与主体和生命周期是展开有效治理的前提条件。

生成式人工智能的众多参与者,形成了一条供应链。在这条供应链上,不同的人具有不同的定位,发挥着不同的作用。我国的《生成式人工智能服务管理办法(征求意见稿)》主要规定了提供者的义务,对其他主体缺乏相关规定,因此需要在规制主体上进行完善。总的说来,包括生成式人工智能产品的研发者、所有者、运营商和使用者都应在其对人工智能支配力所及范围内各自承担责任。

比如研发者需要披露训练和优化数据的来源,使用者需要告知使用的文本、图片、视频或音频哪些部分是由生成式人工智能产生的。此外,由于每个主体对可能引发损害结果的作用不同,即便负担同一义务,其标准也不应当相同。指望开发人员预测并减轻基础模型在每个使用场景中可能带来的健康、安全和基本权利风险是不现实的。相反,那些为特定的高风险目的使用模型的人更应该受到人工智能法案的透明度和风险管理义务的约束。

为了适应生成式人工智能的生命周期,相关的法规政策应当具有整体性、延展性和灵活性以应对不断涌现的法律问题。生成式人工智能系统不是孤立存在的,而是作为更广阔的社会技术环境的一部分。这个环境包括生成式人工智能系统生命周期中涉及的众多行为主体和流程,以及它们使用的数据和运行所用的基础设施。因此,治理人工智能还需要采取适当的措施来治理数据流和数字基础设施。

(二)

明确监管的法律原则

欧盟的人工智能法案和英国的《支持创新的人工智能监管方式》都列举了多项人工智能的监管原则。相比之下,我国的意见稿第4条仅规定了提供者应当遵守社会公德和公序良俗这一原则,并列举了五项禁止性要求作为该原则的具体内容,在监管原则的规定上稍显欠缺。综合欧盟和英国的规定,以下内容可以纳入监管原则。第一,透明度和可解释原则。与过去任何时代相比,人工智能应用系统的内部运行方式及各环节之间的配合都不易为常人所理解,因此在该领域内更应当强调透明度原则。透明度和可解释原则对增强公众信任有着重要意义,因为当人工智能系统无法充分解释时,人工智能提供者和用户可能会在无意中违反法律、侵犯权利并损害人工智能系统的安全性。第二,可争议和补救性原则。生成式人工智能技术的使用可能导致不同类型的伤害,并对人们的生活产生重大影响。应该保证个人和组织能在合法权益受到侵害的情况下对人工智能系统做出的决定和结果提出质疑。第三,多元性原则。大型语言模型的输出因为面向大众,反应主流价值观,而存在忽略多元性的弊端。仅仅依靠透明度原则不足以缓解多样性减少的问题,所以宜将多元性确立为监管原则。

存在原则性规定就涉及对原则的解释问题,当法律规则不足以应对日新月异的问题时,如何解释监管原则弥补法律漏洞至关重要。考虑到生成式人工智能引发的风险是跨部门的,如果立足于单一部门法的解释未免太过狭隘,由最高院出台原则的适用规定以协调各部门的差异似为可行之策。

(三)

完善侵权责任制度

生成式人工智能产品引发的侵权问题,需要从责任主体与归责原则两个角度进行思考。首先是责任主体,谁应当为输出的内容负责,是提供者还是使用者?根据ChatGPT的使用条款,使用者享有输出内容的所有权,并对该内容负责以确保不违反法律和使用条款。根据这一使用协议,ChatGPT试图将自己从责任主体中剥离出来,但问题在于ChatGPT真的能够逃避责任吗?答案显然是否定的。试想一下这样的情况,如果训练和优化模型的数据本身存在违法或侵权情形,那么无论怎样设置提示或输出,其结果都可能涉嫌侵权。换句话说,技术中立并不能作为ChatGPT的免责理由。笔者认为,使用者是否需要对生成内容承担责任,需要考虑提示或输入的倾向性或引导性程度、使用的目的与方式等因素。提供者则需要考虑是否违反透明度义务,系统是否具有歧视性、训练数据是否存在侵权、违法等诸多因素。

在归责原则方面,生成式人工智能系统可以根据不同的用途分别归责。如果用于高风险用途,提供者和使用者应当适用严格责任以确保受害者的重大合法权益能得到及时补救。如果用于非高风险用途,可以适用过错推定原则,在保护受害者的同时,避免给企业带来重大负担,扼杀企业的发展与创新。而是否属于高风险用途可以参照欧盟的相关规定。此外,如果生成式人工智能系统的提供者与运营商不是同一主体,对系统造成的损害二者应当承担连带责任,以确保消费者得到有效救济。

(四)

摒弃人类中心主义的治理思维

生成式人工智能之所以在全球范围内引发了监管狂潮,是因为原有的人工智能监管手段可能已经或将要失效,所以人们迫切希望找到新的治理途径。这一现象背后反映了人类不愿接受但又不得不面对的事实:即以ChatGPT、Midjourney、Dall-E为代表的基础模型已经不是传统认知中只能机械执行命令的智能“工具”了。它们不仅展现了类人的学习能力,还展现出自主生成的创新能力。如果说生成式人工智能系统不再是人类可以自由、完整、有效支配的客体,是否应当坚持以人类为中心的法律治理模式就值得思考。比如在著作权法领域,人工智能创作物能否获得版权的一个判断标准是创作主体必须是人,在最近发生的Kashtanova案中,这一原则再次得到版权局的强调。Kashtanova是一名艺术创作者,利用MidJourney制作了一系列图片,这些图片与Kashtanova自己创作的故事情节构成了一部图画小说Zarya of the Dawn。最初,版权局对小说给予了全部保护。然而,在得知小说中的图片是使用MidJourney生成后,版权局决定故事情节部分保留版权,但图片不受到版权保护。版权局的行为引起了热议,有观点认为,艺术家有很多创作方式,版权局的做法已经过时了。其实,版权局的说理并非没有疑问。如果说人才能作为创作主体,那么进一步可以提出的问题是为什么只有“人”才能作为创作主体?如果是形式上的人类身份要求,那么企业具有法人资格就是有力的反驳。如果是实质上人工智能不具有意识的条件,也存在可以探讨的空间。在最近的一项科学实验中,研究者发现2020年5月发布的GPT-3在心智测试中表现出与3.5岁孩童相当的水平,GPT-3.5表现出7岁孩童的水平,而GPT-4能几乎解决测试的所有任务。这项研究表明,迄今为止被认为是人类独有的心智能力,有可能在大型语言模型中自发出现。

随着第四次工业革命的到来,我们迅速进入到人机共存的智能时代。面对人工智能可能带来的法律风险及相关问题的分析,都必须基于一个前提:对人工智能等虚拟实体法律地位的认可。只有承认其法律主体地位,才能进而分析其所缔结法律关系的效力问题、举证问题、责任问题。当生成式人工智能已经向我们展现了类人的能力,法律设置的各项规则随着人工智能的发展一次又一次被突破,以人类为中心的法律治理模式也就到了不得不破除的时候了,法律主体等于人类的伪命题也是时候结束了。

结语

生成式人工智能正对人类社会的方方面面产生越来越深刻的影响。如同任何一种颠覆性技术,其研发和应用一方面产生了极大的良性效益,另一方面也带来了诸多的负面影响。过去几个月来,“我们应当如何监管人工智能”这个问题跨越国境、东进西渐,在全球范围内激起了巨大反响,成为人工智能治理的焦点所在。欧盟和英国选择了迥然不同的监管模式,多元化的监管格局有利于彼此和其他主体互相借鉴有益经验,从而形成行之有效的治理方案。

生成式人工智能治理的问题如此复杂,完善的监管方法并非短时间内能够形成,达成最低限度的共识性原则更具现实意义。在此基础上,同样的原则也不必践行同样的规则,因为各国家、地区的社会、经济和文化发展水平不同,所以原则的具体化内容允许存在差异。根据生成式人工智能的发展阶段、不同社会的价值取向、方法和手段的现实效果制定符合国情的监管模式,才是可行之策。

往期精彩回顾

上海市法学会官网

继续滑动看下一个

夏浩胜|生成式人工智能的域外监管动向及启示原创 夏浩胜 轻触阅读原文

上海市法学会 东方法学 赞 分享 在看 写留言 向上滑动看下一个

原标题:《夏浩胜|生成式人工智能的域外监管动向及启示》