查看原文
其他

上政学报 | 陈 兵:生成式人工智能可信发展的法治基础

上海政法学院学报 上海政法学院学报
2024-09-16


点击蓝字

关注我们


新兴权利法律问题研究:生成式人工智能法治


生成式人工智能可信发展的法治基础


本文刊登于《上海政法学院学报》2023年第4期

摘  要

随着人工智能技术发展不断成熟,其功能和应用领域不断扩张,尤其是近期爆火的生成式人工智能技术及服务,在多领域存在巨大的发展潜力。“可信”作为人工智能产业发展的内在要求,其内涵在域内外政策及实践中大致可总结为“可操控、可解释、可问责”等要求。然而,生成式人工智能技术所潜在的“技术+资本”垄断、伦理道德标准不清、侵权责任模糊以及数据安全风险等新问题,引发了生成式人工智能的信任危机。基于此,建议以竞争治理、伦理治理、侵权治理以及安全治理等为基点,通过强化生成式人工智能领域要素治理,科学审慎引入事前监管,平衡鼓励创新与保护竞争之间的关系;建立健全生成式人工智能领域科技伦理规范;搭建基于生成式人工智能产品生产者责任和使用者过错的侵权责任认定规则,从技术和制度层面加强数据算法安全等四个方面夯实生成式人工智能可信发展的法治基础。


关键词

生成式人工智能;可信发展;反垄断;侵权责任认定;数据算法安全


作  者

陈兵,南开大学法学院教授、博士生导师,南开大学竞争法研究中心主任。


引用格式

陈兵:《生成式人工智能可信发展的法治基础》,《上海政法学院学报》(法治论丛)2023年第4期。


目  次

一、生成式人工智能可信发展的内在要求

二、生成式人工智能发展面临的信任危机

(一)“技术+资本”引发的相关市场垄断风险

(二)科技伦理风险

(三)侵权责任认定与承担

(四)数据和算法使用安全

三、推动生成式人工智能可信发展的法治举措

(一)公平竞争治理:关注AIGC领域反垄断监管

(二)科技向善治理:建立健全AIGC科技伦理治理制度

(三)侵权责任治理:完善AIGC侵权责任认定

(四)数据和算法治理:从制度和技术层面加强AIGC领域数据算法安全

四、结 语



近年来,随着人工智能(Artificial Intelligence)算法不断迭代升级,特别是机器学习赋予人工智能强大的学习能力,使其不再局限于只按照事先指定的模板或者规则,进行简单的内容输出和制作,而是能够根据用户提出的指令即可生成灵活且真实的内容,甚至能够实现高质量的内容创作,这类技术也被称为人工智能生成内容(AI Generated Content,AIGC),或者基于生成式人工智能服务产生的内容物,以下简称“AIGC”或“生成式人工智能”。


作为生成式人工智能的典型代表,最近备受关注的ChatGPT是基于语言模型GPT-3.5的聊天机器人,其使用的进行机器学习训练的算法是一种被称为人类反馈强化学习(RLHF)的方法,可以回答后续问题、进行模拟对话、承认错误、挑战不正确的前提并拒绝不适当的请求。虽然,在这之前存在可以与人进行对话互动的聊天机器人,但并未受到同ChatGPT一样的关注度,这是由于对比同类聊天机器人,ChatGPT的功能更加强大,其使用来自RLHF训练的模型,可以根据从大型文本语料库中学习到的内容,生成篇幅更长和包含细节更为丰富的内容,能够完成写新闻报道、写邮件、写代码等多种任务,具有开放性、跨领域及通用性的特征。


ChatGPT较低的使用门槛和的强大功能,使人们对人工智能的固有印象发生了改变,同时也让人们意识到生成式人工智能在更多领域应用的潜力。然而,伴随 ChatGPT的爆火带来的生成式人工智能的热潮,也让人们看到了潜在的数据滥用、算法歧视、隐私侵权技术垄断等法律风险,以及其具有的对消费者福利、企业创新、市场竞争甚至国家安全的消极影响,从而引发人们对AIGC乃至整个人工智能技术和产业的信任危机,可能会妨碍人工智能技术和产业创新发展,甚至阻碍人工智能产业的发展。为此,需要探究可能引发生成式人工智能信任危机的症结,探寻生成式人工智能可信发展的法治基点。


一、生成式人工智能可信发展的内在要求


早在AIGC技术兴起前,人工智能技术就已经广泛应用于汽车、家居、医疗等领域。然而,随着人工智能技术应用的不断推进,人们发现人工智能技术仍存在不可控、不可解释、不可预知、不透明等弊端和风险,并且在使用过程中可能给人身安全、信息安全以及财产安全等带来一定风险,由此引发了人们对人工智能技术的不信任。这种不信任会降低人们在部分场景中使用人工智能产品的意愿,从而限制相关技术应用的深度和广度,对人工智能产业的健康可持续发展产生实质阻碍。为了消除人们对人工智能技术应用的不信任,推动人工智能产业“可信”成了一个必然选择。


对于AIGC产业而言,“可信”也是其健康持续发展的内在要求。近年来AIGC技术的兴起和发展,使其逐渐成为新的人工智能产业分支。虽然AIGC技术相比于之前的人工智能技术有巨大突破,但是“可信”仍是AIGC产业健康可持续发展的必备要求。一方面,AIGC技术仍存在局限性。以ChatGPT为代表的AIGC技术,在强化学习技术以及大数据模型的加持下,已经能够生成类似于人类创作的作品,以至于难以区分人工智能生成物与人类创作作品的界限。然而,此类技术仍存在一定的局限性,主要体现在人工智能不会对其生成的内容进行检视,以至于人工智能生成的作品可能会存在错误的内容。另一方面,现行与AIGC相关的法律法规尚未健全,难以有效回应AIGC产业发展和技术应用可能带来的诸如著作权纠纷、侵权行为以及数据泄露等法律风险。为了进一步推动可信AIGC产业的发展,就需要正确把握适用于AIGC产业的“可信”内涵与要求。


AIGC作为人工智能技术的分支,其技术特征和运行原理与此前的人工智能技术存在一定共性,因此,对人工智能产业整体提出的可信要求也可以适用于AIGC领域。自2017年“可信人工智能”的概念正式提出后,各国积极开展推进可信人工智能的研究,并陆续出台了用以推动可信人工智能产业发展的各项指南、规范、倡议书等。为了更全面地把握AIGC产业的“可信”内涵,还需进一步考虑AIGC的特性,在可信人工智能整体要求基础上,结合AIGC产业和相关领域的特征分析其内涵。



综合国内外对人工智能产业提出的“可信”内涵与要求(见表1),可以归纳出以下几方面要求。


1.可控性。人工智能技术与传统技术不同,其最大特征在于其能够自主运作,而无需人类的操控和干预。虽然人工智能的自动化运作能够极大减少人类的工作量,并且伴随人工智能技术的不断成熟,人工智能可以完成的任务也逐渐增多。但是,人工智能的自主化程度越高,越有可能脱离人类的控制,最终可能产生违背使用者意志的结果。因此,可信人工智能要求其技术具有可控性,即人工智能的运作必须是在人类的掌控下,可以基于人的意志控制和干预人工智能的运行和产出。


由于目前AIGC技术主要应用于绘画、写作、编程等领域,因此,可控性在AIGC领域主要体现为要求AIGC内容的生成以及生成内容的使用和发布是受人类控制的,且能够被人类干预,也即人类可以凭借自己的意志控制AIGC生成自己所需的内容,并且可以自主决定是否使用和发布生成的内容。


2.可问责性。人工智能技术的自主性对传统的侵权责任追究机制产生了冲击。当人工智能在脱离人类控制的情况下产生了侵权行为,此时人工智能的操控者并没有侵权的故意,在这种情况下,应当让谁承担侵权责任成为一个亟待解决的难题。为了保障被侵权人的利益,就必须确保人工智能技术的使用具有可追责性,即被侵权人权益受到人工智能侵害时,需要有主体承担侵权责任,以保障被侵权人的合法权益。


AIGC主要应用于论文的写作、绘画创作等具有一定创造性的领域,并且基于AIGC技术原理可知,其内容的生成需要大量学习文字和图画等数据资源,其中就可能包含具有知识产权或个人信息等类型的数据。因此,在其采集数据或生成内容的过程中,可能会侵犯他人的著作权,也可能会侵犯他人的隐私权、名誉权等。此时,AIGC的可追责性就体现在,若AIGC学习的数据或者生成的内容侵犯了他人权益,需要有主体承担相应的责任。


3.公平性。公平性要求主要针对人工智能领域可能出现的不公平或者歧视性现象,主要体现在两方面:一是使用过程中的不公平。由于人工智能技术具有一定的技术门槛,对企业的资本和技术研发能力都有要求,一般只掌握在少数企业手中,由此可能会形成技术垄断,其他企业若要使用该技术,只能被迫接受不公平的条件,而竞争对手则可能会被限制使用。二是在产出结果方面具有的歧视性。受人工智能学习数据数量和种类的限制,人工智能可能会生成具有偏见或者歧视性的内容。因此需要通过公平性要求,来保障人工智能技术使用和生成内容的公平、无歧视。


在AIGC领域,AIGC作为一种新兴的技术,仍存在一定的技术门槛,仅有少数企业拥有该技术。以ChatGPT为例,目前虽然有类似的技术存在,但由于ChatGPT的功能更加强大且完善,其他产品难以真正替代该技术,在此情况下,极易出现“技术+资本”垄断的问题,可能会出现技术封锁等不公平的现象。因此,AIGC技术的使用应当保证公平且开放,避免新技术成为企业获取垄断利润的工具。同时,AIGC源于其技术特性,在集中学习的数据数量和种类有限的情况下,难免也会出现生成存在偏见和歧视的内容,对此,AIGC领域也应当确保生成内容公平无歧视。


4.可靠性。从字面意思看,可靠性与可信非常相近,但具体内涵却存在一定差异。目前,人工智能技术主要作为辅助或替代人类完成工作的工具,当人工智能技术无法完成工作或者是不能满足需求时,那么使用这种工具将是不可靠的。在AIGC领域,可靠性则主要体现在对人工智能生成内容的正确性和真实性方面的要求,这一点在《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《管理办法》”)中第4条第4项中也有体现,要求生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。


5.透明可解释性。人工智能技术的核心是算法,但是算法具有高技术性和复杂性,非专业技术人员往往难以理解人工智能的运作原理,这导致人们往往不能理解人工智能是如何生成内容或者作出决策的,这种状态也被称为“黑箱”。由于这个过程是不透明的,存在信息不对等的情况,由此会引发人们对人工智能生成内容或者作出决策的不理解和不信任。AIGC技术也是如此,人们并不清楚自己输入的数据会被如何处理和使用,也不清楚人工智能是如何得出结论的。在这种情况下,要求人工智能透明可解释,也是消除人们顾虑的主要途径。


6.安全性。人工智能技术目前在多领域应用,其中部分场景中人工智能技术的使用可能会对安全构成威胁,譬如在自动驾驶领域,可能会对驾驶者的人身安全构成威胁;在智能医疗领域,不仅可能威胁人身安全,还可能会侵害患者的个人信息安全等。因此,对人工智能提出的安全性要求主要包括人身安全、财产安全、数据安全、国家安全等多个方面。目前AIGC所应用的领域并不会直接威胁到人身安全,但是其技术的运作需要采集和处理大量数据,可能会危及个人信息安全以及国家安全,同时也可能会侵犯他人的财产性权益。因此,在AIGC产业,安全性要求主要体现在财产安全、数据安全和国家安全等方面。



基于各国对AIGC可信发展的要求,结合其产业特征和应用现状,AIGC的可信要求主要包括“可控、可问责、公平、可靠、透明可解释以及安全”等六个方面。为了切实推进AIGC可信发展,需要基于上述要求(见表2),审视当前可能引发AIGC信任危机的挑战与风险。


二、生成式人工智能发展面临的信任危机


目前,随着人工智能相关产业的高速发展,随之而来的数据隐私、安全风险、算法歧视等人工智能治理问题也对人们在使用人工智能技术时的信任程度产生了影响,推动人工智能可信化建设已经成为全球共识。AIGC作为近期人工智能发展的重点领域,同样存在着诸如“技术+资本”垄断、科技伦理、侵权责任以及数据安全等风险与挑战,影响着人们对于AIGC技术和产业发展的信任。

 

(一)“技术+资本”引发的相关市场垄断风险


AIGC技术的研发与应用需要海量的数据支撑、大量的数字数据技术与信息通信技术的集成与融合,还需要强大的算力等硬件设施的支持,这些对企业技术研发能力、数据供给能力、资本支撑能力等都提出了很高的要求,强化了AIGC对技术、资本、数据和算法、算力等要素的依赖,也在很大程度上增加了AIGC技术研发与应用领域的进入门槛,容易出现超大型平台企业凭借“技术+资本”垄断市场的风险。事实上,从目前国内外上线测试GPT大模型的企业来看,大都是该领域的头部企业,其在技术、资本、数据等领域都具有相当实力,一定程度上印证了前述论断,对中小企业而言,人工智能大模型训练所需的要素是它们难以负担的,这反过来又进一步助长了在AIGC领域各类要素向超大型平台企业聚合的趋势。


如果对“技术+资本”垄断风险的预见和防治不予重视,不仅会破坏AIGC领域市场竞争秩序,导致市场竞争活力减少,降低资源配置的效率,且还会对可信AIGC的建设造成阻碍。因为部分企业为谋取和维持垄断利润,可能会通过提高技术门槛,设置技术封锁等方式,排除限制其他企业有效参与AIGC领域市场竞争,并凭借其垄断地位,对消费者用户进行剥削或施加不公平交易条件,这些都与AIGC产业可信发展所要求的“公平、开放、包容”等价值相违背。


由于生成式人工智能的研发和运行需要大量的数据、资本、技术、算力等要素的支持,只有少数拥有各方面强大技术优势、资本、算力等要素支持的企业或机构才能够参与其中。这种高准入壁垒使得其他潜在的竞争者难以进入或者生存,严重阻碍了市场竞争,将生成式人工智能市场发展逐渐推进到寡头垄断的局面。以ChatGPT为例,最初ChatGPT是由OpenAI开发,而非微软、谷歌等科技巨头,然而支持人工智能训练所需的开放和运行费用高昂,远非一般初创型企业可以承担。有关资料数据显示,2020年一次人工智能算法学习训练的成本约为460万美元,到2022年一次训练的成本降到45万美元,即便如此,对中小企业而言,仍难以独立承担如此昂贵的开发和运营费用。故为了获取运营需要的数据资源和云计算能力,其通常寻求与科技巨头合作。


譬如,为了维持运营,OpenAI选择与微软合作,得到了微软10亿美元的投资,并专门为微软新必应(New Bing)搜索引擎定制了下一代大型语言模型。这在一定程度上显露出微软、谷歌等科技巨头能够借助其拥有的强大的技术和资源优势,采用收购、签订协议等方式获取中小企业的技术,并将其具有的市场力量快速传导至新市场,增加了科技巨头垄断算法、数据和技术要素的风险,其还可能通过实施技术封锁、数据屏蔽等排除限制竞争的行为以维持垄断地位。


可见,即便AIGC领域中的中小企业有能力研发出先进的技术,但是受限于企业在数据、算力硬件以及资本等方面的劣势,往往需要依赖超大型企业提供相关方面的支持,尤其是在资本投资过程中,超大型企业往往能够通过购买股份或者协议控制的方式掌握中小企业的控制权,从而形成“技术+资本”双轮驱动的方式,迅速占领并支配AIGC相关领域的市场,限制、排除竞争,谋取垄断利润。


此外,生成式人工智能具有较强的通用性,可以在多个领域内提供优质的产品和服务,同时其也可以通过相对简单的参数微调和迁移学习来提高解决特定领域内问题的针对性。如此,为特定问题而设计的中小型人工智能模型的针对性优势将会不断减弱甚至完全消失,致使基于大模型训练而不断优化的生成式人工智能服务,因其能够更深层次学习以及拥有应对复杂现实的建模能力的优势会进一步增强。最终,经过大模型反复训练的生成式人工智能的性能会优于中小模型的人工智能开发企业,从而挤压中小规模人工智能模型在各自领域内的市场空间,也会因此削弱中小规模人工智能模型的创新动力和市场应用价值及需求。与此同时,还会剥夺用户和消费者的市场选择权和对不同产品和服务的体验感,使广大用户从人工智能的享用者和消费者,逐渐演化为人工智能的被消费者和被控制者。


(二)科技伦理风险


科技伦理是开展科技创新活动所要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。随着生成式人工智能技术的不断成熟,人工智能的使用逐渐扩展到了原本属于人类具有独创性价值的领域,与此同时,在这些领域内尚未建立人工智能技术使用的价值理念和行为规范,极易导致在人工智能技术使用中出现一些违反科技伦理道德的行为,从而使AIGC技术和应用出现“不可靠、不公平、不可控”等风险,引发了人们对AIGC技术及应用的不信任。


以ChatGPT为例,其可以帮助用户完成写新闻报道、论文写作等多种任务,也因此成为部分用户制造谣言和伪造论文的工具。全球学术顶级期刊《自然》(Nature)曾在一星期内两次发布分析阐述ChatGPT的相关论文,探讨诸如AIGC生成内容具有的潜在侵权风险、大型语言模型(LLMs)给学界带来的负面影响,以及如何规范使用等问题。


实际上,由于生成式人工智能具有依赖训练数据中统计规律的特性,不能通过互联网获得具有时效性的信息内容,也不能对数据的来源进行识别与核实,易增加算法的歧视与滥用的风险。与此同时,其进行学习训练的数据存在种类和内容的限定性,数据库本身可能具有一定的价值偏见,由此使得生成式人工智能算法生成的内容也存在偏见或者有害指引。譬如,在使用ChatGPT时,其作出的回复可能具有种族、性别等歧视性内容的暗示,而部分使用者会将其作出的回复看作“正确答案”并据此作出具有歧视性的错误决定,进而影响公众的社会认知和伦理,甚至危害国家安全、文化安全。


如此,若不对生成式人工智能技术在不同领域应用时应当遵守的价值理念和行为规范进行明确,可能将会存在学术失范、虚假信息甚或谣言传播等伦理道德问题,进而降低公众对生成式人工智能的信任度,这种不信任甚至可能会影响到尚未使用AIGC的场景中,譬如,公众可能对学术论文或者画作创作是否由人创作产生怀疑,而这种不信任会对AIGC及相关领域的发展造成难以估量的影响。


(三)侵权责任认定与承担


目前,人工智能领域的相关法律、伦理道德规范尚未健全,人工智能技术的不规范使用也造成了诸多侵权事件。据媒体报道,澳大利亚墨尔本西部赫本郡的市长布赖恩•胡德(Brian Hood)指控OpenAI旗下的ChatGPT对其进行诽谤,因为该聊天机器人在回答问题时错误地声称他是贿赂丑闻的有罪方,他或将据此对该公司提起诉讼。


实践中,生成式人工智能技术具有的低门槛特性在客观上增加了侵权事件的发生概率。以传播谣言为例,在当前网络对于流量的高度追捧下,部分用户为博眼球可能会利用人工智能技术制造虚假信息,由此加快虚假信息传播的频率。


在AIGC技术出现前,人工智能侵权责任的问题就引发了学者的广泛讨论。其中人工智能是否具有法律主体资格是一个前提性问题。尤其是随着人工智能技术的发展,其具有的自主性也日渐提升。基于此,有部分学者认为,由于人工智能具有自主性,应当赋予其法律主体地位,其产生的侵权行为也应由人工智能自己承担法律责任;也有学者认为,人工智能不具有独立的法律主体资格,因为人工智能是人造物,是受人控制的,本质上与人类使用的工具没有本质区别;还有学者基于人工智能发展的阶段划分,认为在弱人工智能时代,人工智能不具有法律人格,在强人工智能时代,则可以根据实际情况赋予人工智能法律人格。


当前,以ChatGPT为代表的AIGC技术相比之前的人工智能技术已取得了巨大的进步,已可以自主生成人类的对话,且像人一样“创作”出文章、图画等生成物。但结合ChatGPT等技术原理可知,其生成行为认识是基于强化学习的算法模型下完成的,并不是基于人工智能的自我意识,因此,目前AIGC仍未达到强人工智能的标准。虽然其自主性和智能性有明显提升,但其运作和运行都需要人类下达指令或进行人工标注训练,且在使用过程中,其发挥的主要是辅助工具的功能,故此,AIGC尚不具有独立的法律人格。


在AIGC不具有法律主体资格的前提下,需要考虑侵权责任的承担者。当面对AIGC技术引发的侵权事件,责任应当由何者承担?是提供AIGC技术服务的运营商还是使用者?在AIGC应用场景中,传统法律法规中的主体资格、责任认定与承担等制度在适用时存在一定的困难。若不能合理有效地认定各方的侵权责任,则会导致AIGC“不可控、难问责”。因此为防止使用者与运营商之间进行责任推诿,让被侵权人的损失能够及时得到弥补,需要明确责任追究机制。


(四)数据和算法使用安全


大数据、虚拟现实、AIGC等技术的发展成熟,不仅能够将静态的现实空间事物转化为数据映射到虚拟空间中,还能将动态行为或者事件进行实时的数据转化,从而实现虚拟与现实的实时互动。这些技术在极大提升元宇宙拟真性的同时,也采集并处理了大量包括消费者身高、地址、基本身份信息,经营者商品或者服务数据等信息。


以ChatGPT训练为例,其运行需要大量数据的支持,所采用的数据主要是人类语言数据集和公共爬虫数据集,数据量高达上万亿。在OpenAI官网《隐私政策》中,用户使用ChatGPT时的访问、使用或互动的部分信息会被采集用以提高模型性能,但OpenAI于2023年3月1日更新了API数据使用政策,对数据使用和保留政策进行了更改,OpenAI不会使用用户通过API提交的数据来训练或改进模型,除非用户声明自愿共享数据,且通过API发送的任何数据将保留最多30天。即便如此,OpenA也有可能会采集并储存涉及用户隐私和用户对话的数据,同时伴随ChatGPT的用户持续增加,在30天内保留和存储的用户数据量是十分巨大的,这些都留下了对用户数据产生泄露的风险。


虽然OpenAI表示,存储训练和运行模型所需的数据会严格遵守隐私和安全政策,并不会使用用户提交的数据来训练或改进模型,但在近期仍出现了数据泄露事故。2023年3月24日,OpenAI官方表示有1.2%的ChatGPT Plus的用户数据可能被泄露,一些用户可能看到其他人聊天记录的片段以及其他用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址等信息。可见,即便数据安全加密和保障技术不断成熟,但在未来可能出现的违法网络攻击和恶意数据爬取等行为的威胁下,仍存在不可忽视的数据安全隐患。


此外,由于AIGC在采集和处理数据过程中,可能会涉及国家核心数据、地方和行业重要数据以及个人隐私数据的抓取、处理以及合成使用等,会涉及国家安全、行业安全及个人安全等关键利益。若数据安全得不到有效保障,AIGC技术也同样难以获得人们的信任,甚至可能会导致在国家层面严格限制AIGC的使用。例如,据媒体报道,之前意大利监管机构担心ChatGPT及其母公司OpenAI违反了《欧洲通用数据保护条例》中的部分规定。这使得意大利当局发布禁令(目前已经恢复)该公司在意大利境内开展业务。可见,若难以保障数据安全,生成式人工智能技术也面临着信任危机,且会阻碍人工智能的发展和应用。

 

三、推动生成式人工智能可信发展的法治举措


当前,众多国内科技巨头都表明将研发类ChatGPT的AIGC技术产品。因此,须正视可能降低公众对于AIGC技术信任度的潜在风险,否则未来我国的AIGC产业发展也可能面临信任危机,不利于相关产业的规范持续健康发展。为此,应当以竞争、伦理、侵权以及安全作为治理基点,加快推进可信AIGC产业的发展。


(一)公平竞争治理:关注AIGC领域反垄断监管


为预防“技术+资本”垄断可能给AIGC领域市场竞争带来的“不开放、不公平”等不良影响,有必要进一步强化与要素治理相结合的反垄断监管,分类分级、科学审慎地引入事前监管。


一方面,需进一步结合要素治理明晰AIGC领域的垄断行为,明确监管规范,提高反垄断法律法规在相关应用场景的适用性。AIGC产业的发展与数据和算法、技术以及资本要素息息相关,这些要素在支撑人工智能产品和技术应用的同时,也会带来数据泄露、算法歧视、资本无序扩张等现实危害和潜在风险,可能会对市场竞争秩序产生威胁。为此,有必要在反垄断监管中,加强对凭借数据和算法、技术及资本等优势施行垄断行为的识别与规制。修订后的《反垄断法》第9条明确提出,经营者不得利用数据和算法、技术、资本优势以及平台规则等从事本法禁止的垄断行为。《管理办法》第4条也指出:“尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。”基于此,应当充分考量AIGC产品的功能与技术特性,结合最新发布的四部反垄断法配套规章,突破传统的市场份额要件,综合考量数据、算法、技术等各要素的比重。


在此基础上,还需要进一步通过要素治理的方式强化竞争治理。虽然,修订后的《反垄断法》加强了对数据和算法、技术及资本等要素在垄断行为判定中的考量,但是还应当关注要素之间的交互与协同关系,搭建多要素协同治理体系,解析不同场景与要素组合存在的竞争风险,提高竞争治理的系统性、科学性、技术性。此外,在判定行为竞争效果时,要采取包容审慎的原则,参考多项指标,多方权衡行为效果和影响的AB面,兼顾鼓励创新与保护竞争。


另一方面,由于反垄断监管通常偏重事中事后规制,对于AIGC领域具有的动态变化和高技术性的特征市场垄断问题难以进行有效规制。为此,需要分类分级、科学审慎地采用反垄断事前监管,通过设置技术、资本、数据、用户等条件,抓住具体要素治理的要领,明确AIGC领域需承担特殊义务的平台企业,设置行为“红黄绿灯”,聚焦用户、数据、算力、资本等可计量指标,从事前规范和约束相关平台企业的行为,预防可能出现的扼杀式经营者集中、算法(垄断)协议以及滥用市场支配地位等反竞争风险。


此外,也要充分意识到AIGC技术的开发是创造性智力活动,AIGC技术是企业的知识产权,在建立和完善事前监管的同时,也要注意权衡鼓励创新、保护知识产权和反垄断、反不正当竞争之间的平衡。既要充分保护企业的知识产权,又要防范企业滥用其知识产权限制、排除竞争,进行不正当竞争等。现实的问题在于由于AIGC技术具有其独特性,无论是技术保护部门,还是法律监管机构,甚至是企业开发端都面临着进一步认识和准确把握AIGC技术开发与运行规律的挑战,故现行反垄断法和知识产权法等相关法律,很可能难以及时有效平衡鼓励创新与保护竞争之间的关系,为此还需要跟随技术发展,保持足够定力,为AIGC技术的开发和应用预留充分空间,平衡好鼓励创新与反垄断监管之间的关系,虽然,在现行反垄断法中写入了鼓励创新的目的,但是在实践中还需要进一步调适两者的关系,做到敏捷监管、精准监管,以更好地规范AIGC这一新兴领域。


(二)科技向善治理:建立健全AIGC科技伦理治理制度


当前,我国人工智能相关领域的科技伦理治理尚不健全,难以适应人工智能领域科技创新发展的现实需要。为此,应从科技伦理规范、科技伦理审查以及责任承担规则等方面健全AIGC科技伦理治理制度,为AIGC科技伦理治理提供制度保障。


首先,建立多领域的科技伦理规范。依据人工智能应用领域的不同制定差异化的科技伦理规范和标准,引导企业合规进行科技活动。譬如,可设计按场景模式分类,按风险危害程度分级的风险分类分级技术标准体系与配套治理方案。该技术的关键在于正确根据不同人工智能场景的特性与组成要素等多个方面,进行类型化划分,并分别基于隐私泄露风险、数据滥用风险、算法歧视风险、人身安全风险、伦理风险等风险种类,综合风险发生的概率、涉及权益的位阶、损害的大小等因素,划分风险级别,并根据风险的类别和级别分别设置具体的伦理标准,并制定配套的治理方案。


其次,建立科技伦理审查和监管制度。建立人工智能领域道德层面的行为准则,进一步维护社会公平正义、保障公众切身利益,也能够增强公众对人工智能技术应用的信任程度。该项制度在2022年3月印发的《关于加强科技伦理治理的意见》中明确提及,2023年4月,科技部发布关于公开征求对《科技伦理审查办法(试行)》意见的公告。其中提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。公告还提到了“需要开展专家复核的科技活动清单”,包括具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发等。


最后,要完善算法技术使用规范,预防算法歧视问题发生。一方面,要求相关企业从根源上消除具有学习训练数据样本的歧视性,对学习训练数据进行及时检查与更新,并对发现的具有歧视性的数据进行移除;另一方面,要建立AIGC技术的算法问责制度,在应用AIGC的场景下发生侵权事件时,对侵权责任机制进行明晰,合理分配相应主体的法律责任。


此外,建立和健全算法可解释与算法备案制度,让人工智能算法更加透明化。《管理办法》第4条指出:“在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。”ChatGPT等生成式人工智能缺乏透明度涉及算法偏见、算法黑箱及其带来的人工智能算法生成内容不公正、不健康的问题,但要解决上述问题并不宜直接公开其模型。虽然开源可以实现资源共享,驱动创新,激发世界各地开发者的积极性,从而实现人工智能更广的应用,但对于ChatGPT庞大而复杂的内部机制来说,某些算法技术隐层难以被完全掌握,一旦完全开源,则有可能在复杂的应用场景下产生不利的后果,甚至被不法分子利用以进行违法行为。因此,无需要求企业公开算法代码以实现“透明”,仅需对算法作出决策所依据的基本规则和标准进行阐述,并结合算法备案制度,以核对其人工智能算法运行机制解释的真实性和有效性。


此外,根据《管理办法》第17条,AIGC的提供者还应当向用户提供其他可能影响用户信任或选择的必要信息,譬如训练数据的来源、规模、类型、质量,人工标注规则,人工标注数据的类型和规模等。一言以蔽之,提供者应当以浅显易懂的方式主动向用户提供必要的信息,使用户充分了解AIGC技术可能存在的风险以及使用规范,同时告知用户其为保障安全而采取的防范措施,并普及相关的法律规范。主动、充分履行告知义务,AIGC技术的提供者才能真正赢得社会大众的信任,AIGC技术也才能真正实现可信化发展。AIGC技术的提供者要积极主动地做先进技术的开拓者、伦理道德的践行者、法律制度的捍卫者,社会才会成为AIGC技术发展的沃土,AIGC技术才能茁壮成长。


(三)侵权责任治理:完善AIGC侵权责任认定


AIGC运行的自动化特性造成了“主体—行为—责任”传统理论下的“责任鸿沟”,但生成式人工智能算法技术的应用具有一定的价值取向和主观意图,这是承担法律责任的根本依据。因此,可将人工智能算法设计部署的主观过错作为追责的根本依据,在此基础上,还需进一步提升《民法典》《刑法》《产品质量法》等传统法律在AIGC具体应用场景中判定主体责任和产品质量缺陷等问题的适用性。


关于侵权责任的认定规则,《管理办法》第5条规定,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),需要承担产品生成内容生产者的责任。这表明在认定侵权责任时,可以参照适用《民法典》中规定的产品生产者责任,即因产品存在缺陷造成他人损害的,生产者应当承担侵权责任,并且被侵权人可以向产品的提供者请求赔偿。


这是对AIGC产品提供者,通常是平台主体应该尽到高度注意义务的规定,在一定程度上讲,只有赋予AIGC产品提供者相应的责任义务,才能更好地对生成内容的合法合规作出要求。当然,如果平台尽到相应注意义务,在责任的承担上,鉴于其对创新发展的贡献,不宜施加其严格责任,否则不利于技术的开发和未来商用。


因此,在产品生产者责任规则的基础上,建议在认定侵权责任时,根据个案情况具体分析,综合考量使用者和提供者在侵权事件中的实质作用,合理分配责任,尤其是在用户存在过错的情况下,可以酌情减轻或免除提供者责任。以人工智能编造、传播虚假信息为例,可大致分两种情况。


第一种情况,用户以其主观意图让人工智能生成虚假、不实信息,此时生成式人工智能是作为工具被使用,且由于一般情况下,提供者并不能像视频网站等平台一样对传播内容进行审核,用户生成虚假信息并传播的行为是提供者难以预见和管控的。因此,在这种情况中,用户存在一定的过错,提供者若能证明虚假信息的生成并非源于其产品缺陷,则用户承担法律责任,提供者不承担责任;若提供者不能证明产品不存在缺陷,则与用户一起承担连带责任。


第二种情况,用户不具有生成虚假信息的主观意图,而虚假信息内容是人工智能算法运行自动化的产物。在这种情况下,推定人工智能对编造、传播虚假信息行为的完成起到了实质作用,在没有抗辩事由的情况下,则由提供者承担侵权责任。


综上,在明确人工智能提供者责任的同时,也需兼顾提供者对人工智能产品难以完全控制的情形。建议可参照“安全港”制度合理设置提供者承担责任的范围,进一步明确和细化提供者免责事由。如果提供者尽到相应注意义务,在责任的承担上,鉴于其对创新发展的贡献,不宜施加其严格责任,否则不利于技术的开发和未来商用。另外,关于提供者是否需要承担相应的补充责任,应综合考虑侵权范围、损害程度以及平台避免损失扩大的能力进行认定。


(四)数据和算法治理:从制度和技术层面加强AIGC领域数据算法安全


AIGC领域的数据安全保护需要从制度层面和技术层面双管齐下。在制度层面,需以数据分类分级保护制度为基础,建立数据安全风险评估、数据安全应急处置等制度和机制,明确数据安全的基本底线,保障人工智能应用安全可信。数据分类分级保护制度,需结合AIGC底层技术所需数据的特性和作用。譬如,可依据多项指标对学习训练集中的数据进行分类管理,根据数据对于数据权利主体的价值,以及数据遭到篡改、破坏等对数据主体的危害程度进行分级。


需要注意的是,在数据安全评级过程中,同类数据的安全级别并非一成不变,需要根据数据涉及利益价值位阶的差异对部分类型数据的安全级别进行调整。譬如,当跨境传输的数据涉及国家安全时,需要将数据提升至相应的安全级别。


同时,当数据可归入多个数据类型中时,如个人信息数据可能会涉及用户的隐私权、企业的财产权,甚至可能会涉及国家安全,此时该数据的安全级别需要区分两种情况:若其中某一类型已达到数据安全的最高级别,则按照最高级别处理;若未达到最高级别,则需要综合多个类型数据的价值和权利位阶,酌情在原有的安全级别上提升等级。在数据分类分级的基础上,对配套设施进行完善。例如:对核心数据级别的数据进行加密,对希望获取该级别数据的请求进行多重身份认证或设置访问控制。


此外,还应当引入数据安全风险事前评估制度。AIGC开发商和运营商应当根据数据的类型和安全级别,对AIGC开发和运行过程中涉及的数据进行安全风险评估。该制度在《数据安全法》第30条也有体现,即重要数据的处理者应当按照规定对其数据处理活动定期开展风险评估,并向有关主管部门报送风险评估报告。以个人数据为例,对于包含个人信息的数据处理,应当依据《个人信息保护法》第55条、第56条规定,个人信息处理者应当事前进行个人信息保护影响评估,主要包括个人信息的处理目的、处理方式等是否合法、正当、必要,保护措施是否合法、有效并与风险程度相适应。对于数据跨境传输的情形,也应当基于数据分类分级进行数据安全风险评估。根据2022年9月正式施行的《数据出境安全评估办法》和《数据出境安全评估申报指南(第一版)》的规定,AIGC所采集和处理的重要数据以及大量个人信息数据等需要向境外传输的,应当通过所在地省级网信部门向国家网信部门申报数据出境安全评估。


值得强调的是,对数据的存储和使用,相关主管部门也应负起相应的监管责任。应在健全数据使用规范的同时,建立数据使用、存储的备案审查制度,要求企业将其在研究开发以及运营过程中可能会搜集的数据类型以及使用、储存方法向科技伦理审查委员会或有关主管部门备案。科技伦理审查委员会或有关主管部门应根据数据采集的风险与收益、数据的采集对于AIGC的研究开发是否适当且必要、数据的搜集、处理、存储方法是否合规等进行审查,决定是否予以批准。在涉及重大公共利益时,可以向全社会征求意见,确保AIGC技术开发和使用数据符合安全和伦理要求。


在技术层面,以数据分类分级保护制度为依据,对数据全周期各个环节的数据相关行为使用的技术进行规范。例如在数据采集环节,列出可用于采集数据的技术白名单和黑名单,并对可采集的数据范围进行限定。在数据传输环节,可推动数据格式、应用交互端口协议以及数据安全保障等相关技术的规范化、标准化与统一化,设置数据丢失防护(DLP),以检测和防止高敏感数据被泄露或破坏。同时,需加快推动“隐私计算”技术在AIGC领域的应用,这类技术能够让多个数据拥有者在不暴露数据本身的前提下,通过共享SDK或者开放SDK权限的方式,进行数据的共享、互通、计算、建模,在确保AIGC能够正常提供服务的同时,保证数据不泄露给其他参与方。


伴随着技术的飞速迭代,AIGC模型的参数量呈爆炸式增长。巨大规模参数可以显著提升决策准确性,为模型赋能,使其存储海量知识并展现出更好的内容产出能力,但算法可解释性也随之流失。算法可解释性影响模型透明度,对于推动人工智能可信发展具有重要意义。AIGC的发展对以算法透明为内核构建而成的算法治理体系提出了挑战。《管理办法》第11条规定:“提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。”此规定限制了提供者对于用户个人信息的使用权限,要求提供者保护用户数据安全。在算法可解释性降低的情况下,在AIGC领域应创新算法治理模式。


四、结 语


看到AIGC技术在带来更多数字化创新的发展机遇的同时,也必须正视其潜在的各种风险。为此,需重视AIGC技术和产业的法治化治理,建立健全生成式人工智能的行为规范、法律法规和伦理指南,运用法治思维和法治方法来规范和推动以“可操控、可解释、可问责”为基本要求的AIGC技术和产业的可信发展。


对AIGC的发展要坚持以发展为主线,以规范为底线。在发展层面,增加政策向AIGC技术和产业的倾斜程度,完善AIGC内容的可利益保护;在规范层面,也需加紧出台人工智能生成物相关权益授予、配置、交易、规范、救济等相关规定,同时在大力发展之际也要关注对AIGC技术和产业的监管,建立健全违法和不良信息识别机制和辟谣机制,对输入的数据及深度合成的结果进行审核,夯实算法开发者、应用者的相应法律责任。


明确AIGC开发者或拥有者的权利与义务的一致性,同时对算法模型不断更新迭代,降低其生成具有歧视性或者误导性内容的可能性。此外,AIGC的开发者也应适当增加AIGC内容的可识别标识或者信息,有助于更好地规范AIGC在科学研究、学术创新、教育教学等领域的应用,避免出现滥用或者误用而产生损害后果的情况。以此为基础和抓手,大力推动通用人工智能技术的开发和应用,在法治框架下做好谋全局、布长远的人工智能可信发展的大文章。





往期目录



上政学报 | 袁  曾:数字法学研究现状的再反思——法学理论向何处去?

上政学报 | 郑 曦:侦查机关调取公民个人数据的规制

上政学报 | 黎  宏:论中国特色刑法教义学话语体系的建构

上政学报 | 王利明:论平等保护民营企业产权

上政学报 | 宋亚辉:网络平台的动态规制理论

上政学报 | 李友根:公共承运人理论与互联网平台规制的正当性——美国公共承运人判例变迁的考察报告

上政学报 | 齐爱民 倪  达:元宇宙虚拟法庭的提出及其法律机制

上政学报 | [美]索洛姆·维尔琼著,林少伟译:数据治理的关系理论

上政学报 | 胡玉鸿:党的二十大报告中民生法治建设的“公平”话语解读

上政学报 | 张明楷:犯罪故意中的“明知”

上政学报 | 杨立新:《民法典》构建的我国侵权责任法自主立法体系

上政学报 | 汤维建:我国个人破产立法的制度框架构想

上政学报 | 马长山:数字时代的法学教育转型

上政学报 | 陈兴良:区分制与单一制:共犯教义学的学术站位

上政学报 | 舒国滢:菲利普·赫克的法律漏洞填补论与法律(诫命)更正论

上政学报 | 陈瑞华:企业合规不起诉改革的动向和挑战

上政学报 | 蒋大兴:论出资义务加速到期的商业逻辑:股东/董事作为履行者与监督者责任之差异

上政学报 | 熊秋红:刑事司法中的人工智能应用探究

上政学报 | 谢鸿飞:财产权的公共性

上政学报 | 谢士衍:论我国紧急状态的决定和宣布

上政学报 | 刘俊海:论股权转让时的股权变动规则:契约自由、公司确认与登记公示的三重维度

上政学报 | 孙运梁:非法占有目的的两个侧面及其功能

上政学报 | 高铭暄 傅跃建:新时代“枫桥经验”与国家治理现代化:内在逻辑与实现进路

上政学报 | 常鹏翱:论规划对产权的影响——以城市房地产为分析对象

上政学报 | 谢   杰:期货市场内幕交易犯罪的机理解构与刑法规制

上政学报 | 张宇晖:算法决策的结构化问责机制:欧盟经验与中国借鉴

上政学报 | 胡玉鸿:全过程人民民主的价值依归

上政学报 | 李建伟:股东双重派生诉讼制度为何重要——由10份典型裁判说开去

上政学报 | 魏健馨:《生物安全法》的宪法逻辑

上政学报 | 肖新喜:论网络安全的公益诉讼保护

上政学报 | 黎   宏:《刑法修正案(十一)》若干要点解析

上政学报 | 赵   云:中国空间站运行所涉基本法律问题探析

上政学报 | 周永坤:法学是科学吗?——德国法学界的史诗性论辩

上政学报 | 李   敏:虚拟货币的反洗钱监管探析及借鉴

上政学报 | 杨立新:侵害个人信息权益损害赔偿的规则与适用——《个人信息保护法》第69条的关键词释评

上政学报 | 顾永忠:论“委托辩护应当优先法援辩护”原则

上政学报 | 李   翔:袭警罪的立法评析与司法适用

上政学报 | 孙   远:论庭前会议环节对控方证据的实质审查——以新《刑诉法解释》第232条为中心

上政学报 | “初创学者佳作”专栏征文启事

上政学报 | 上政《数字法治评论》约稿函
喜报 | 我校学报二次文献转载再创新高
●喜报 | 陈瑞华教授在《上海政法学院学报》发表的文章被《新华文摘》等全文转载
喜报 | 熊秋红教授在《上海政法学院学报》发表的文章被《社会科学文摘》全文转载

喜报 | 熊秋红教授在《上海政法学院学报》发表的文章被《中国社会科学文摘》等全文转载
资讯|中国知网发布法学期刊影响力指数排名,《上海政法学院学报》位居33
《上海政法学院学报》2023年第4期目录与摘要
《上海政法学院学报》2023年第3期目录与摘要
《上海政法学院学报》2023年第2期目录与摘要
《上海政法学院学报》2023年第1期目录与摘要
《上海政法学院学报》2022年第6期目录与摘要
《上海政法学院学报》2022年第5期目录与摘要
《上海政法学院学报》2022年第4期目录与摘要
《上海政法学院学报》2022年第3期目录与摘要
《上海政法学院学报》2022年第2期目录与摘要
《上海政法学院学报》2022年第1期目录与摘要
上政学报 | 2021年1-6期目录
《上海政法学院学报》2021-2022年栏目专题论文汇编

●重磅|国内第一本《数字法治评论》辑刊创刊首发!我校首届“数字法治论坛”举办!

《数字法治评论(第1辑)》目录与摘要




《上海政法学院学报》创刊于1986年,原名《法治论丛》(2003年改名为《上海政法学院学报》),至今已走过37年的发展历程。《上海政法学院学报》是我国最早以“法治”命名的法学专业学术期刊之一。

我们立足一流期刊建设目标,坚持 “高质量”“特色化”“专题化”办刊思路,在法学期刊建设上努力探索,逐步成长,影响因子稳步提升。据中国知网年报,《上海政法学院学报》(法治论丛)“复合影响因子”从2021年的2.428上升到2022年的3.192,“综合影响因子”从2021年的1.048上升到2022年的1.500,CI指数排名也从2021年的第41位提升到2022年的33位。此外,据中南财经政法大学2022年信息检索报告统计,《上海政法学院学报》2021年刊文共有31篇次(2020年14篇次)被《新华文摘》《中国社会科学文摘》《高等学校文科学术文摘》和“人大复印资料”等二次文献全文转载或论点摘编,在全国法律类院校学报排名第7位(2020年排第14位)。

我们以“问题意识”为导向,以做好选题策划为根本,在持续推进“党内法规”“上合组织法治”特色栏目建设的基础上,继续追踪法治前沿,实现“个人信息保护”“数字经济法治”“国家安全法治”等专栏的可持续发展;紧紧围绕法治中国建设中的重大战略问题,精心策划,开辟 “学习贯彻十九届六中全会精神专题”“新《刑事诉讼法解释》”“数字化时代的刑事诉讼改革”“产权保护专论”等新栏目新专题。此外,还开设“初创学者佳作”专栏,为有潜质起步的青年学者搭建平台。

我们以开放姿态拥抱新技术。全面升级网站建设,建立投审稿系统,实现全流程数字化出版;提升微信公众号运营策略,同步推出作者音频解读;积极开展网络首发,同步上传作者音频视频,增强学术出版。

我们虽然取得了一些进步,但同全国许多优质兄弟期刊相比还存在着很大差距和不足。我们诚挚地欢迎广大海内外科研工作者关注和支持上政学报并惠赐大作,也欢迎各界朋友积极建言献策、批评指正,以期共同办好《上海政法学院学报》(法治论丛)。来稿请通过《上海政法学院学报》编辑部网站(http://www.shupl.edu.cn/xbbjb/)投审稿系统进行投稿。本刊对来稿严格遵守三审(二审外审)定稿制度,以确保稿件选用公开公平公正。


编 辑:汤仙月

审 核:康敬奎


以法为基,寻社会治理之策

以文为器,求兴国安邦之道


投稿邮箱:xuebao@shupl.edu.cn

微信公众号:law-review1986

网址:http://www.shupl.edu.cn/html/xbbjb

电话:021-39227617  39227619



更多内容请点击下方“阅读原文”进入学报官网查看

继续滑动看下一个
上海政法学院学报
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存