查看原文
其他

人脸识别技术应用的分层治理理论与制度进路(学术专论)

洪延青 网安寻路人
2024-09-16

编者按:

本公号曾发表的人脸识别系列文章:

  1. 欧盟基本权利局“人脸识别技术”报告中文翻译(DPO社群出品)

  2. 法国数据保护局(CNIL)关于人脸识别报告的中译文(DPO社群出品)

  3. 零售门店使用人脸识别技术的主要法律问题(DPO社群成员观点)

  4. 人脸识别技术的规制框架(PPT+讲稿)

  5. 人脸识别技术运用的六大场景及法律规制框架的适配(DPO社群成员观点)

  6. 人脸识别技术的法律规制研究初探(DPO社群成员观点)

  7. 美国联邦隐私保护立法草案研究(四):“生物识别信息”

  8. 美国华盛顿州人脸识别服务法案中文翻译(DPO社群出品)

  9. PAI | 《理解人脸识别系统》全文翻译(DPO社群出品)

  10. 解读世界首例警方使用人脸识别技术合法性判决二审判决(DPO社群成员观点)

  11. 人脸识别技术研究综述(一):应用场景

  12. 人脸识别技术研究综述(二):技术缺陷和潜在的偏见

  13. 美国人脸识别技术的法律规范研究综述 | 拼凑式(Patchwork)的范式

  14. 美国《2020年国家生物识别信息隐私法案》中译文

  15. 人脸识别技术是潘多拉盒子还是阿拉丁神灯?

  16. 人脸识别 | “第108号公约+”咨询委员会发布《关于人脸识别的指南》(全文翻译)

  17. 人脸识别 | EDPB“关于通过视频设备处理个人数据的指南”(全文翻译)

  18. 人脸识别 | EDPS关于面部情绪识别的观点

  19. 人脸识别 | 保护人脸信息 规范行业健康发展的有效司法路径

  20. 人脸识别 | 对我国“人脸识别技术民事案件司法解释”中“单独同意”的理解

  21. 人脸识别 | 国际计算机协会(ACM)对人脸识别技术的态度

  22. 人脸识别 | ICO关于实时人脸识别技术在公共场所的应用的意见(全文翻译)

  23. 解构《人脸识别技术应用安全管理规定(试行)》(征求意见稿)的监管逻辑


今天和大家分享的是公号君发表在《法律科学》2024年第一期上的拙作。非常感谢论文撰写期间帮助过公号君的各位老师,以及《法律科学》编辑部老师的热情和耐心的帮助。以下内容转载自公众号——“法律科学期刊”【洪延青:人脸识别技术应用的分层治理理论与制度进路



目次


一、问题的提出

二、人脸识别技术应用产生的新型风险与适用个人信息保护法框架的缺陷

三、人脸识别技术应用的分层治理路径

四、人脸识别技术应用分层治理的优化进路

五、结语


摘要:随着技术发展和模式演进,人脸识别技术应用具备了实现“全场景监控”和“全维度监控”的能力,因此在为人们生产生活带来红利的同时,在保护人格尊严、个人自主、信息安全以及财产安全等方面也存在潜在风险,对个人基本权利和社会公共利益造成一定程度的威胁。基于此,只有从应用层、系统层、技术层、信息层四个方面进行类别化、体系化、明确化的路径分析,才能真正廓清人脸识别技术在不同层面隐藏的风险或危害,并有针对性地提出控制措施。

关键词:人脸识别;全场景监控;全维度监控;分层治理



一、问题的提出


对人脸识别技术的应用可能带来的风险,目前多有讨论。既有研究首先指出:人脸识别技术在身份验证环节中可能产生误差和被破解,以及所收集和产生的人脸信息可能遭泄露。第二个方面的风险在于侵害个人信息权益或隐私,例如人脸识别技术被用于“拉网式”的人脸信息收集,且未经个人同意,将严重威胁个人隐私。第三个方面是人脸识别技术在应用时可能会产生歧视效果,例如有研究发现,部分人脸识别技术对女性或有色人种的人脸图像进行处理时,产生错误结果的几率更高。针对人脸识别技术应用的规范,无论是从实务还是理论角度,我国目前形成的认识主要是从个人信息保护的路径切入。例如,我国第一起涉及人脸识别技术使用纠纷的民事案件——郭兵诉杭州野生动物世界有限公司一案,案件争议焦点在于作为个人信息处理者的杭州野生动物世界有限公司,其是否涉及违法或违约处理郭兵的个人信息,以及郭兵是否可以向个人信息处理者主张信息的删除权。再如,《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》(法释〔2021〕15号)开宗明义地从个人信息保护的路径切入,在第1条明确:“因信息处理者违反法律、行政法规的规定或者双方的约定使用人脸识别技术处理人脸信息、处理基于人脸识别技术生成的人脸信息所引起的民事案件,适用本规定。”《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)虽然没有明确提及人脸识别技术,但该法第26条规范的“图像采集、个人身份识别设备”包括了人脸识别设备,并对在公共场所安装此类设备提出了原则性要求。在现有的学术讨论中,学者基本上也是从个人信息保护的角度展开对人脸识别技术应用的讨论。一方面,人脸识别技术将人脸图像转换成生物识别信息,由于《个人信息保护法》将生物识别信息归于敏感个人信息,因此自然应适用法律中规定的各项个人信息保护措施。同时由于人脸识别技术在应用中经常以无感知的方式收集人脸信息,导致个人信息保护法律框架中占主导地位的“知情—同意”框架难以实施,或者即便实施,人脸信息在收集后的处理中,可能超出原初个人同意的处理目的和范围。因此,学者们的讨论集中于如何扩展或重构适合于人脸识别技术应用的同意原则。在上述关于规范人脸识别技术应用的研究基础上,本文提出,对人脸识别技术应用适用个人信息保护法律框架,远不足以应对其带来的新型风险。对人脸识别技术应用应依循分层治理的思路,即首先厘清在应用、技术、信息、系统等四个层面分别可能出现的各种风险,并有针对性地开展风险防控,最终形成系统性的规制方案。近期,国家互联网信息办公室发布了《人脸识别技术应用安全管理规定(试行)(征求意见稿)》(以下简称《征求意见稿》)。本文将从分层治理论视角审视该规定,分析其得与失,并对分层治理路径的优化进路提出意见和建议。

二、人脸识别技术应用产生的新型风险与适用个人信息保护法框架的缺陷


人脸识别技术是允许自动识别和匹配人脸的生物特征识别系统,该技术通过创建“生物特征模板”来提取并进一步处理生物特征识别数据。生物特征模板可以检测并测量人脸图像中的各种面部特征。通常来说,人脸识别技术主要通过人脸特征的处理来实现验证(verification)和识别(identification)的目的。人脸识别技术用于验证目的,是指将从人脸图像中产生的人脸图像数字特征,与特定个人的人脸图像数字特征进行比对(1:1比对),以确认个人是否具有其所声明的身份。验证目的普遍用于替代传统场景下的人工身份核验活动,如机场安检、酒店入住、银行开户业务中以架设专用人脸识别摄像设备并通过个人在指定场所范围内进行人脸识别以验证该个人身份。验证通常用于受控应用环境,即需要通过个人站立于指定区域等主动发起或配合活动来完成人脸识别。人脸识别技术用于身份识别(identification),指将从人脸图像中产生的人脸图像数字特征,与事先存储的不特定个人的人脸图像数字特征进行比对(1:N比对),以识别特定自然人。识别场景通常被用于维护场所的安全,典型示例如在车站等人流密集场所架设人脸识别摄像设备用以识别那些事先存储在系统中的监控名单(如通缉人员)。识别通常用于非受控应用环境,即在个人毫无感知且无需其配合的情况下进行。显然,使用人脸识别技术,会伴生错误识别或验证的风险。其或是因为技术本身的缺陷导致错误,或是因为技术训练所基于的样本偏向于特定人群,以至于对于样本之外情形的验正正确率明显偏低。目前的研究同时认识到,线下大规模使用人脸识别技术,会导致人脸信息被不同主体广泛收集,每个收集主体的数据安全能力存在明显差异,因此个人信息泄露或隐私泄露的风险急剧上升。随着技术进步以及技术应用方式的推陈出新,人脸识别技术在应用过程中还进一步产生了值得高度关注的新型风险。本节将对此展开阐述,在此基础上分析对人脸识别技术的应用仅适用个人信息保护法框架所存在的显著缺陷。(一)人脸识别技术实现线上与线下的贯通针对人脸识别技术在验证和识别方面的既有研究,虽然捕捉到了人脸识别技术的风险,但这些分析都是在单个时间节点上所得到的“切片式”观察(Snapshot)。如果拉长时间维度来全面地看待人脸识别技术的应用,就能发现人脸识别技术应用隐藏着新型风险。(1)线下场景。在确定自然人身份之后,人脸识别系统往往还持续运转,其目的在于跨时间、跨地理等维度,始终识别特定自然人,从而个人信息处理者能够在锁定特定自然人的基础上,持续捕捉到该自然人的其他信息,例如其所进入的商店、挑选的货品等各种信息,并将这些信息串联汇聚起来。此时,人脸特征信息构成了将纷繁复杂的行为信息做“同类项合并”的索引。(2)线上场景。通过人脸识别技术验证或识别特定个人身份之后,个人信息处理者往往会将人脸特征信息,与该自然人的手机号、设备识别码等在线上领域常用的主体标识符做串联。接下来,个人信息处理者会将原先与手机号、设备识别码等主体标识符关联的个人信息主体行为信息,与人脸特征信息进一步做关联,目的是确保特定个人在更换手机或者手机号码之后,依然能够重新识别该特定个人,确保以前收集的个人行为信息以及相应形成的个人行为特征信息不至于“丢失”。总之,个人信息处理者试图掌握各式各样的主体标识符,目的都是为了持续在网络空间中锁定特定个人,以此不断累积对其认识。目前,人脸识别技术嵌入各种创新应用场景之中,实现了线上和线下的打通。以新零售场景为例,自然人在部署了人脸识别设备的物理商店中挑选好商品,并在商店部署的支付终端中通过人脸识别完成身份验证或识别并最终完成支付,就会实现该次线下购买行为与原先在线上累积形成的个人特征画像的关联合并。这样的数据融合之所以能够实现,就在于人脸特征信息同时构成了线上场景和线下场景的主体标识符。因此,个人信息处理者天然就有动力去尽可能地掌握这样“便利”的标识符,打通线上和线下场景,完成对个人生活、工作的“全景覆盖”。人脸识别技术依赖的面部识别特征具有精确和唯一标识特定个人的高度可能性。正如在爱德华·布里奇诉南威尔士警察局长(R(Bridges)v.The Chief Constable of South Wales Police)一案中,英国上诉法院的判决指出,生物特征数据能够以某种精确度对个人进行唯一识别,正是这一点,使它区别于许多其他形式的数据。而且人的面貌不会轻易发生改变。因此,与其他类型的个人信息相比,面部识别特征及类似的生物识别信息具有与个人相关性更为精确、更加永久、更加不易改变的特点。一旦能够实现线上和线下贯通,人脸识别技术的应用就具备对个人进行“全场景监控”的可能。通过事先掌握某个个人的面部识别特征,人脸识别技术的应用者可以在布设有人脸识别设备的各类场所中轻易地识别到该个人。例如,2020年浙江某房屋销售中介拒绝给予购房者王先生“首次看房”享有的购房优惠,原因是该购房者“在联系我们之前,曾去过售楼处,并且被他们的人脸识别记录了”。在人脸识别设备架设范围足够广的情况下,王先生在任何场所的活动轨迹均可被人脸识别技术应用者(即该房地产企业)所追踪。(二)人脸识别技术实现外表和内在的贯通在实现对特定个人的标识之外,人脸识别技术能够对人脸特征进行分析,并进一步“揭露”该个人的内心想法、情绪变化、性格秉性等私密信息,此即为人脸识别技术中饱受争议的面部情绪识别(Facial Emotion Recognition,简称“FER”)技术。面部情绪识别分析包括三个步骤:人脸检测、面部表情检测、将表情归类为情绪状态。面部情绪识别的基础为对面部特征点(如鼻端、眉毛)的位置分析,在多张图片或视频的处理中,同时分析这些位置的变化,以识别面部肌肉的收缩,并基于算法将其归类为基本的情绪类别(如愤怒、厌恶、恐惧、喜悦、悲伤和惊诧),或复合情绪状态(如愉快地惊讶、悲伤地恐惧、悲伤地愤怒、悲伤地惊讶等)。除情绪之外,人脸识别技术还可将面部特征点的分析,用于判断特定个人的生理或精神状态,例如识别疲倦或者痛苦。面部情绪识别技术属于人脸识别技术在分类识别场景下的具体应用。而所谓的分类识别(categorization)目的,是指根据从人脸图像中产生的人脸图像数字特征,推断人脸信息主体是否属于特定群体。分类识别场景经常被用于对个人进行数字画像,例如当个人驻足于某架设了人脸识别设备的广告牌前时,广告投放者通过人脸识别技术分析个人面部图像所呈现的年龄、肤色、性别、人种等特征以将其分类,并根据分类归属向个人展示相应的广告或其他内容。分类场景可用于受控环境或非受控环境。近年来,分类识别的应用场景越来越广泛,例如提供个性化服务(如推荐音乐或文化信息)、客户行为分析和广告营销(如分析顾客购物过程中对商品或店内陈列的情绪反应)、医疗健康(如预测精神疾病)、雇佣与就业(如确定面试中候选人是否具有特定品质)、教育与培训(如监测学生的注意力)、公共安全(如对公共场所进行预测性筛查,以识别引发潜在恐怖主义威胁的情绪)、犯罪侦查(如发现商店行窃者)、交通安全管理(如检测疲劳驾驶)等。然而,以面部情绪识别技术为代表的人脸识别技术的分类识别应用,亦正因其能够披露个人内心活动或隐秘的品质,带来了另一新型风险——即外表和内心的贯通,使得人脸识别技术的应用具备实现了对个人“全维度监控”的可能。换言之,面部情绪识别技术已经突破了过往人脸识别技术对个人肉身意义上的监控,进一步深入到对个人情绪、精神压力、疲劳程度乃至政治态度等内在心理层面的监控。例如,外国研究者已经发现,在政治活动现场使用面部情绪识别技术,可以通过观察观众的面部表情和反应来推断出他们的政治态度。(三)新型风险凸显个人信息保护法框架的缺陷如前所述,技术和业务模式的双重推动,使得人脸识别技术具备了“全场景监控”和“全维度监控”能力。这样的能力除了“作恶”的可能性,当然还可能被用于实现正向价值。其一,在特定的应用中“全场景监控”能够实现公共整体利益。例如寻找失踪儿童、识别和追踪罪犯以及维护公共场所秩序。2016年的布鲁塞尔恐怖袭击后,借助美国联邦调查局(FBI)的人脸识别软件,警察确定了实施恐怖袭击的人员。2017年欧洲冠军联赛决赛中,英国南威尔士州警察局使用人脸识别技术对潜在的足球暴力活动进行安全监视,并最终由英格兰和威尔士高等法院行政庭作出判决,肯定了南威尔士警方使用人脸识别技术的合法性。2019年由英国信息专员办公室(Information Commissioner's Office,简称“ICO”)组织的调查也显示,有80%的被调查者同意警察使用人脸识别技术,因为他们认为这有利于社会安全。其二,“全维度监控”也可以有积极的价值。例如在医疗科研领域已经可以通过照片来诊断常见的遗传病,如唐氏综合征和迪乔治综合征。2020年末,北京阜外医院和清华大学的研究人员发表在《欧洲心脏杂志》(European Heart Journal)上的研究显示,他们开发了一种基于深度学习算法的人工智能系统,可以通过分析一个人的四张脸部照片,达到检测冠心病的目的。再如,许多人工智能企业一直在探索通过分析人们面部表情来确定司机是否疲劳驾驶。 总结起来,人脸识别技术的能力,从传统在单个节点实现个人验证和识别,到现阶段扩展到了对人的全面监控(即全场景监控+全维度监控)。可想而知,这些能力在被合规使用的同时,也不可避免地可能被滥用或误用。换言之,人脸识别技术的风险,从原先的三类——错误的身份鉴别或识别、个人信息权益侵害或隐私侵犯、算法歧视性效果,又新增了一类,即全场景监控叠加全维度监控所导致的全面监控。而在应对人脸识别技术应用可能导致的全面监控时,个人信息保护法框架事实上存在明显的缺陷。首先,个人信息保护的起始点是知情—同意。也就是说个人要对其个人信息处理知情,并表达自主意愿。但这样的起始点忽略了一个更为根本性和前置性的问题,即哪些主体,能够在哪些场景或位置,出于哪些目的或用途,可以架设具有人脸识别技术的设备或应用(以下简称“人脸识别技术应用”)。本文将此称为应用层问题。进一步说,个人信息保护经典框架并不解决应用层问题,即其默认一个主体可以架设或部署人脸识别技术应用。在架设或部署人脸识别技术应用后、开始收集人脸信息之前,该主体需要告知个人并征得个人的同意。个人可以拒绝信息收集行为,但是无法对在特定场景或地点架设或部署人脸识别技术应用本身提出异议。其次,个人信息保护的重点在于提供个体层面的保护。在面对人脸识别技术应用时,有些人会拒绝该应用的信息收集行为,但与此同时有人会予以同意。一旦在特定的场景或场所架设或部署人脸识别技术应用,就能够收集到人脸特征信息。在收集的人脸特征信息累积到一定的数量之后,特定自然人的人脸特征信息结合这些特定人的行为信息,就构成了个人信息处理者对特定场景、地点、社群等情况的集体性认识(collective understandings)。在目前大数据和人工智能技术的支持下,只要具备集体性认识,个人信息处理者就能够针对特定场景、地点、社群开展定向服务(targeted service),这其中包括对拒绝同意人脸信息收集处理的特定个人。换句话说,个人信息保护框架无法对群体实现保护。例如在特定社区使用人脸识别技术,就能够实现对特定社区中经常出现的人群或族群实现认识和了解,就能够有针对性地对该人群或族群施加影响。最后,个人信息保护法框架的基石之一是赋予个人对其个人信息的控制能力,但与此同时个人信息保护法框架天然存在例外情形,即无需告知个人或无需征得个人同意的情况。《个人信息保护法》第13条中规定的无需个人同意的情况即是典型情形。以“应对突发公共卫生事件”为例,《个人信息保护法》明确规定在应对突发事件过程中必须处理个人信息时无需个人同意,但这是否意味着可毫无限制地使用人脸识别技术,实现对个人的全景监控?答案显然是否定的。在前述例外情形下,法律赋予个人信息处理者不基于个人同意的法定合法理由,但放任人脸识别技术不加限制的应用,将会导致对面部识别信息持续性、广泛性的处理,并进一步导致对个人合法权益全方位的损害。因此,即便是在不需要个人同意的法定情形下,也应对人脸识别技术应用实施持续的、全面的风险管控。

三、人脸识别技术应用的分层治理路径


从前述来看,个人信息保护框架并不能前置性地回答人脸识别技术在应用层所需要回应的问题,也不能全面系统地应对人脸识别技术所带来的全场景监控和全维度监控风险。进一步说,个人信息保护框架的缺陷本质,实为人脸识别技术的风险超越了单纯的个人信息控制风险。本文认为,人脸识别技术应用所蕴含的风险,糅合了对技术权力的忽视、对算法技术的依赖、对敏感信息的使用,以及对系统安全基础的需求等四个层面的立体风险。从这个思路出发,应当对人脸识别技术应用实行分层治理。(一)应用层问题人脸识别技术中对面部识别特征的应用与其他生物识别特征(如指纹)应用的区别在于,人脸识别技术使面部识别特征信息能够在不需要合作、不需要当事人知情或者使用强制力的情况下获得,并且可以大规模、长时段、跨区域地获得,能够由表及里地“窥探”个人内心。个人对其面部识别信息的控制能力显著削弱,因而在应用层需要从人脸识别技术应用的目的、范围、方式及应用主体等方面,结合应用场景对个人主体权益影响进行评价,确定应用层面的整体风险等级,并相应地从根源上限定应用人脸识别技术的场景和应用主体。在应用层需要确认的问题包括:出于什么目的,哪些主体能够在什么条件下安装使用人脸识别技术。例如对于半公共区域例如商店或小区,谁具有这样的权能等。欧洲国家的有关部门在这个层面上曾设置过一些零散的限制条件。例如,英国信息专员办公室(ICO)认为,实时人脸识别(live facial recognition,LFR)技术能够自动收集生物特征数据并予以应用,有更大的可能性被以侵犯个人自主性的方式使用。因此,对LFR来说,在监管层面首先需要考虑的是系统管控,首先审查系统出于什么目的部署以及如何使用,审查其部署是否符合比例原则,即所采取的手段造成的损害,与所欲实现的目的之间,必须是相称的、成比例的,两者不能显失均衡。如果从相对系统的思路来说,应用层面的问题可以从两个维度进一步展开分析。第一个维度在于可以使用人脸识别技术的主体是谁——公共部门或私营部门,即应当考虑并区分不同使用主体,并审查其目的是否符合最小必要原则。例如在公共场所中,公共部门在公共利益的支撑下,或许可以接入法定身份数据库并开展无需个人配合的人脸识别活动;但私营部门无论是否取得个人同意,均需论证开展同样活动的合法性。另一个维度即是否需要个人的主动参与或配合。通常而言,在无需个人主动参与或配合即能开展人脸识别(本文称为非受控环境)时,人脸识别技术可在个人毫无感知且无须其配合的情况下实时进行。例如在大型活动中扫描那些可能有暴力情绪变化的个人,但那些存在暴力倾向的个人乃至其他并不存在暴力倾向的个人的面部识别特征均被扫描,且他们对此毫无察觉。由于对个人信息控制权的明显抑制,个人权益所受影响明显加深,因而此类非受控环境中应用人脸识别技术应当受到更加强有力的法律规制。例如,某银行希望安装一套人脸识别系统,当识别到大堂客户中的VIP客户时,特定级别的销售人员将为其提供更为全面周到的服务。这种身份验证服务需要在大堂布设人脸识别技术应用并无差别地扫描每一位客户的面部特征,这样的做法实际上剥夺了那些非VIP客户对自身个人信息的控制权。相比之下,受控环境中人脸识别活动的开展需要个人积极的配合,例如将脸置于特定区域,配合的要求可保护个人的知情权和选择权。简言之,应用层管控的基础在于识别系统本身可能带来综合风险,进而确定应当由何类应用主体以何种目的和方式实施人脸识别技术。基于实践经验,我们可以按照比例原则实现对风险和成本的衡量、公共秩序与安全的衡量,构建一套以风险为基础的合比例的法律规制体系。这套方案的具体内涵是,根据识别分析技术在人脸识别中应用而可能产生的风险大小,动态调整法律规制的内容,以达到符合比例的效果。在国家互联网信息办公室近期发布的《征求意见稿》中,我们可以明显地看到比例原则的思路。其第4条明确规定“只有在具有特定的目的和充分的必要性,并采取严格保护措施的情形下,方可使用人脸识别技术处理人脸信息。实现相同目的或者达到同等业务要求,存在其他非生物特征识别技术方案的,应当优先选择非生物特征识别技术方案。”这一规定充分反映了本文所称的应用层最小必要原则,即在人脸识别技术应用是否部署或上线前,即启动对整体应用场景目的的技术使用必要性的评估。《征求意见稿》在此方面的另一亮点即是直接明确“物业服务企业等建筑物管理人不得将使用人脸识别技术验证个人身份作为出入物业管理区域的唯一方式”。应用层最小必要原则与《个人信息保护法》第6条提出的最小范围原则并不相同。个人信息保护法框架要求的最小范围是对信息收集、使用而言,而应用层最小必要原则是在技术部署层面,属于先于个人信息收集的问题。例如在前述的银行识别VIP客户的例子中,应用层最小必要原则要求的是,如果仅出于对VIP客户提供优待服务,银行实际上可以通过在大堂设立VIP服务宣传专区,由潜在的VIP客户自行决定是否需要服务,继而通过身份验证(1:1比对)后接受服务。而个人信息保护的最小范围原则是指如果VIP客户自愿选择通过人脸识别进行身份验证,那么银行就不应该再收集其他信息用于身份验证。对应用层最小必要原则,《征求意见稿》还进行了两个维度的延伸。第一是体现了公私有别。例如,在第4条最少使用原则的统摄之下,《征求意见稿》非常有特色地区分了公共场合以及内部管理的人脸识别技术应用规范,具体体现在第7条和第8条。第二是体现在受控环境和非受控环境的区分。例如,《征求意见稿》第10条将“在公共场所、经营场所使用人脸识别技术远距离、无感式辨识特定自然人”,限定于“维护国家安全、公共安全或者为紧急情况下保护自然人生命健康和财产安全所必需,并由个人或者利害关系人主动提出”。这些都是《征求意见稿》超越个人信息保护要求,直接在应用层对人脸识别技术作出限定的重要体现。虽然《征求意见稿》在应用层鲜明地提出了最小必要原则,但其对前文分析的“全场景监控”和“全维度监控”所施加的管控措施不足。以在经营场所开展“全场景监控”能力是否作出限定为例,目前《征求意见稿》对验证个人身份行为管理较为宽松,仅提出不得“强制、误导、欺诈、胁迫个人接受”的要求(见第9条),对于识别个人身份则开了允许“个人或者利害关系人主动提出”的口子。对于限定“全维度监控”来说,《征求意见稿》难能可贵地提出“任何组织或者个人不得利用人脸识别技术分析个人种族、民族、宗教信仰、健康状况、社会阶层等敏感个人信息”,但仍然留下了个人“单独同意”的例外。在实践中获得个人“单独同意”的难度并不高,而除个人同意之外,《征求意见稿》设计的合规措施仅为自我合规性质的事前“个人信息保护影响评估”。(二)技术层问题在完成部署人脸识别技术应用的决策之后,下一个步骤即是做出人脸识别技术的选择,具体包括图像能力的选择(其决定了收集的人脸图像的距离、像素等),算法的选择(算法决定了如何从人脸图像中选择并提取特征点位,最终形成“人脸特征模版”;算法还决定了人脸特征模版的比对,以给出是否为同一个人的置信区间)。显然,人脸识别技术需要确保在技术层的精确性。既有的研究表明,影响技术层精确性的主要因素包括所使用训练数据的代表性、图像采集的准确性、算法性能、可解释性、鲁棒性(robustness)等。(1)技术层的第一个方面的要求是,人脸识别产品或服务应具备防止他人使用高清图片、动态模型、3D面具等进行破解的安全防护能力。由于人脸识别技术发展迭代很快,各厂商所应用的人脸识别技术水平参差不齐,存在错误识别和欺骗攻击的风险。例如刷脸取款、转账等场景,如果识别的准确率不够,可能因无法区别相似度高的人脸导致身份误判,造成用户财产受损。如果未进行有效的人脸活体检测,支付系统可能被恶意使用照片和视频、动态建模以及仿真人脸面具等方式欺骗。因此,在涉及个人财产、人身安全等重大利益时,应在评估技术的安全防护能力足够后,再考虑允许使用人脸识别产品或服务。(2)技术层的第二个方面的要求是人脸识别技术需要整体考虑算法的公允性。算法缺乏公允性导致的歧视和偏见一直是人脸识别技术乃至人工智能领域最受关注的科技伦理问题之一。就面部情绪识别领域,研究发现社会规范和文化差异会影响一些情绪的表达水平,而部分算法已被证实会因肤色对特定族群产生偏见。如一项测试面部情绪识别算法的研究显示,与其他面孔相比,算法会给非洲裔标记更多的负面情绪(如愤怒)。此外,每当有模棱两可情绪时,非洲裔人的面部愤怒分值也更高。因此,人脸识别技术应用所使用的算法、知识库等,应具备与服务目的相合适的准确率,不得因人种、肤色、族裔、性别、年龄或残疾状况等因素产生明显不公允差异。(3)技术层的第三个方面的要求是平衡精确性与适当性的要求。人脸识别技术无疑需要考虑所处理图像的准确性,影响图像准确性的主要因素为人脸识别技术的摄像能力,即摄像设备的精度和所采集的照片精度。但在追求精度的同时,仍然不应绕开比例原则的要求,应从摄像头精度、数据采集适当性角度进一步讨论人脸识别技术的技术能力是否贴合其在应用层所确立的必要目的。例如,在人脸支付应用场景下,应该采集高精度照片,以确保不会出现识别错误,从而保障个人主体的财产权益不受损害。但与此同时,小区物业架设的门禁系统场景中,人脸识别则不需要用太高精度或远程的人脸识别技术及设备。因此,人脸识别技术应用在技术层的考量是多维度的,一方面要避免其不能稳定、准确、公允地进行验证和识别,另一方面也要避免其能力超出必要程度,以致“杀鸡用了牛刀”。《征求意见稿》对此有两方面的回应。一是其明确“涉及社会救助、不动产处分等个人重大利益的,不得使用人脸识别技术替代人工审核个人身份,人脸识别技术可以作为验证个人身份的辅助手段”。即在涉及个人重大利益时,出于对人脸识别应用在技术层精确性的担忧,《征求意见稿》表达了人工审核优于技术验证的立场。二是《征求意见稿》将“是否限于实现目的所必需的准度、精度及距离要求”作为人脸识别技术使用者开展个人信息保护影响评估的内容之一。但《征求意见稿》在技术层的一大遗憾是没有对算法公允性作出直接、明确的规定,而算法公允性问题已经越来越凸显。也就是说,对于“全维度监控”中必须回应的人脸识别技术准确性问题,《征求意见稿》仅规定了自我合规性质的事前“个人信息保护影响评估”作为回应。(三)信息层问题通过人脸识别技术的技术层(即图像能力和算法)采集和处理,特定个人的面部图像就转换成了电子化的面部识别特征(即人脸特征模版)。本文将电子化人脸特征模版的处理阶段,称之为信息层。在信息层问题上,本文着重讨论个人信息处理的合法理由、个人信息经人脸识别技术应用主体收集后如何流转,以及个人如何行使其知情权、查阅权、删除权等问题。尽管回归了经典理论,但人脸识别技术应用在信息层的个人信息处理仍存在特异性的问题,如对“全场景监控”和“全维度监控”的限制问题。(1)《征求意见稿》对面部图像和面部特征信息提供了增强式的保护。从个人信息保护法理来说,人脸图像(原始的照片或视频)本身并不包含《个人信息保护法》所提出的生物识别信息,后者必须经过相关技术提炼后形成,属于法定意义上的敏感个人信息。因此,人脸图像和面部识别特征通常不被视为同一敏感程度的信息。但是,由于人脸图像能够被加工为面部识别特征信息,因而对人脸图像的管控也应当区别于一般信息。《征求意见稿》对此做了针对性的规定,例如“除法定条件或者取得个人单独同意外,人脸识别技术使用者不得保存人脸原始图像、图片、视频,经过匿名化处理的人脸信息除外”。这体现了《征求意见稿》对此特殊问题的关注。(2)但对于防范“全场景监控”和“全维度监控”,《征求意见稿》的规范密度明显不足。“全场景监控”是在线上、线下场景均使用面部识别特征为唯一的标识符,即“特定个人A的面部特征信息+线上行为信息”与“特定个人A的面部特征信息+线下行为信息”借由面部特征信息,实现了打通或合并。因此,立法应当从控制个人信息汇聚或合并的角度提出控制性要求。但《征求意见稿》仅在“使用人脸识别技术远距离、无感式辨识特定自然人”这一情形中,提出“不得关联与个人请求事项无直接必然相关的个人信息”(见第10条)。“无直接必然相关”条文的限定指向不清,而且显然遗漏了对在身份验证过程中是否可以关联行为信息的规定。(3)再看“全维度监控”。由于人脸识别技术“穿透”到内心和内在的能力,《征求意见稿》将“维护国家安全、公共安全或者为紧急情况下保护自然人生命健康和财产安全所必需”以及“取得个人单独同意”作为合法性门槛,但对之后(且不说个人单独同意是否会流于形式)的管控措施,没有作出应有的设计。例如在规定“不得利用人脸识别技术分析个人种族、民族、宗教信仰、健康状况、社会阶层等敏感个人信息”之后,这些敏感个人信息甚至是个人隐私信息的合并、汇聚、后续利用、删除、目的限定等内容,《征求意见稿》均没有提及。这些敏感个人信息与个人隐私信息,通过面部识别特征这个标识符进入到“全场景监控”的领域及其产生的风险,《征求意见稿》同样没有提及。(四)系统层问题人脸识别技术应用的应用层、技术层及信息层,均需要建立在系统层的安全保护基础之上。系统层主要是保障人脸识别技术应用的可持续运行以及人脸信息的机密性(confidentiality)、完整性(integrity)、可用性(availability),即信息安全中的CIA三性。需要首先明晰系统层运转的基本逻辑。机密性是指保证人脸信息不被非授权访问,或者即使被非授权访问也无法知晓信息内容。同时阻止非授权用户获得机密信息,或者对机密信息进行加密。完整性是指维护人脸信息的一致性,保证人脸信息在生成、传输、存储、使用和流转过程中未发生未经合法授权的篡改。这一方面要求人脸数据的完整性,即人脸数据未被破坏;另一方面要求人脸识别系统的完整性,即人脸识别系统不被非法入侵和操纵,按照合法的使用目标来运行。可用性是指保证人脸信息资源能够随时提供服务,授权用户可以根据需要随时访问所需信息,保证合法用户对信息和资源的使用不会被不正当拒绝,这是对人脸识别系统总体可靠性的要求。以上是任何信息系统在运营中需要持续保障的安全能力。这也是《网络安全法》对网络安全界定的题中之义。《征求意见稿》第17、19、20条是针对系统层可能引发的问题作出的规定。与一般信息系统不同,人脸识别技术应用的系统层也存在其特定问题。最突出的一个问题是,能够开发人脸识别技术的主体和部署人脸识别技术应用的主体,实践中往往不是同一个。例如,在个人通过银行在线办理小额贷款业务的个人身份识别场景中,决定架设人脸识别技术应用的一方为银行,而人脸识别技术的具体提供者则通常为独立的第三方技术公司。在这个场景中,银行尽管使用了人脸识别技术服务,但其实际上并不采集面部识别信息,而是委托第三方技术公司直接在其数据库中完成图像或视频采集、面部识别特征提取以及与现有数据库进行比对的工作。在银行与第三方技术公司之间,显然第三方技术公司对个人的面部识别信息具有更大的决策权。第三方是否更应该被纳入技术层、信息层及系统层的分层治理框架之中?更为明显的例子是,小卖部、小超市、小旅店等部署人脸识别支付应用设备,虽然这些商家同意了应用设备的部署,但显然人脸识别支付应用设备的提供商对技术层、信息层及系统层更加具有话语权和控制力。 因此,系统层的安全责任如何分配,显然需要考虑行业的现实情况。更进一步说,不仅是系统层,在应用层、技术层和信息层,也都需要考虑责任在上下游的分配问题。但遗憾的是,《征求意见稿》对上下游责任的分配不完全符合实际情况。例如人脸识别技术、产品、应用的提供者,负有“符合网络安全等级保护第三级以上保护要求,并采取数据加密、安全审计、访问控制、授权管理、入侵检测和防御等措施保护人脸信息安全”责任,但人脸识别技术使用者却要承担“每年对图像采集设备、个人身份识别设备的安全性和可能存在的风险进行检测评估,并根据检测评估情况改进安全策略,调整置信度阈值,采取有效措施保护图像采集设备、个人身份识别设备免受攻击、侵入、干扰和破坏”的责任。如前所述,银行尚能履行这项义务,但该义务已经远远超过小商家的履行能力。因此《征求意见稿》的该项规定并不符合权责一致原则。

四、人脸识别技术应用分层治理的优化进路



《征求意见稿》初步体现了对人脸识别技术应用的分层治理路径,但仍留有遗憾。例如,并未从应用层的整体风险出发对风险层级划分原则进行指导,而仅是通过对具体的应用场景以列举式的方式提供管控要求,对于可能出现的新应用场景缺乏在最少使用原则之下的细化风险分类指导。此外,对于技术层所涉及的算法问题并未涉及。作为人脸识别技术的重要倚仗,算法的安全、公平、向善将从技术底层决定个体所面临的人脸识别技术风险,因此,算法问题宜被引入正式稿。在信息层,《征求意见稿》对行为信息和面部识别特征的关联所提供的控制不够,在系统层的安全责任分配也与现实脱节。尽管存在上述遗憾,但《征求意见稿》以应用场景为切入点,以持续管控风险为目标,统筹关注应用层、技术层、信息层及系统层问题,在人脸识别技术乃至人工智能监管策略上做了具有中国特色的尝试,具有里程碑意义。下文将进一步探讨分层治理理论在人脸识别技术应用规范中的完整展开。

(一)基于分层理论,推进规范构建

分层治理理论实现了对人脸识别技术风险的立体回应,也顺应了人脸识别技术应用整体生命周期的进展要求,符合规范构建的治理逻辑。在此基础上,规范构建也可以充分考虑分层治理理论的构建逻辑,从人脸识别技术应用的整体层面及应用生命周期展开思考。(1)从人脸识别技术应用层出发,着重构建应用准入制度。如上文所述,应用层首先需要确立最小必要原则来对人脸识别技术应用目的进行评估,评估的维度应当包括主体是谁、环境是否受控、各方利益是否得到平衡。在主体层面,应着重关注更容易对个人权益造成威胁的公共机构和执法机构;在环境层面,应当额外注意非受控场景下个人对其信息所享有的控制权的保障,尤其是基于分类识别技术在不知情状况下被采集和分类的群体的权利保障;在利益平衡方面,应遵循经典的国家利益、公共利益、个人利益的排序准则。在出于刑事案件防控目的所应用的人脸识别技术中,个人权益应向公共利益让行,但若仅出于观测政治态度目的在公共场所架设人脸识别技术,则架设者即缺乏高于个人权益的利益以论证其合理性。概言之,“场景正义”要求信息保护和信息流动在不同场所中应符合各方预期。需要指出,人脸识别技术应用的准入制度目前缺乏在最少使用原则之下的风险分层标准,仅以列举方式对现有高风险或常见应用场景进行了规制,在技术发展日新月异的时代下,新场景的出现无法准确预知,因而需要更为灵活且具有前瞻性的法律监管框架。在这方面,欧盟《人工智能法案》为AI系统引入的四种风险类型,即不可接受的风险、高风险、有限风险和极低风险,可以作为国内规范构建的良好借鉴,特别是针对新近出现的“全场景监控”和“全维度监控”的规范构建。(2)从人脸识别技术的生命周期出发,综合考虑各个层面可能遇到的风险因素并预设规则。如前文所述,应用层、技术层、信息层、系统层恰恰遵循人脸识别技术生命周期的演进路线。而每个层面的风险因素可以依靠已有的经典治理模型进行应对。例如,在技术层,可以引入现有的算法监管体系规制人脸识别技术的透明度、公允性等基本问题;在系统层,可以按照传统的机密性、完整性、可用性(CIA)要求对人脸识别技术安全性进行保障;在信息层,经典的个人信息保护框架足以应对信息层面的处理合规。针对那些经典监管框架之外的“漏网之鱼”,则应通过类似于《征求意见稿》等细则进行规制。

概言之,立法者应当坚持系统观念和问题导向的思维,既要在坚持“一盘棋”的基础上,统筹协调不同层面、不同主体的不同利益,从体系化视角充分保障人脸识别等新兴技术的发展活力,又要针对具体领域,在合法和合理应用的基础上探索人脸识别技术的应用边界,切实降低风险发生概率。具体而言,我国应当采用严格标准明确进入人脸识别技术应用市场的准入资格,既不能像欧盟那样保守,又不能像美国那样宽松,而是要张弛有度,以公共利益和个人利益的最大化作为平衡点和门槛,针对不同应用风险建立相应的动态准入标准,建立从应用层、技术层、信息层到系统层的综合准入规则体系和标准。

(二)基于分层理论,推进多元协同治理

人脸识别技术应用在应用层、技术层、信息层和系统层存在的各种风险要素涉及不同法律规范的适用。因此,多元协同治理是基于分层治理理论以规范治理人脸识别技术应用的应有之义。多元协同治理的内涵,不仅限于常规理解下的监管部门的多部门协同治理,更应当考虑监管部门的多维度治理。以上文提及的应用准入制度而言,若所有的人脸识别技术应用均采用严格准入模式,则势必阻碍人脸识别技术的正常发展,或导致监管部门的审批压力增加从而削弱监管效率。引入个人信息保护框架下的个人信息保护影响评估制度、个人信息审计制度并结合监管部门的备案制度、检查制度和处罚制度或可有效解决该矛盾。各监管部门在关注与该部门职责密切相关的人脸识别技术应用风险要素时,还应同时考虑该风险要素处置与其他监管部门的有效联动和职责分工衔接。例如算法安全这一风险要素即分别对应网信部门和公安部门的监管职责。针对主要风险要素划定第一责任部门,或参考个人信息保护影响评估制度中由公司内部多部门共同成立的评估小组机制或可解决该难题。例如,对于高风险应用场景,应至少由网信部门、公安部门及相关关联部门共同组成评估小组,根据不同的风险因素发表各自领域的专业意见,达到基本一致意见后相关技术才可进入该高风险应用场景。

多元协同治理的另一重要目标将落脚在监管架构设计前对人脸识别技术主要风险点的识别和掌控。对于人脸识别技术应用而言,最为主要的风险点即面部识别特征带来的应用层风险。因为面部识别特征不易改变,且可通过非受控场景获取生物识别信息,其不易改变的属性导致个人极易因面部识别信息被“全场景”和“全维度”的关联,面部特征信息可通过非受控场景获得意味着个人几无可能控制其面部识别特征的采集、流通和关联。面部识别特征滥用将导致个人权益面临极大风险,故避免个人权利受到侵害是防控人脸识别技术应用危害的关键。面部识别特征的主要风险点管控应落脚于信息层监管,网信部门自然是主责部门。但是,若考虑到个人对其面部识别特征在人脸识别技术应用场景中的大量失控,乃至完全无从入手行使其权利的情况,引入其他具有技术背景的监管部门共同参与监管,从而从系统层面阻断面部识别特征的滥用,是有效的补充和救济手段。监管部门面临的另一重协同考验在于在保障和平衡各类利益的同时,需要兼顾技术发展。一方面,应当建立事前审批程序。由网信部门联合其他职能部门进行责任划分,明确不同部门在审批环节的职能权限,综合评估人脸信息识别技术主体的综合条件并针对主体条件的差异探索相应的风险定级。另一方面,加强过程监管。政府部门在监管过程之中应当做到有理有据有节,即在尊重信息识别技术发展规律的基础上,对于超出监管要求的行为主体在事实充分、证据清楚的前提下施加相应的惩戒措施,但同时也要适度、有节制,避免政府这只有形的手伸得过长。

在监管部门之外,应重视和加强行业自律的作用。例如,“知情—同意”规则是处理包括人脸识别信息在内的个人信息的核心规则,企业完成这一核心规则的具体表现形式通常是通过告知《企业隐私政策》完成的。当前人脸识别技术的应用普遍存在着“不同意则无服务”“不知情已收集”等问题,公众只有接受规则或者尚未了解规则便已经进入了人脸识别技术的应用场景之中,这种强制同意规则以及不提前告知程序严重违背了“知情—同意”规则的初衷。因此,企业主体应当加强自身规范化建设,建立与法律法规相适应的规章制度;同时充分发挥行业协会的作用,构建比法律法规更加细化的行业标准,并探索横向主体之间的监督机制。此外,企业主体应通过行业协会向监管部门及时反馈行业现状,保障行业发展。

发挥公众监管的作用。社会公众和社会团体具有广泛的代表性,并以其专业、高效和务实的特点,在填补人脸识别信息治理空白、增加治理机制灵活性等方面发挥着重要的作用。在公众参与方面,不仅要开拓健全公众参与的途径,而且应鼓励公众以公开、民主、透明的方式参与治理。具体而言,人脸识别技术应用的使用范围、使用方式、风险等级以及保障措施等方面需要公之于众,同时在技术应用过程中,技术监管方应当积极回应公众的关切并接受公众监督。只有加强企业、社会团体和公众的参与度和融合度,才能有效建立起基于分层理论的人脸识别技术应用多元协同的监督体系。

五、结语


在数字经济时代,数字技术的创新应用成为社会发展和时代进步不可逆转的潮流,人脸识别技术也不例外。任何技术的发展应用都具有双重性质,其在为社会生活带来便利的同时,也存在潜在的应用风险。若要实现人脸识别技术的规范应用和长足发展,必须正视风险,从应用层、技术层、信息层、系统层四个维度分析人脸识别技术的风险类型和风险本质,探寻其背后的技术应用基础和逻辑。为完成人脸识别技术应用分层治理的制度化、体系化设计,应当从理论角度出发,从多个方面优化人脸识别技术的分层治理制度进路,为人脸识别技术的系统化、规范化发展提供方向引领和框架参考,以最大程度地发挥人脸识别技术的工具价值和应用价值。


(本文责任编辑 贾同乐 马治选

因篇幅限制,略去原文注释及参考文献。



数据保护官(DPO)社群主要成员是个人信息保护和数据安全一线工作者。他们主要来自于国内头部的互联网公司、安全公司、律所、会计师事务所、高校、研究机构等。在从事本职工作的同时,DPO社群成员还放眼全球思考数据安全和隐私保护的最新动态、进展、趋势。2018年5月,DPO社群举行了第一次线下沙龙。沙龙每月一期,集中讨论不同的议题。目前DPO社群已超过400人。关于DPO社群和沙龙更多的情况如下:

DPO线下沙龙的实录见:

  1. 数据保护官(DPO)沙龙第一期纪实
  2. 第二期数据保护官沙龙纪实:个人信息安全影响评估指南 
  3. 第三期数据保护官沙龙纪实:数据出境安全评估
  4. 第四期数据保护官沙龙纪实:网络爬虫的法律规制
  5. 第四期数据保护官沙龙纪实之二:当爬虫遇上法律会有什么风险
  6. 第五期数据保护官沙龙纪实:美国联邦隐私立法重要文件讨论
  7. 数据保护官(DPO)沙龙走进燕园系列活动第一期
  8. 第六期数据保护官沙龙纪实:2018年隐私条款评审工作
  9. 第八期数据保护官沙龙纪实:重点行业数据、隐私及网络安全
  10. 第九期数据保护官沙龙纪实:《个人信息安全规范》修订研讨
  11. 第十期数据保护官沙龙纪实:数据融合可给企业赋能,但不能不问西东
  12. 第十一期数据保护官沙龙纪实:企业如何看住自家的数据资产?这里有份权威的安全指南
  13. 第十二期数据保护官纪实:金融数据保护,须平衡个人隐私与公共利益
  14. 第十三期DPO沙龙纪实:厘清《数据安全管理办法》中的重点条款
  15. 第十四期DPO沙龙纪实:梳理《个人信息出境安全评估办法(征求意见稿)》的评估流程
  16. 第十五期DPO沙龙纪实:SDK非洪水猛兽,但如果“作恶”乱收集信息,谁来管?
  17. 第十六期DPO沙龙纪实:查询App收集个人信息类型、禁止收集IMEI号是未来监管趋势
  18. 与欧美一流数据保护专家面对面(DPO沙龙特别活动)
  19. 第十七期DPO沙龙纪实:数据统一确权恐难实现 部门立法或是有效途径
  20. 第十八期DPO沙龙纪实:生物识别信息的安全保护
  21. 第十九期DPO沙龙纪实:《个人信息保护法(草案)》专题研讨会之一
  22. 第二十期DPO沙龙纪实:《个人信息保护法(草案)》专题研讨会之二
  23. 二十一期DPO沙龙纪实:数据合规中的自动化技术及其应用

  24. 据保护官(DPO)大湾区沙龙:大湾区数据跨境便利化的安全合规路径和实践案例-纪实


域外数据安全和个人信息保护领域的权威文件,DPO社群的全文翻译:

  1. 印度《2018个人数据保护法(草案)》全文翻译(中英对照版)(DPO沙龙出品)
  2. 巴西《通用数据保护法》全文中文翻译(DPO沙龙出品)
  3. “美国华盛顿哥伦比亚特区诉Facebook“起诉书全文翻译(DPO沙龙出品)
  4. 法国数据保护局发布针对与商业伙伴或数据代理共享数据的指南
  5. 德国联邦反垄断局对Facebook数据收集和融合行为提出严格限制(DPO沙龙出品)
  6. 德国联邦反垄断局审查Facebook数据收集融合行为的背景情况(DPO沙龙出品)
  7. “108号公约”全文翻译(DPO沙龙出品)
  8. 美国司法部“云法案”白皮书全文翻译(DPO社群出品)
  9. 新加坡《防止网络虚假信息和网络操纵法案》中文翻译(DPO沙龙出品)
  10. 英国ICO《广告技术和实时竞价的更新报告》中译文(DPO社群出品)
  11. “FTC与Facebook达成和解令的新闻通告”全文翻译(DPO社群出品)
  12. CJEU认定网站和嵌入的第三方代码成为共同数据控制者(DPO沙龙出品)
  13. FTC与Facebook“2019和解令”全文翻译(DPO社群出品)
  14. 英国ICO《数据共享行为守则》中译文(DPO社群出品)
  15. “hiQ Labs诉LinkedIn案上诉判决”中译文(DPO社群出品)
  16. 法国数据保护监管机构(CNIL)有关cookies和其他追踪方式的指引(全文翻译)
  17. 美加州消费者隐私法案(CCPA) 修正案汇总中译文(DPO沙龙出品)
  18. FTC“首次针对追踪类App提起诉讼”的官方声明中文翻译(DPO社群出品)
  19. ICDPPC关于隐私和消费者保护、竞争维护交叉问题决议的中文翻译(DPO社群出品)
  20. 德国关于确定企业GDPR相关罚款数额官方指南的中文翻译(DPO社群出品)
  21. 亚洲十四个国家和地区数据跨境制度报告中译本(DPO社群出品)
  22. 印度《个人数据保护法》(2019年草案)全文翻译(DPO社群出品)
  23. 法国数据保护局(CNIL)关于人脸识别报告的中译文(DPO社群出品)
  24. AEPD和EDPS | “哈希函数简介——用于个人数据假名化技术”中译文(DPO社群出品)
  25. 欧盟基本权利局“人脸识别技术”报告中文翻译(DPO社群出品)
  26. 联合发布 |《2020数字医疗:疫情防控新技术安全应用分析报告》
  27. 技术主权视野下的欧盟数字化转型战略探析(DPO社群出品)
  28. 意大利数据保护机关就新冠疫情联防联控中个人信息问题的意见(DPO社群出品)
  29. 新版《个人信息安全规范》(35273-2020)正式发布
  30. 英国ICO | 《儿童适龄设计准则:在线服务实业准则》全文翻译之一
  31. 英国ICO | 《儿童适龄设计准则:在线服务实业准则》全文翻译之二
  32. 《个人信息安全影响评估指南》(GB/T 39335-2020)正式发布
  33. 《英国ICO人工智能与数据保护指引》选译 | 如何保护人工智能系统中的个人权利?
  34. 《英国ICO人工智能与数据保护指引》选译 | 如何评估AI的安全性和数据最小化?
  35. 西班牙数据保护局《默认数据保护指南》全文翻译(DPO社群出品)
  36. 新加坡PDPA下基于特定主题的建议指南 :“匿名化”专章编译


传染病疫情防控与个人信息保护系列文章

  1. 传染病疫情防控与个人信息保护初探之一:个人信息的性质
  2. 传染病疫情防控与个人信息保护初探之二:同意的例外
  3. 传染病疫情防控与个人信息保护初探之三:数据技术的应用路径
  4. 传染病疫情防控与个人信息保护初探之四:接触追踪的数据共享安全规范
  5. 传染病疫情防控与个人信息保护初探之五:电信数据的安全规范
  6. 传染病疫情防控与个人信息保护初探之六:GDPR框架下的公共卫生数据共享
  7. 传染病疫情防控与个人信息保护初探之七:美国公共卫生机构的数据调取权力
  8. 传染病疫情防控与个人信息保护初探之完结篇:解读中央网信办通知
  9. 欧盟国家和英国的数据保护部门对疫情防控的官方意见汇总(DPO社群出品)
  10. 美国疫情防控中的关键基础设施的识别和认定(DPO社群出品)
  11. 意大利数据保护机关就新冠疫情联防联控中个人信息问题的意见(DPO社群出品)
  12. 欧委会关于新冠疫情中利用移动数据和应用官方建议的全文翻译(DPO沙龙出品) 
  13. 漫画图解苹果和谷歌联手开发的接触追踪应用的基本原理  
  14. 澳门关于疫情防控中进出场所人员个人资料保护的通告
  15. 疫情防控常态化中的接触追踪:中国方案
  16. 欧委会“支持抗击新冠疫情的APP的数据保护指引”全文翻译(DPO社群出品)
  17. 来自欧洲的接触追踪协议(ROBERT Protocol)的基本原理:漫画图解
  18. 英国信息专员对苹果谷歌接触追踪项目的官方意见:全文翻译(DPO社群出品)
  19. 三百名学者关于接触追踪APP的联合声明
  20. EDPB关于“疫情场景中使用位置数据和接触追踪工具”指南:全文翻译(DPO沙龙出品)
  21. 新冠疫情防控常态化下的个人信息保护工作的思考和建议 
  22. 韩国利用ICT抗疫经验总结:接触追踪部分(中文翻译)
  23. 全文翻译 | 欧盟新冠肺炎“接触追踪”APP 共同工具箱(DPO沙龙出品)
  24. EDPB | 关于在COVID-19疫情背景下为科研目的处理健康数据指南(全文翻译)
  25. “健康码”数据安全和个人信息保护措施与建议
  26. “健康码”数据删除等后续处置措施实施指引(可下载查阅)


关于数据与竞争政策的翻译和分析:

  1. "法国竞争管理局对苹果iOS限制APP追踪措施的初步决定"全文翻译(上篇)
  2. "法国竞争管理局对苹果iOS限制APP追踪措施的初步决定"全文翻译(下篇)
  3. 欧盟与谷歌在反垄断方面的大事记(竞争法研究笔记一)
  4. Facebook时代的合并政策(竞争法研究笔记二)
  5. “在隐私辩论中关注竞争水平的维护”(竞争法研究笔记三)
  6. 欧盟委员会针对亚马逊开展调查(竞争法研究笔记四)
  7. 德国联邦反垄断局对Facebook数据收集和融合行为提出严格限制(DPO沙龙出品)
  8. 德国联邦反垄断局审查Facebook数据收集融合行为的背景情况(DPO沙龙出品)
  9. 案件摘要:德国反垄断监管机构对Facebook数据收集融合行为裁决
  10. 日本拟效仿德国:对IT巨头非法收集个人信息适用“反垄断法”
  11. 数据隐私法和竞争法的交叉:若干新进展


健康医疗大数据系列文章:

  1. 健康医疗大数据系列文章之一:英国健康医疗大数据平台care.data之殇
  2. 健康医疗大数据系列文章之二:安全是健康医疗大数据应用的核心基础
  3. 健康医疗大数据系列文章之三:棘手的健康医疗大数据共享、开放、利用
  4. 英美健康医疗大数据安全现状和合规研究
  5. 健康医疗数据 | NHS计划与第三方共享病人记录
  6. 健康医疗数据 | NHS数据共享计划的“隐私政策”
  7. 健康医疗数据 | NHS数据共享计划所引发的公众担忧


网联汽车数据和自动驾驶的系列文章:

  1. 自动驾驶数据共享:效用与障碍
  2. 自动驾驶数据共享:效用与障碍(附文字实录)
  3. 北京市关于自动驾驶车辆道路测试的立法综述及动态(DPO社群成员观点)
  4. 自动驾驶的基建工程 — 高精地图产业促进与国家管控的平衡(DPO社群成员观点)
  5. 《汽车数据安全管理若干规定(征求意见稿)》 | 规范对象和基本原则
  6. 《汽车数据安全管理若干规定(征求意见稿)》 | 个人信息和重要数据的细化规范
  7. 《汽车数据安全管理若干规定(征求意见稿)》 | 数据出境和监管手段
  8. 《汽车数据安全管理若干规定(征求意见稿)》 | 配套制度
  9. 《汽车数据安全管理若干规定(征求意见稿)》 | “汽车数据”与EDPB指南中的联网车辆
  10. 《汽车数据安全管理若干规定(征求意见稿)》 | “车内处理”与EDPB指南中“终端设备”
  11. 《汽车数据安全管理若干规定(征求意见稿)》 | 个人信息的分类分级规则
  12. 《汽车数据安全管理若干规定(征求意见稿)》 | 向车外提供数据的规则
  13. EDPB《车联网个人数据保护指南》全文翻译(DPO社群出品)
  14. EDPB《车联网个人数据保护指南2.0》比较翻译(DPO社群出品)
  15. 网联车辆 | 网联车辆采集和产生的数据类型概览
  16. 网联车辆 | 美国联邦贸易委员会(FTC)对数据隐私的原则性观点
  17. 网联车辆 | 德国官方和行业协会在数据保护方面的联合声明
  18. 网联车辆 | 英国信息专员办公室(ICO)就个人数据保护的立场和意见
  19. 网联车辆 | 法国数据保护局(CNIL)的一揽子合规方案
  20. 网联车辆 | 电信领域国际数据保护工作组的工作文件(全文翻译)
  21. 汽车数据安全管理若干规定(征求意见稿)》 | 运营者概念

  22. 荷兰数据保护局要求Tesla调整摄像头设置


网络空间的国际法适用问题系列文章:

  1. 塔林手册2.0是如何看待数据的?
  2. 国际法适用网络空间 | 德国立场文件如何看待具有国家背景的网络攻击

《网络数据安全管理条例(征求意见稿)》系列文章:

  1. 数安条例 | 对个人信息保护政策和数据处理规则的新要求
  2. 数安条例 | 个人权利方面的新规定
  3. 数安条例 | 数据安全审查和企业境外上市
  4. 数安条例 | 数据跨境安全管理
  5. 数安条例 | 数据处理的主体变更:高风险处理之一
  6. 数安条例 | 单独同意和个性化推荐
  7. 数安条例 | 因司法执法目的的数据跨境提供

《数据安全法》的相关文章包括:

  1. 对《数据安全法》的理解和认识 | 立法思路
  2. 对《数据安全法》的理解和认识 | 数据分级分类
  3. 对《数据安全法》的理解和认识 | 中国版的封阻法令
  4. 对《数据安全法》的理解和认识 | 重要数据如何保护
  5. 评《网络安全法》对数据安全保护之得与失
  6. 从立法价值取向出发理解《网络安全法》中的"重要数据"
  7. 欧盟《数据法》构思B2G数据强制共享与我国“重要数据”:公共属性
  8. 行业梳理 | 征信业的十个增强式数据安全保护要求
  9. 行业梳理 | 工信领域数据安全中的分类分级
  10. 重要数据 | 级别概念 vs 类别概念
  11. 重要数据 | 国家安全视野中的数据分类分级保护
  12. 重要数据 | 从概述到具体字段:keystone原则
  13. 重要数据 | 数据分类和分级概念解析
  14. 洪延青 | 我国数据安全法的体系逻辑与实施优化
  15. 我国数据安全法的体系逻辑与实施优化-《中国社会科学文摘》转载

赴美上市的网络、数据安全方面的两国监管乃至冲突方:

  1. 赴美上市与网络、数据安全 | 美国SEC对赴美上市公司披露义务的指导意见
  2. 赴美上市与网络、数据安全 | 时任美国SEC的领导层对上市公司网络安全披露的观点
  3. 赴美上市与网络、数据安全 | 美国SEC强制或自愿性要求信息提供的权力
  4. 赴美上市与网络、数据安全 | 美国SEC针对会计师事务所从域外调取信息的权力和实践
  5. 赴美上市与网络、数据安全 | 美国SEC关于网络安全事项披露的2018指南(全文翻译)
  6. 赴美上市与网络、数据安全 | 美国《外国公司问责法案》(全文翻译)
  7. 赴美上市与网络、数据安全 | 美国SEC关于非财务报告要求的概览
  8. 赴美上市与网络、数据安全 | 美国SEC关于“重大合同”的披露要求
  9. 赴美上市与网络、数据安全 | PCAOB落实《外国公司问责法案》的规则草案
  10. 赴美上市与网络、数据安全 | 美国政客推动加速《外国公司问责法案》的执行
  11. 赴美上市与网络、数据安全 | 美国法下获取我国赴美上市企业数据的可能性(上)
  12. 赴美上市与网络、数据安全 | SEC主席对中国监管措施的最新表态
  13. 赴美上市与网络、数据安全 |  英国ICO处理SEC的数据调取要求
  14. 赴美上市与网络、数据安全 |  SEC拟新增网络安全方面的强制披露要求
  15. 赴美上市与网络、数据安全 | 中国证监会关于境外发行证券和上市相关保密和档案管理工作发布新规
  16. 赴美上市与网络、数据安全 | 对证监会关于保密和档案管理工作新规的分析


个性化广告或行为定向广告(behavioral targeting advertising)系列的文章:

  1. 个人信息保护 | 欧盟第29条工作组《关于网络行为广告的2/2010号意见》(全文翻译)
  2. 法国数据保护监管机构(CNIL)有关cookies和其他追踪方式的指引(全文翻译)
  3. 英法两国对 AdTech和广告类SDK的监管案例分析
  4. 英国ICO《广告技术和实时竞价的更新报告》中译文(DPO社群出品)
  5. 网络行为定向广告中的个人信息保护问题初探
  6. 美国个信保护立法 | 州层面三部法案系列研究之二:定向广告的定义
  7. 对儿童开展广告定向推送的法律风险(DPO社群成员观点)
  8. 解析欧盟法院对与Cookies相关的告知和同意的最新判决(DPO社群成员观点)
  9. 个性化广告 |  个性化广告与个人信息保护如何平衡的几点思考
  10. 个性化广告 | 欧盟的自动化程序广告即将迎来由GDPR引发的“震动”
  11. 个性化广告 | 比利时DPA对IAB欧洲的调查:深度解读
  12. 个性化广告 | 程序化广告与算法推荐广告的区别:基于《个人信息保护法》第二十四条要求的分析
  13. 个性化广告 | 比利时DPA对IAB欧洲正式做出决定
  14. 个性化广告 | 英国ICO对在线广告建议的数据保护和隐私期望
  15. 个性化广告 | 英国CMA和ICO对谷歌隐私沙盒承诺方案的态度解析
  16. 个性化广告 | 请求FTC禁止监视性广告的报告(全译文)
  17. 个性化广告 | 简析IABEurope/TCF案


内容安全方面的文章如下:

  1. 新加坡《防止网络虚假信息和网络操纵法案》中文翻译(DPO沙龙出品)
  2. 内容安全 | 英国《在线安全法案》中文译本及评析
  3. 美国得克萨斯州社交媒体法(HB20法案)-全文翻译
  4. 内容算法服务中正能量内容源识别和流量分发机制不足的初步思考


关于健康医疗数据方面的文章有:

  1. 健康医疗大数据系列文章之一:英国健康医疗大数据平台care.data之殇
  2. 健康医疗大数据系列文章之二:安全是健康医疗大数据应用的核心基础
  3. 健康医疗大数据系列文章之三:棘手的健康医疗大数据共享、开放、利用
  4. 英美健康医疗大数据安全现状和合规研究
  5. 健康医疗数据 | NHS计划与第三方共享病人记录
  6. 健康医疗数据 | NHS数据共享计划的“隐私政策”
  7. 健康医疗数据 | NHS数据共享计划所引发的公众担忧
  8. 健康医疗数据 | EU健康数据空间立法倡议的初始影响评估
  9. 欧盟健康数据空间的建设进展
  10. 欧盟《关于欧洲健康数据空间条例》草案中译文


第29条工作组/EDPB关于GDPR的指导意见的翻译:

  1. 第29条工作组《对第2016/679号条例(GDPR)下同意的解释指南》中文翻译(DPO沙龙出品)
  2. 第29条工作组“关于减轻对处理活动进行记录义务的立场文件”(DPO沙龙出品)
  3. 第29条工作组《第2/2017号关于工作中数据处理的意见》(DPO沙龙出品)
  4. 第29条工作组《关于自动化个人决策目的和识别分析目的准则》(DPO沙龙出品)
  5. 第29条工作组《数据可携权指南》全文翻译(DPO沙龙出品)
  6. 第29条工作组关于GDPR《透明度准则的指引》全文翻译(DPO沙龙出品)
  7. EDPB《关于GDPR适用地域范围(第3条)的解释指南》全文翻译(DPO沙龙出品)
  8. EDPB“关于《临床试验条例》与GDPR间相互关系”意见的全文翻译(DPO沙龙出品)
  9. EDPB《车联网个人数据保护指南》全文翻译(DPO社群出品)
  10. EDPB关于GDPR中合同必要性指引的中文翻译(DPO沙龙出品)
  11. EDPB关于“疫情场景中使用位置数据和接触追踪工具”指南:全文翻译(DPO沙龙出品)
  12. EDPB | 《对第2016/679号条例(GDPR)下同意的解释指南v1》中文翻译(DPO社群出品)
  13. 第29条工作组 | 《关于匿名化技术的意见》中文全文翻译(DPO社群出品)
  14. 欧盟委员会关于GDPR实施两周年评估报告中文翻译(DPO社群出品)
  15. EDPB | 《GDPR下数据控制者及数据处理者概念的指南(07/2020)》全文翻译
  16. EDPB | 《针对向社交媒体用户定向服务的指南(第8/2020号)》全文翻译
  17. 数据安全的法律要求 | DPB关于数据泄露通知示例的01/2021号指引
  18. EDPB | 关于社交媒体平台界面的黑模式的准则3/2022
  19. EDPB | GDPR下数据控制者及数据处理者概念的指南(第二版)
  20. 对首个GDPR认证机制的详解:GDPR-CARPA


数字贸易专题系列:

  1. TPP对跨境金融数据“另眼相看”?
  2. 数字贸易协定 | 欧盟GDPR与WTO的必要性测试
  3. 数字贸易协定 |  GATS/GATT中“一般性例外条款”的援引实践
  4. 数字贸易协定 | 贸易谈判中的中美欧数据跨境流动博弈概览
  5. 美国-欧盟贸易和技术委员会启动会联合声明:泄露版本(全文翻译)
  6. 数字贸易协定 | DEPA和CPTPP给国内数据本地化和跨境流动管控预留的“自由度”
  7. 数字贸易协定 | G7贸易部长的数字贸易原则(全文翻译)
  8. 数字贸易协定 | 数据竞争的美欧战略立场及中国因应
  9. 数字贸易协定 | 加入CPTPP的流程示意图
  10. 美欧贸易技术委员会第二次声明(选译):人工智能和ICT安全
  11. 美欧贸易技术委员会第二次声明(选译):数据治理和技术平台、危机中的信息完整性
  12. 美欧贸易技术委员会第二次声明(选译):技术的滥用威胁安全与人权
  13. G7公布6000亿美元的计划,以对抗“一带一路”(外媒编译)
  14. 美国放弃在WTO电子商务谈判中对数据本地化、数据跨境流动等议题的支持

关于中国数据出境安全管理制度的文章

  1. 《数据出境安全评估办法》正式发布,倒计时开始
  2. 《数据出境安全评估办法》英文版
  3. 也谈《数据出境安全评估办法》涉及到的几个问题
  4. 尘埃终落定,对我国数据出境安全评估制度的观察和理解
  5. 数据出境风险自评估要点解析
  6. 中国个人信息跨境认证机制与BCRs和AC的比较分析:个人数据跨境流动的未决之路
  7. 中外数据出境安全评估的“意同而形不同”
  8. 数据出境安全评估申报指南(第一版)》英文版

  9. 个人信息出境标准合同办法》及标准合同-英文版

  10. 证制度为中国个人信息跨境流动保驾护航

  11. 家解读|《个人信息出境标准合同办法》出台 贡献数据跨境流动中国方案

  12. 我国数据出境三条路径的风险控制要求对比

  13. 《个人信息出境标准合同备案指南(第一版)》(英文全文翻译)


美国方面的个人信息保护立法的文章:

  1. 美加州消费者隐私法案(CCPA) 修正案汇总中译文(DPO沙龙出品)
  2. 美国联邦隐私保护立法草案研究(一):“行为个性化”
  3. 美国联邦隐私保护立法草案研究(二):“个人敏感信息”
  4. 美国联邦隐私保护立法草案研究(三):“个人敏感信息”的保护规则
  5. 美国联邦隐私保护立法草案研究(四):“生物识别信息”
  6. 美国联邦隐私立法重要文件编译第一辑(DPO沙龙出品)
  7. 美国隐私立法 | 加州《CCPA实施条例》全文翻译(DPO社群出品)
  8. 美国个信保护立法 | 州层面三部法案系列研究之一:个人敏感信息定义
  9. 美国个信保护立法 | 州层面三部法案系列研究之二:定向广告的定义
  10. 美国个信保护立法 | 州层面三部法案系列研究之三:出售个人数据和画像分析的定义
  11. "美国数据隐私和保护法"(全文翻译)
  12. 美国FTC准备制定规则,打击商业监视和不严格的数据安全做法


关于印度的数据保护和数据治理政策和技术文件的文章有:

  1. 印度撤回《个人数据保护法(草案)》
  2. 印度“国家数据治理框架政策”(中译文)
  3. 欧盟-印度贸易和技术委员会:正式宣布成立
  4. 作为经济政策的数据治理:中国、欧盟和印度的发展(附报告全文)
  5. 印度封禁中国APP事件研究报告 V.2.
  6. 印度《个人数据保护法》(2019年草案)全文翻译(DPO社群出品)
  7. 透析印度《个人数据保护法2019年草案》
  8. 印度《2018个人数据保护法(草案)》全文翻译(中英对照版)(DPO沙龙出品)
  9. 印度《个人数据保护法(草案)》的数据本地化规定
  10. 印度最高法院判决确认“隐私权是一项基本人权”
  11. 印度电子和信息技术部发布《数据匿名化指南(草案)》

关于欧盟技术主权相关举措的翻译和分析:

  1. 技术主权视野下的欧盟数字化转型战略探析(DPO社群出品)
  2. 欧盟委员会主席首提“技术主权”概念
  3. 推进欧洲可持续和数字化转型:《欧洲新工业战略》解读(DPO社群成员观点)
  4. 欧盟“技术主权”进展 | 德国和法国推出欧盟自主可控的Gaia-X云平台计划
  5. 欧盟“技术主权”进展 | 欧盟如何在科技领域能主导下一个十年
  6. 欧盟“技术主权”进展 | 关于数字平台监管的建议
  7. 欧盟“技术主权”进展 | 欧洲共同数据空间治理立法框架
  8. 欧盟《数字市场法》选译之一:解释性备忘录
  9. 欧盟《数字市场法》选译之二:序言和条文
  10. 欧盟《数字服务法》选译之一:解释性备忘录
  11. 欧盟《数字服务法》选译之二:序言
  12. 欧盟《数字服务法》选译之三:(实体规则方面的)条文
  13. 欧盟《数字服务法》《数字市场法》简评
  14. 欧洲法院:欧盟成员国的数据保护机构都可对Facebook提出隐私方面的诉讼
  15. 欧盟技术主权 | 《电子隐私条例》(e-Privacy Regulation)全文翻译
  16. 欧盟技术主权 | “欧盟在全球数据争夺战中的位置”:欧盟副主席采访实录
  17. 欧盟技术主权 | “技术的地缘政治”:欧盟内部市场委员的演讲
  18. 欧盟技术主权 | 欧盟标准化战略发布
  19. 欧盟技术主权 | 欧盟通过具有里程碑意义的数字法案瞄准大型科技公司的权力(外媒编译)
  20. 泄露出的《数字市场法》最终版本:最后时刻加入的重大条款(外媒编译)
  21. 欧洲近五年数字立法进程追踪及2023年立法议程
  22. 欧盟关于数字经济的立法和政策举措【乌镇世界互联网大会发言】
  23. 欧盟《数字市场法》第15条审计画像技术的模板(公开征求意见)


关于数据的安全、个人信息保护、不正当竞争等方面的重大案例:

  1. 因隐私政策不合规,西班牙对Facebook开出巨额罚单
  2. 英法两国对 AdTech和广告类SDK的监管案例分析
  3. Facebook事件多层次影响 及中美欧三地监管展望
  4. FTC vs Facebook:50亿美元和解令的来龙去脉
  5. FTC与Facebook“2019和解令”全文翻译
  6. 案件摘要:德国反垄断监管机构对Facebook数据收集融合行为裁决
  7. 德国联邦反垄断局审查Facebook数据收集融合行为的背景情况
  8. 德国联邦反垄断局对Facebook数据收集和融合行为提出严格限制
  9. GDPR与相关数据保护法律处罚案例调研
  10. 他山之石:美国20年间33个儿童信息保护违法案例分析
  11. 重大案件 | 分析WhatsApp的2.25亿欧元罚款决定:合法利益事项
  12. “脸书文件” | 爆料人的美国会听证会开场白、欧盟“数字服务法”推动人的表态
  13. 重大案件 | WhatsApp被罚2.25亿欧元一案核心事实与争点述评
  14. 重大案件 | CNIL对脸书、谷歌的Cookies实践的处罚:官方公告译文
  15. 欧盟法院允许消费者保护协会自主发起GDPR诉讼
  16. 个人信息处理者可以合法留存信息用于测试和纠偏吗?| 欧盟法院最新判决Digi解析
  17. 脸书可能被罚二十亿欧元一案前瞻分析
  18. 欧盟新近执法中所见的跨境传输和匿(假)名化
  19. 欧盟新近执法中所见的隐私设计


围绕供应链安全,本公众号曾发表文章:

  1. 供应链安全 | 白宫发布关于降低依赖外国对手的重要矿产的行政令
  2. 供应链安全 | 美国从科技供应链中剔除中国行动的内幕(外媒编译)
  3. 供应链安全 | 英国政府推进《电信(安全)法案》以确保供应链安全
  4. 《关于推进生物技术和生物制造创新以实现可持续、安全和可靠的美国生物经济的行政命令》(全文翻译)


围绕着出口管制,本公众号曾发表文章:

  1. 美国出口管制制度系列文章之一:对“外国生产的产品”的相关规则
  2. 美国出口管制制度系列文章之二:适用EAR的步骤
  3. 美国出口管制制度系列文章之三:苏联油气管道的“华为”事件
  4. 美国出口管制制度 | 允许华为和美国公司共同制定5G标准
  5. 美国出口管制 | BIS发布针对“基础性技术”出口管制的“拟议制定规则预先通知”
  6. 《华盛顿邮报》披露《美国对中国的战略路径》背后的决策博弈
  7. 美国出口管制 | ARM+美国公司收购=更强的出口管制?
  8. 日本、荷兰拟同意与美国就芯片相关出口管制规则采取一致行动(外媒编译)
  9. 美高管演讲透露美国出口管制执法方向性发展【讲稿全文翻译】
  10. 控制的幻觉:遏制中国技术野心的单边尝试将会失败(外媒编译)
  11. “一个巨大的变化”:拜登颠覆了几十年来的中国贸易政策(外媒编译)
  12. 出口管制的回归:一个需要盟国合作的风险策略(外专观点)

本公号发表过的关于数据执法跨境调取的相关文章:

  1. 微软起诉美国司法部:封口令违法!
  2. 网络主权的胜利?再评微软与FBI关于域外数据索取的争议
  3. 微软与FBI关于域外数据索取的争议暂告一段落
  4. 美国Cloud Act法案到底说了什么
  5. Cloud Act可能本周就得以通过!
  6. 修改版的Cloud Act终成为法律
  7. 欧盟推出自己的“Cloud Act”
  8. 美国快速通过Cloud法案 清晰明确数据主权战略
  9. 德国最高数据保护官员就美国“云法案”提出警告
  10. 美国司法部“云法案”白皮书全文翻译(DPO社群出品)
  11. TikTok和甲骨文合作中的“可信技术提供商” | 微软和德国电信合作的模式
  12. TikTok和甲骨文合作中的“可信技术提供商” | 苹果和云上贵州合作模式
  13. 欧洲将立法允许执法跨境直接调取数据
  14. 数据跨境流动 | “法律战”漩涡中的执法跨境调取数据:以美欧中为例
  15. 赴美上市与网络、数据安全 | 美国SEC针对会计师事务所从域外调取信息的权力和实践
  16. 跨境数据调取 | 针对中资银行的数据调取行为概览
  17. 跨境数据调取 | 中美欧的模式冲突(耶鲁大学翻译版)
  18. GPA关于政府为国家安全和公共安全目的获取私营部门持有的个人数据的原则(中译文)
  19. 主审Meta反垄断的法官支持针对TikTok、微信、Telegram的数据要求(外媒编译)
  20. 对《联合国网络犯罪公约最新草案》第三章的想法

通过技术增强对个人信息的保护的文章包括:

  1. “零信任”的App合规技术能力(DPO社群成员观点)

  2. Android 系统“照明弹”功能的技术及法律规制(DPO社群成员观点)

  3. AEPD和EDPS | “哈希函数简介——用于个人数据假名化技术”中译文(DPO社群出品)

  4. 印度电子和信息技术部发布《数据匿名化指南(草案)》

  5. 新加坡PDPA下基于特定主题的建议指南 :“匿名化”专章编译

  6. 第29条工作组 | 《关于匿名化技术的意见》中文全文翻译(DPO社群出品)

  7. 隐私计算能代表个人信息保护的方向吗?(DPO社群成员观点)

  8. 全局隐私控制(GPC)的若干法律和技术问题

关于保护网络和信息系统安全的相关文章包括:

  1. 以风险治理的思想统筹设计关键信息基础设施保护工作
  2. 中德两国在识别关键信息基础设施方面的一点比较
  3. 美国疫情防控中的关键基础设施的识别和认定(DPO社群出品)
  4. 美国《关于改善国家网络安全的行政命令》分析之一
  5. 美国《关于改善国家网络安全的行政命令》之五大“看点”
  6. 网络和信息系统安全 | 网络安全信息共享:为什么和怎么做
  7. 网络和信息系统安全 | 主体责任与综合共治 关键信息基础设施保护的新格局
  8. 网络和信息系统安全 | 美国通过"网络事件报告法"
  9. 在网络安全方面,拜登政府正变得更加积极主动(外媒编译)


关于个人数据和域外国家安全审查之间的关系:

  1. 个人数据在美欧外国投资审查中的角色初探(一)
  2. 个人数据在美欧外国投资审查中的角色初探(二)
  3. 个人数据与域外国家安全审查初探之三:从美国《确保ICT技术与服务供应链安全》 看
  4. 个人数据与域外国家安全审查初探(四):从美国《2019年安全与可信通信网络法案》看
  5. 个人数据与域外国家安全审查初探(五):禁止中国公司对StayNTouch的收购
  6. 个人数据与域外国家安全审查初探(六):《2019国家安全和个人数据保护法案》
  7. 个人数据与域外国家安全审查初探(七):美国众议院荒唐的决议草案
  8. 个人数据与域外国家安全审查初探(八):《2020安全的5G和未来通信》法案
  9. 个人数据与域外国家安全审查初探(九):澳大利亚《协助和访问法》
  10. 美国司法部狙击中国内幕(Inside DOJ's nationwide effort to take on China)
  11. 美国司法部“中国计划”的概况介绍
  12. 《国际紧急经济权力法》(IEEPA)的起源、演变和应用
  13. 个人数据与域外国家安全审查 | 美国安局对地理位置信息的建议(全文翻译)
  14. 拜登关注禁止中国获得美国数据的新方法(外媒编译)


围绕着TIKTOK和WECHAT的总统令,本公号发表了以下文章:

  1. 突发 | 特朗普签署关于TIKTOK和WECHAT的行政令

  2. 理解特朗普禁令中的Transactions

  3. 白宫决策内幕 | TIKTOK的命运是由一场"击倒、拖出"的椭圆形办公室争斗所形塑

  4. TikTok和甲骨文合作中的“可信技术提供商” | 微软和德国电信合作的模式

  5. TikTok和甲骨文合作中的“可信技术提供商” | 苹果和云上贵州合作模式

  6. 外媒编译 | TikTok 零点时间:最后一刻的交易

  7. TikTok和甲骨文合作中的“可信技术提供商” | 来自EPIC的质疑和两家公司的回复


地缘政治与跨国科技公司运营之间的互动影响:

  1. 地缘政治与跨国科技公司 | 欧盟对今日俄罗斯(RT)和Sputnik的封禁
  2. 地缘政治与跨国科技公司 | TikTok与甲骨文的交易将树立两个危险的先例
  3. 地缘政治与跨国科技公司 | 乌克兰战争考验科技巨头的力量 (外媒编译)
  4. 美国-欧盟贸易和技术委员会启动会联合声明:泄露版本(全文翻译)
  5. 地缘政治与跨国科技公司 | 美欧等和西方盟友将提出“互联网民主原则”的宣言(外媒编译)
  6. 地缘政治与跨国科技公司 | 以“道德”名义贴标签迫使企业站队,全球化企业还能保持中立吗
  7. 梅德韦杰夫被任命为确保俄罗斯“技术主权”的委员会的主任(外媒编译)
  8. 欧盟-印度贸易和技术委员会:正式宣布成立
  9. 美欧贸易技术委员会第二次声明(选译):人工智能和ICT安全
  10. 美欧贸易技术委员会第二次声明(选译):数据治理和技术平台、危机中的信息完整性
  11. 美欧贸易技术委员会第二次声明(选译):技术的滥用威胁安全与人权
  12. 德克萨斯项目:TikTok计划在美国继续运营的细节(外专观点)
  13. 美国投资者对中国人工智能领域的投资(外专报告)
  14. ikTok应对美国国家安全关注的内幕(外媒编译)
  15. 华为和中兴到Wechat和TikTok:域外对我国相关法律的误解和抹黑
  16. 欧盟委员会禁止其工作人员在官方设备上安装TikTok【外媒编译】
  17. 美欧政界密集推动TT禁令,再次抹黑我国相关法律
  18. 美两党参议员联合推出“Restrict法案”,直指中国ICT技术
  19. TikTok禁令可能仅仅是刚开始(外媒编译)


关于中美与国家安全相关的审查机制,本公号发布过以下文章:

  1. 美国电信行业涉及外国参与的安全审查(一):基本制度介绍

  2. 美国电信行业涉及外国参与的安全审查(二):国际性的第214节授权

  3. 美国电信行业涉及外国参与的安全审查(三):建立外国参与安全审查的行政令

  4. 美国电信行业涉及外国参与的安全审查(四):FCC对中国企业的陈述理由令

  5. 网络安全审查制度利刃出鞘

  6. 对《网络安全审查办法(征求意见稿)》的几点观察

  7. 网络安全审查制度吹响了向网络安全强国迈进的号角

  8. 我国网络安全审查制度走向前台

  9. 网络安全审查的中欧比较:以5G为例

  10. 网络安全审查 | 中国《网络安全审查办法》的逻辑和要旨:以5G安全为例

  11. ICTS安全审查 | 美国针对“信息和通信技术及服务”和“联网应用”安全审查的两个行政令

  12. ICTS安全审查 | 美国智库学者的分析和呼吁

  13. ICTS安全审查 | 美国商务部确保ICTS供应链安全实施规则(全文翻译)

  14. 与时俱进 筑牢国家安全的审查防线:对《网络安全审查办法》的认识和理解

  15. 美国考虑对其产业界对外国的投资建立新的审查制度(外媒编译)

  16. 《关于确保美国外国投资委员会有力地考虑不断变化的国家安全风险的行政命令》全文翻译

  17. 《美国国家安全审查制度:法律背景和比较》全文翻译

  18. 关于美光网络安全审查的一些理解和认识

  19. 再谈美光网络安全审查:审查不通过的后果


关于个人信息安全影响评估的文章如下:

  1. 中国个人信息保护立法 | 善用个人信息保护影响评估 灵活实现创新和个人保护的平衡
  2. 《个人信息安全影响评估指南》(GB/T 39335-2020)正式发布
  3. 第二期数据保护官沙龙纪实:个人信息安全影响评估指南
  4. 国家标准《个人信息安全影响评估指南》制定进展汇报
  5. 国家标准《个人信息安全影响评估》公开征求意见
  6. 个人信息安全影响评估有助于防范“年度账单”事件
  7. 英国ICO的Privacy Harm分类:国标39335的个人权益影响分类
  8. Cyber Harm的层次分解图
  9. PIA仅是一个合规评审吗?——工程思维与法律思维的碰撞


针对已公开数据的个人信息保护研究,本公号发表过以下文章

  1. 数据要素治理 | 领英和HiQ案件新进展:“已公开数据的爬取不违法”(外媒编译)
  2. 第四期数据保护官沙龙纪实:网络爬虫的法律规制
  3. 第四期数据保护官沙龙纪实之二:当爬虫遇上法律会有什么风险
  4. 数据爬取的法律风险综述(DPO社群成员观点)
  5. 关于数据抓取和隐私保护的联合声明(全文翻译)


关于我国《个人信息保护法》相关文章包括:

  1. 中国个人信息保护立法 | 《个人信息保护法(草案)》与GDPR的比较
  2. 中国个人信息保护立法 | 合同所必需:魔鬼在细节之中
  3. 对《常见类型移动互联网应用程序必要个人信息范围规定》的两点理解
  4. 对《常见类型移动互联网应用程序必要个人信息范围规定》的再理解
  5. 理解《数据安全法》《个人信息保护法》二审稿的实质性修改内容(一)
  6. 个保法解读之数据可携带权(DPO社群成员观点)
  7. 《个人信息保护法》与《个人信息安全规范》对照比较表
  8. 过度收集个人信息如何破解
  9. 中国个人信息保护立法 | 解析GDPR中的风险路径
  10. 中国个人信息保护立法 | 善用个人信息保护影响评估 灵活实现创新和个人保护的平衡
  11. 中国个人信息保护立法 | 《个人信息保护法》与GDPR 条文对比
  12. 中国个人信息保护立法 | 合规审计:英国ICO的指南(全文翻译)
  13. 个人信息保护 | 欧盟第29条工作组《关于网络行为广告的2/2010号意见》(全文翻译)
  14. 关于个人信息处理者用户规模的量级
  15. 新书推荐|《〈中华人民共和国个人信息保护法〉释义》
  16. 个人信息保护 | 中欧关于敏感个人信息类型的简单对比
  17. 个人信息保护 | 作为共同治理的个人信息保护认证
  18. 认真对待合规审计 为个人信息保护护航
  19. 深圳市企业数据合规指引


关于业务场景中数据跨境流动的文章如下:

  1. 构建数据跨境流动安全评估框架:实现发展与安全的平衡

  2. 构建数据跨境流动安全评估框架:实现发展与安全的平衡(二)

  3. 构建数据跨境流动安全评估框架:实现发展与安全的平衡(三)

  4. 构建数据跨境流动安全评估框架:实现发展与安全的平衡(四)

  5. TPP对跨境金融数据“另眼相看”?

  6. 马来西亚拟将我国认定为个人数据跨境流动“白名单”地区

  7. 美国ITIF关于数据跨境流动的研究报告简介

  8. Chatham House举办Cyber 2017大会,关注中国数据跨境流动

  9. 俄罗斯个人信息保护机构对隐私政策和数据跨境流动的新举措

  10. 看清APEC“跨境隐私保护规则”体系背后的政治和经济

  11. 敬请关注“闭门会-数据跨境流通”

  12. “闭门会:数据跨境流动政策分析” 总结

  13. 欧盟个人数据跨境流动机制进展更新(截止201810)

  14. 俄罗斯数据本地化和跨境流动条款解析

  15. 亚洲十四个国家和地区数据跨境制度报告中译本(DPO社群出品)

  16. 《个人信息和重要数据出境安全评估办法》实现了安全与发展的平衡

  17. 数据出境安全评估:保护我国基础性战略资源的重要一环

  18. 个人信息和重要数据出境安全评估之“境内运营”

  19. 《数据出境安全评估:保护我国基础性战略资源的重要一环》英文版

  20. 个人信息和重要数据出境安全评估之“向境外提供”

  21. 数据出境安全评估基本框架的构建

  22. 银行业金融数据出境的监管框架与脉络(DPO社群成员观点)

  23. 《网络安全法》中数据出境安全评估真的那么“另类”吗

  24. 解析《个人信息出境安全评估办法(征求意见稿)》实体保护规则背后的主要思路

  25. 《个人信息出境安全评估办法(征求意见稿)》解读:从中外比较的角度

  26. 数据跨境流动 | 澳大利亚政府提出新的数据本地化要求

  27. 数据跨境流动 | 美欧“隐私盾协议”被判无效背后的逻辑

  28. 数据跨境流动 | 欧盟EDPB对欧盟隐私盾协议被判无效的相关问答(全文翻译)

  29. “清洁网络计划”下的APEC跨境隐私保护(CBPR)体系

  30. 数据跨境流动 | 爱尔兰DPA即将禁止FACEBOOK的数据跨境传输

  31. 数据跨境流动 | 最新判决将显著影响英国与欧洲大陆之间的数据自由流动

  32. 数据跨境流动 | 爱尔兰高等法院暂时允许Facebook继续个人数据跨大西洋传输

  33. 数据跨境流动 | 中国公司基于SCCs开展数据跨境流动的基本策略

  34. 数据跨境流动 | 美国三位高官就Schrems II判决公开向欧盟喊话

  35. 数据跨境流动 | 欧盟EDPS官员敦促美国强化个人救济以达到“实质等同”

  36. 数据跨境流动 | 美国政府白皮书正式回应欧盟Schrems II判决

  37. 数据跨境流动 | EDPB关于标准合同条款之外的“补充措施”的指南终于问世

  38. 数据跨境流动 | EDPB提出“评估目的国法律环境”的指南(全文翻译)

  39. 数据跨境流动 | 微软率先提出对欧盟数据的专属“保护措施”

  40. 数据跨境流动 | 欧盟新版标准合同条款全文翻译

  41. 数据跨境流动 | EDPB和EDPS通过了关于新的SCCs的联合意见

  42. 数据跨境流动 | 东盟跨境数据流动示范合同条款(全文翻译)

  43. 数据跨境流动 | 东盟数据管理框架(全文翻译)

  44. 数据跨境流动 | 推进“一带一路”数据跨境流动的中国方案(专论)

  45. 数据跨境流动 | 欧盟新版标准合同条款(最终版)全文翻译

  46. 数据跨境流动 | 欧盟关于欧盟境内的控制者和处理者间标准合同条款(全文翻译 )

  47. 数据跨境流动 | EDPB关于标准合同条款之外的“补充措施”指南2.0版(全文翻译)

  48. 数据跨境流动 | 两张图解读EDBP“数据跨境转移补充措施的最终建议”

  49. 数据跨境流动 | 推进“一带一路”数据跨境流动的中国方案(英文本)

  50. 数据出境安全保障的中国路径

  51. 欧盟关于域外适用和数据跨境流动条款适用问题的指南(全文翻译)

  52. 土耳其和欧盟关于医疗器械数据跨境传输的行政协定

  53. 数据跨境流动 | 欧盟数国强化对谷歌分析Cookie跨境数据传输行为的审查

  54. 数据跨境流动 |  EDPB《关于行为守则作为数据跨境传输工具的04/2021号指南》简评(附征求意见前后对比中译本全文)

  55. 数据跨境流动 | 针对控制者的BCRs工作要点(中译文)

  56. 数据跨境流动 | 针对处理者的BCRs工作要点(中译文)

  57. 数据跨境流动 | 美欧就新的跨大西洋数据隐私框架达成原则性协议

  58. 数据跨境流动 | 美国发布“全球跨境隐私规则”宣言(全文翻译)

  59. 华盛顿向全球数据隐私发起攻势 (外媒编译)

  60. 数据跨境流动的规则碎片化及中国应对

  61. 无边界数据的时代正在结束(外媒编译)

  62. 美国《保护美国人数据免受外国监视法案》(中译本)

  63. 英国“数据:新方向”咨询结果|促进贸易和减少数据跨境传输壁垒(第三章)

  64. 俄罗斯修改个人数据跨境传输程序

  65. 白宫《关于加强美国信号情报活动保障措施的行政命令》全文翻译

  66. 《关于欧盟-美国数据隐私框架的充分性决定草案》发布

  67. 盟-美国数据隐私框架”充分性决定草案(全文中译本)


  68. 第108号公约-个人数据跨境转移示范合同条款(中译本)

  69. EDPB《关于GDPR第3条的适用与第五章的国际转移规定之间的相互作用的05/2021准则》2.0版本-中文翻译

  70. 爱尔兰DPC对Meta使用SCCs跨境传输数据的巨额处罚决定:分析和展望

  71. 欧盟委员会通过“欧盟-美国数据隐私框架”的充分性决定


关于我国数据跨境流动监管体制变革的系列文章:

  1. 认识《规范和促进数据跨境流动规定(征求意见稿)》——对必要性判断的设计
  2. 《规范和促进数据跨境流动规定(征求意见稿)》英文全文翻译
  3. 企业迎来数据跨境合规的窗口期——《规范和促进数据跨境流动规定(征求意见稿)》解读
  4. 洪延青:准确认识《规范和促进数据跨境流动规定(征求意见稿)》的重大转变
  5. 个人信息保护认证走向前台,“权责一致”压实地方安全责任——再评《规范和促进数据跨境流动规定(征求意见稿)》
  6. 从数据相关条款看《全面对接国际高标准经贸规则推进中国(上海)自由贸易试验区高水平制度型开放总体方案》


关于人工智能安全和监管,本公号发布过以下文章:
  1. 《英国ICO人工智能与数据保护指引》选译 | 如何评估AI的安全性和数据最小化?
  2. 英国ICO人工智能指导 | 数据分析工具包(全文翻译)
  3. 《英国ICO人工智能与数据保护指引》选译 | 如何保护人工智能系统中的个人权利?
  4. 人工智能 vs. 个人信息保护之“个人同意”
  5. 《以伦理为基础的设计:人工智能及自主系统以人类福祉为先的愿景(第一版)》
  6. AI监管 | EDPB和EDPS对欧盟AI条例的联合意见书(全文翻译)
  7. AI监管 | 对欧盟AI统一规则条例的详细分析
  8. AI监管 | 欧盟《AI统一规则条例(提案)》(全文翻译)
  9. AI监管 | 意大利因骑手算法歧视问题对两个食物配送公司处于高额罚款
  10. AI监管 | 用户数据用于AI模型训练场景的合规要点初探
  11. 我国信息服务算法推荐管理 | 与个人信息保护的耦合和差异
  12. 我国信息服务算法推荐管理 | 条文背后的技术逻辑“想象”
  13. 我国信息服务算法推荐管理 | 分类分级管理
  14. 我国信息服务算法推荐管理 | 合规的基础性工作:技术说明
  15. 中国个人信息保护中的自动化决策监管初探:基于与GDPR的比较
  16. AI监管 | 全球人工智能的协调实际上是可以实现的吗?(外媒编译)
  17. 《基于个人信息的自动化决策安全要求》标准制定项目的立项汇报
  18. AI监管 | 美国各州和地方开始以零敲碎打的方式推进AI监管(外媒编译)
  19. 欧盟《AI统一规则条例》立法进展(截止20220430)
  20. 美国NIST《可解释的人工智能的四个原则》(全文翻译)
  21. 美国NIST《人工智能风险管理框架》初稿-中译文
  22. 英国《有效的人工智能保障生态系统路线图》(中译文)
  23. 美国对欧盟即将出台的人工智能规则的非官方立场
  24. GDPR 项下的自动化决策:法院和数据保护机构的实际案例【全文翻译】
  25. 机器学习安全的基本概念(读书笔记之一)
  26. 机器学习的稳健性和对抗性例子(读书笔记之二)
  27. 机器学习中的可解释性(读书笔记三)
  28. 推荐系统中的公平与影响因素
  29. 搜索引擎引导使用算法的合规要点分析
  30. 机器学习中的规范问题(读书笔记之四)
  31. 算法透明度推进中需注重分类透明满足不同对象预期及降低透明风险
  32. 美欧贸易和技术委员会关于可信赖AI和风险管理的评价和测量工具联合路线图(全文翻译)
  33. 美国《人工智能权利法案蓝图》全文翻译
  34. 欧盟的人工智能法案正朝着不存在的人工智能标准方向发展(外专观点)
  35. 审计算法:现有格局、 监管机构的作用和未来展望(全文翻译)
  36. 欧洲新近执法中对算法的描述(DPO社群成员观点)
  37. NIST《人工智能风险管理框架》全文翻译
  38. 基于立法过程解析欧盟《人工智能法案》
  39. 欧盟人工智能立法过程中的折衷与争论:选译
  40. 荐算法中引导正能量和破解信息茧房的路径探讨
  41. 《基于个人信息的自动化决策安全要求》国标制定工作会议(23年4月)
  42. 美国数个监管机关“关于对自动化系统中的歧视和偏见进行执法行动的联合声明”(全文翻译)
  43. 调和美国对人工智能的路径【外专观点翻译】
  44. 欧盟立法者支持生成性人工智能的透明度和安全规则【外媒编译】
  45. 欧洲议会关于欧盟《AI法案》的折衷案文(中文全文翻译)
  46. 挪威DPA关于在Ruter参与AI监管沙盒的最终报告
  47. 欧盟《人工智能法案》立法过程中成员国间的意见分歧(选译)
  48. 欧洲议会和欧盟委员会关于缺陷产品责任的指令的建议(选译)
  49. 欧盟《AI条例》的立法进展和现有三个版本重点内容比较(截止2023年7月)
  50. 欧盟《人工智能法案》谈判:回顾与前瞻
  51. 英国间谍机构希望放宽对AI数据使用的“繁重”法律(外媒编译)
  52. OECD推进人工智能的可问责原则(摘译)
  53. 推荐系统工作原理简介(学习笔记)
  54. 美召开听证会讨论《人工智能两党立法框架》:从柔性治理迈向硬监管思路日益明朗
  55. 解析《基于个人信息的自动化决策安全要求》逻辑——特征工程简介
  56. 23家国际安全机构联合发布《安全的AI系统开发指南》(全文翻译)

关于数据要素治理的文章有:
  1. 《非个人数据在欧盟境内自由流动框架条例》全文中文翻译(DPO沙龙出品)
  2. 简析欧盟《数字市场法》关于数据方面的规定
  3. 数据流通障碍初探——以四个场景为例
  4. 对“数据共享合法化”的分析与思考系列之一:以《关于欧洲企业间数据共享的研究》为起点
  5. 对“数据共享合法化”的分析与思考 系列之二 ——欧盟B2B数据共享的案例研究
  6. 对“数据共享合法化”的分析与思考 系列之三 ——更好的保护才能更好的共享
  7. 用户授权第三方获取自己在平台的数据,可以吗?不可以吗?(DPO沙龙线上讨论第三期)
  8. 数据爬取的法律风险综述(DPO社群成员观点)
  9. 第29条工作组《数据可携权指南》全文翻译(DPO沙龙出品)
  10. 澳《消费者数据权利法案》对数据共享与数据可携权的探索(DPO社群成员观点)
  11. 欧盟“技术主权”进展 | 欧洲共同数据空间治理立法框架
  12. 数据要素治理 | 欧盟《数据法》初始影响评估(全文翻译)
  13. 数据要素治理 | 应该在欧盟引入数据生产者权利吗?(上)
  14. 数据要素治理 | 应该在欧盟引入数据生产者权利吗?(下)
  15. 数据要素治理 | 数据所有权:问题盘点与总结(上)
  16. 数据要素治理 | 数据所有权:问题盘点与总结(下)
  17. 数据要素治理 | 没有人拥有数据(上)
  18. 数据要素治理 | 没有人拥有数据(下)
  19. 数据要素治理 |  当讨论数据所有权时,我们到底在讨论什么?
  20. 数据要素治理 |  政策制定者应密切关注数据治理(上)
  21. 数据要素治理 | 政策制定者应密切关注数据治理(下)
  22. 数据要素治理 | 欧盟《数据法》草案中译本
  23. 作为经济政策的数据治理:中国、欧盟和印度的发展(附报告全文)
  24. 数据要素治理 | 领英和HiQ案件新进展:“已公开数据的爬取不违法”(外媒编译)
  25. 数据要素治理 | 如何解锁制造业数据的价值?
  26. 印度“国家数据治理框架政策”(中译文)
  27. 印度撤回《个人数据保护法(草案)》
  28. EDPB - EDPS对Data Act的联合意见(全文翻译)
  29. 数据要素治理 | 企业角度的数据保护问题:欧盟法律现状
  30. 中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见
  31. 2022年全球数据治理观察年度报告
  32. 爱沙尼亚:建立世界上第一个数据大使馆
  33. 解锁数据孤岛:《数据法案》启示下三重授权原则的再审视与数据要素价值化的新思路
  34. 隐私计算:数据要素法律规则构建的“基础设施”

关于AI与标准化工作,本公号发表的文章:
  1. 关于生成式AI安全标准化需求的两点想法
  2. 欧盟AI法案中的标准化需求和制定流程简述
  3. 23家国际安全机构联合发布《安全的AI系统开发指南》(全文翻译)
  4. 美国NIST发布《对抗性机器学习:攻击与缓解的分类和术语》


关于LLMs(大型语言模型)的风险和监管,本公号发布过以下文章:
  1. ChatGPT是网络上的一个模糊的JPEG文件(外专观点)
  2. ChatGPT是如何劫持民主进程(外专观点)
  3. ChatGPT:欧洲禁止Replika "虚拟伴侣"聊天机器人应用(外媒编译)
  4. ChatGPT背后的核心技术【好文转载】
  5. 基辛格、施密特等:ChatGPT预示着一场智力革命(外媒编译)
  6. OpenAI数据处理协议-全文翻译
  7. 欧盟《人工智能法案》如何监管GPT模型:选译
  8. 《GPT-4 :通用人工智能的火花》论文内容精选与翻译(好文转载)
  9. 马斯克等人联名签署:《暂停巨型人工智能实验:一封公开信》
  10. GPT工作原理:面向政策制定和法律规制的介绍【学习笔记】
  11. ChatGPT现阶段常见失误汇总分析【学习笔记】
  12. OpenAI的红队:被雇来 "破解 "ChatGPT的专家们(外媒编译)
  13. 指导欧盟“AI法案”中“通用人工智能”监管的五大考量(全文翻译)
  14. PAI《合成媒体的负责任实践》(全文翻译)
  15. 欧盟《人工智能法案》如何监管GPT模型:立法提案的迭代
  16. GPT与训练数据:个人信息保护和数据训练收费(外媒编译)
  17. 欧盟议会《AI法案》立场的最后时刻修正:选译
  18. 我国生成式AI新规的认识和理解之一:和深度合成规则的主要异同
  19. 我国生成式AI新规的认识和理解之二:监管必要性的分析
  20. 我国生成式AI新规的认识和理解之三:生成式AI的技术特性
  21. 我国生成式AI新规的认识和理解之四:生成式AI的产业链和责任安排
  22. 我国生成式AI新规的认识和理解之五:中欧监管逻辑比较
  23. 我国生成式AI新规的认识和理解之六:打开AI黑盒的主要监管工具
  24. 我国生成式AI新规的认识和理解之七:美国FTC的态度和观点(选译)
  25. 我国生成式AI新规的认识和理解之八:美国白宫发布AI负责任创新举措
  26. 我国生成式AI新规的认识和理解之九:OpenAI对个人查询权的响应
  27. 我国生成式AI新规的认识和理解之十:域外产品或服务的相关条款和文件之要点解析
  28. 我国生成式AI新规的认识和理解之十一:与个人信息保护的关系初探
  29. 我国生成式AI新规的认识和理解之十二:超级人工智能的治理
  30. 我国生成式AI新规的认识和理解之十三:立法的中美欧比较
  31. 简评七部门联合发布的《生成式人工智能服务管理暂行办法》
  32. 研究人员戳穿了 ChatGPT 和其他聊天机器人安全控制的漏洞(外媒编译)
  33. 最大限度地发挥生成式人工智能对数字经济的益处(英国四大监管机构的立场)
  34. OpenAI安全措施被越过 ChatGPT被“诱导”提供违法信息
  35. 通用人工智能供应链中的风险与合理分配
  36. 《生成式人工智能服务管理暂行办法》部分安全要求的建议合规要点
  37. 中美欧大语言模型信息披露要求的比较
  38. AI法案:在更广泛的妥协中,欧盟国家开始对基础模型采取分层方法
  39. 支持西班牙主席国为基础模型建立的风险管理方法的公开信(全文翻译)
  40. 美国作家协会起诉OpenAI版权侵权案解读
  41. 报告:控制大语言模型的输出(中文全译文)
  42. 为人工智能的“幻觉”辩护(外媒编译)
  43. 为了保护科学,必须以零样本翻译的方式使用大语言模型(外专观点)
继续滑动看下一个
网安寻路人
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存