查看原文
其他

【前沿】监管人工智能系统:风险、挑战、能力和策略

2017-12-12 监管与合规

Source article:
 


Scherer, M. U. (2015). Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, Vol. 29, No. 2, Spring 2016, 353-400.


🌹🌹免费分享:需要英文全文的朋友,请在本公众号回复“1”!


转载须明确本文发表于“监管与合规”微信公众平台。

前沿栏目·第一季第18篇(总第68篇);


《监管人工智能:风险与监管策略前瞻》一文发表于《Harvard Journal of Law & Technology》2016年第2期,第29卷。作者是Buchanan Angeli Altschul & Sullivan LLP律师事务所的律师Matthew U. Scherer。本文通过对《Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies》一文的梳理和导读,旨在为学界和监管者提供关于人工智能风险与监管策略的前瞻性启发。



刚刚兴起的人工智能还处在一个监管真空之中。除了仅仅几个州对无人驾驶汽车和无人机的立法外,几乎没有针对人工智能的专门的监管法律与机构,法院事实上也没有针对人工智能造成损害案件的裁判标准。同样地,对于人工智能监管途径的法律研究也是匮乏的。此外,也没有任何研究通过对政府各个不同机构的能力的考察,找出哪个机构最能够担负起应对人工智能挑战的责任。传统的监管方式,如产品许可制度、研究与开发监管、产品侵权责任,都十分不适用于管理自主智能机器所带来的风险。事前的监管措施亦不可行,因为人工智能的开发与研究可能是非常秘密的(只需要占据非常少的基础设施)、不连续的(人工智能系统需要的部件可能并不需要有意的合作就能够被制造出来)、零散分布的(人工智能的研究计划可以由地理位置相距甚远的几个小组共同完成),以及不透明的(外部人员很难发现人工智能系统中潜在的危险)。人工智能的自动化特征造成了风险预见和管理上的困难,尤其是在人工智能系统带来灾难性风险的情况下,使得事后监管措施变得无效。而且在任何阶段,监管都面临的困难,是准确定义人工智能的概念。


该文进一步深化对于政府监管人工智能的可行性与误区的讨论,并通过讨论这些问题进而解释为什么在这种困境之下,依然有可能找到政府监管人工智能的可行路径。


第一部分探讨了人工智能的本质特征及其呈现出的监管挑战。一些是概念性的挑战,例如,如何准确定义人工智能以及在其造成伤害的情况下如何分配道德和法律责任。还有一些非常实际的挑战,包括:控制自动化机器行为的内在困难,这可能让事后监管措施变得无效;人工智能系统行为的不可预见性;人工智能开发中的秘密性与分散性,这让事前监管变得无能无力。尽管面临着这些挑战,法律系统的庞大的监管工具包,以及人工智能开发中大公司分量的加重,意味着人工智能的有效监管不无可能。


第二部分分析了美国政府三个最主要实体,即立法机关、行政机关以及法院在监管人工智能中各自的能力范围。民主正当性与代表自由让立法机关享有立法权限,为人工智能的监管建立指导方针。政府应该有权决定法律的内容,因为其相对独立,并且有能力应对特殊化、专业化的科技行业。最后,法院应当在人工智能系统造成伤害的情况下分配各方的责任。


第三部分提议在不同的责任分担体系之下,建立人工智能的监管框架。而这个监管框架的核心就是人工智能的授权审批系统:经过审批的人工智能的生产者和使用者将会承担有限的侵权责任,而没有经过审批的人工智能系统就将承担严格的责任。立法、行政(特别是一个专注于人工智能的行政机构)以及司法的各自功能都将其限制在其各自的能力范围,致力于对诸如人工智能这样的新兴科技的监管。


结论


本文提出的依托侵权法系统的监管路径,是一个中间路线,它并没有像一个严格的监管机构一样,禁止所有的未经审批认证的人工智能产品的生产,但是它同时给人工智能的开发者为强化人工智能产品的安全属性和消化其外部成本提供了激励措施。通过侵权责任的杠杆,将人工智能系统的外部性安全成本内部化,保证市场上的人工智能产品的售价合理反映出它们所带来的危险。而对于未经审核批准的人工智能系统可以连带责任和严格责任,鼓励人工智能系统的销售商、零售商以及使用者,认真检查未经审核批准的人工智能系统的安全性,同时,随意更改人工智能系统可能失去有限责任的保护,确保下游的销售商不会随意更改人工智能系统,除非他们有足够的信心保证这样的更改不会带来大的公共危险。

《人工智能发展法》不是一个最终的提案,这个提案只是为了让公众对人工智能监管开展对话交流。约翰•麦金尼斯(John McGinnis)提出,建立一个不具有干涉主义色彩的旨在支持人工智能安全研究的政府机构,同时对于无视这些安全研究结果的人工智能的开发者适用严格的侵权责任。如果人工智能的行为与人工智能的安全有着很强的关联性,那么支持这些人工智能的安全研究可能会对发展更加安全的人工智能大有裨益。而一个非常强势严厉的监管制度,更像美国食品药品管理局关于药物的审批制度,即一项药物不能在缺少许可的情况下上市销售,而获得许可则需要经过多重阶段的严格的安全测试。如果人工智能真的能够带来灾难性的风险,那么这样严格的监管措施是十分必要的。


一个更加以市场为导向的监管途径,是人工智能的生产者和使用者为他们的人工智能系统购买保险,这样让市场来决定人工智能系统可能带来的损害风险。有人提出观点认为,应该通过法律拟制,让人工智能系统不仅能够拥有财产而且可以作为法庭中的被告。这样,人工智能系统就将被视为独立的法律实体,它们的所有者和使用者都不会为其造成的损害承担非故意的侵权责任,除非这个人工智能系统出资不足或者法院因发现了其他的原因而需要“刺破人工智能的面纱”。还有人提出一种解决框架认为,应该对人工智能系统适用最低工资,以确保它能够支付其造成的可预见的损害赔偿金。最终,可能立法机关会通过“人工智能阳光法案”,要求人工智能的设计者和运行者公开其人工智能系统的代码和技术参数,有赖于公众成员去关注和指出人工智能的哪些方面可能会造成公共危险,类似于维基百科网站允许公共成员对其词条进行修改一样。


关于这些解决途径的呼声,将会随着人工智能的进一步发展以及个人所能感受到的其带来的风险与收益,而有所不同。那些像埃隆•马斯克一样,相信人工智能会给人类带来灾难性的生存威胁的人,可能会支持对人工智能采取最严格的政府监管。而那些认为人工智能所带来的风险是可控的,并且并不存在对人类造成的生存危机,可能会反对任何对人工智能的政府监管,或者只赞同有限制的政府监管。不管怎样,我们步入了一个依靠自动化与学习机器去完成不断增长的任务的时代。在某种程度上,当这些机器造成损害是,法律需要决定该怎么做,同时需要考虑直接监管是否可以作为减少此类损害的令人满意的方式。这提醒我们需要及早考量人工智能监管所带来的优点与不足。


Source article:
 


Scherer, M. U. (2015). Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, Vol. 29, No. 2, Spring 2016, 353-400.


🌹🌹免费分享:需要英文全文的朋友,请在本公众号回复“1”!


- END -

请扫描下面二维码,赶紧关注我们吧!


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存