数据政治丨数字化治理:人工智能的立法困境

作者:刘志毅 2020-11-20 17:26

无论是国内还是跨国的人工智能领域企业,尤其是占据市场支配地位的科技巨头,更愿意用道德原则去规范和指引行为而非直接诉诸于法律手段,来为科技创新获得更大的自由度

人工智能时代已然来临,诸如人脸识别、无人驾驶、智能机器人越来越受到人们的青睐。人们一方面享受着人工智能所带来的便利,一方面对人工智能技术的滥用产生了担忧,比如个人信息隐私保护等等。11月19日是《个人信息保护法(草案)》公开征求意见截止日期,而这也是国内首部专门规定个人信息保护的法律。

其实,针对数字经济的立法趋势在全球都开始显现。10月末,欧洲议会通过了有关欧盟如何更好地监管人工智能的三份立法倡议报告,以促进创新、道德标准和技术信任。欧盟委员会预计到2021年初会形成关于AI立法的提案。

如何看待人工智能的立法问题,未来的方向又是什么?刘志毅认为,法律规则必须适应创新否则就会无效或者产生不良后果,另一方面法律系统必须有一定的预见性,否则当深度学习这样的算法广泛使用时,将会产生预期外甚至不可逆的结果。

——编者

刘志毅/文 以深度学习为代表的人工智能技术在这一轮信息技术浪潮中逐渐占据了主导地位后,一方面带来了不同产业的智能化转型的应用场景落地,一方面也带来了诸多挑战与风险,其中一点就是在法律制订与应用层面的风险。鉴于人工智能技术应用中的普遍性,如果只是单维度的考虑其影响(比如就人工智能技术算法对法律的影响),将有失偏颇,因此我们采取一种更加宏观的视角去理解这个问题。我们不仅讨论使用人工智能技术如何产生作用的场景,同时也会讨论人工智能技术作为复杂的系统化技术对使用者和第三方的影响和风险,对人工智能法律和道德之间的关系进行初步的讨论以及提供理解的基本框架。

法律的框架

首先我们需要明确一个问题,人工智能技术所带来的影响可能涉及社会、经济以及伦理领域,而我们是否需要制定一个法律框架来促进个人与公共的利益在人工智能技术的发展中能够被正确引导呢?虽然我们可以看到非数字化的法律法规(民法、刑法、公法或者其他规范和标准),但是数字化世界里的挑战是复杂和多元的,单纯的引用非数字化世界的法律可能并不能满足相应场景的需求。

另一方面,如果新的人工智能相关的法律出来,如何应该将它放在法律体系的整体框架内?我们知道单个领域的法律规范系统是会与整个法律系统相联系的,会通过一定的规制和方式嵌入复杂的法律架构之中,而不同的法律是需要不同的资源去支撑的,也需要在不同的社会组织中进行复杂的协作,这是我们理解人工智能技术立法的第一个视角。

其次,我们可以看到法律实际上是治理模式的一部分,对于人工智能的立法问题来说,如何看待它的治理模式。它的治理模式包括市场、竞争、网络、合同和数字化控制等多个方面,这些方面的结构和范式其实就是各个国家推动人工智能政策和法律的基本元素,也是我们研究数字化治理的基本逻辑。

著名学者卢西亚诺.弗洛里迪曾经在他的专著中提到,“数字化治理是建立和实践适当开放、使用和管理信息圈的政策、程序和标准的实践,这也是一个惯例和良好协作的问题,有时既谈不上道德与否,亦谈不上合法与否。”因此,通常数字化治理的基本出发点就是“善治”,即通过算法进行治理来保证符合道德要求以及合规性,而依据这方面的研究,就得到了关于AI伦理的一系列原则。采纳这样的方式的原因是因为法律和道德之间深刻的相互作用,即法律具备道德基础,而道德与原则又通过法律来自我塑造,保持了一定的弹性空间。

现实的障碍

事实上,善治并不是单独产生的,它包括法律、伦理、道德等一系列的内容,因此我们需要提供一系列治理的框架来指导其实施逻辑,也就是说通常非数字化领域通过法律为主体的治理方式,到了数字化空间则需要多管齐下的去治理,这其中包括以下内容:

第一,数字化空间面临着公法和司法底层关系和结构的挑战,一方面原因是生态型的服务厂商正在创造和指引相应的规范,比如国外的谷歌、脸书、苹果等企业,这些规范来自于其企业创新实践,同时也来自于它在各国所面临的司法挑战。我们看到这些私营部门的强大正在改变很多商业的规则,但是它并不能改变国家有责任保护个人和公共利益的事实。这就创造了一种错位的空间,即私营部门在追求利益方面的不受限制以及其在承担公共利益上的义务的不对称性。于此同时,国家则集中精力推动私人单位追求公共利益,从而使得社会能够承担更大的责任同时也不会放松对其的治理。因此,需要建立起一种公共和私营部门的合作框架和机制,在欧洲强调一种“保障性国家”或“赋权型国家”机制,也正是随着数字化空间的兴起被重视起来。换言之,数字化空间是有私营部门创造出来的,赋权型国家的任务就是保护数字空间中的个人和公共利益,而法律则是其使用的重要治理手段。换言之,因为数字空间的基础很大程度上是由私营机构所建构的,因此国家则需要通过建立适当的架构和规范来为其发展划定必要的边界,指引合适的方向以及提供必要的基础设施支持(这也是新基建之所以重要的原因之一)。

第二,由于数字空间发展的创新性,因此判例成为重要的法律手段。例如德国作为大陆法系的重要国家,也将判例作为重要的隐私保护和数据安全的方式。例如2016年的一起案件中,德国联邦宪法法院裁定,对信息技术系统的保护不仅涵盖个人使用的技术及,还包括计算机之间的联网,例如在公有云上存储的数据,因此与之相关的人工智能运营也可能落入基本权利保护的范畴。为了实现在《德国基本法》上所提及的国家有义务避免对个人权利施加限制及保障个人免受他人的侵害,德国提供了数据保护法及信息技术安全法来处理人工智能相关的问题。

我们看到通过判例的方式不仅体现了法律在相关领域的创新,也体现了提供系统性保护的思路。所谓的系统性的保护并不是信息系统的保护,而是通过相关的技术以构建技术系统,独立地维护受保护的利益,尤其是第三方的利益。例如欧盟《通用数据保护条例》中的第25条中明确规定的通过设计与默认设置的方式来进行数据保护。通过这样的设计思路不仅仅能够在数据层面保护使用者的权利和安全,同时也能够保护数据隐私等权利。换言之,法律是要通过技术的方式进行算法规制,从而确保或者促进基本法律原则及作为补充的基本道德原则的有效性。

第三,人工智能领域的法律是有其现实障碍的,限于篇幅,我们主要讨论其中三个主要的风险:首先,是由于科技创新的快速迭代,以及相关商业模式发展带来的开放性问题。由于知识匮乏和发展的不确定相关,法律措施可能无法适应技术的创新。

一方面,法律规则必须适应创新否则就会无效或者产生不良后果,另一方面法律系统必须有一定的预见性,否则当深度学习这样的算法广泛使用时,将会产生预期外甚至不可逆的结果。例如我们看到人体与芯片相结合的技术方案越来越受到关注,而这就会造成人体和技术之间的界限越来越模糊,技术的攻击的危害也从技术终端扩展到人体本身的完整性;

第二,人工智能领域的技术通常是全球性的,由于不同国家法律体系以及法律法规各不相同,成为了阻碍法律实施以及商业模式落地的重要挑战。由于人工智能技术发展过程中硬件和软件的边界逐渐模糊,线上空间和线下空间逐渐融合,则需要法律能够对跨界的人工智能应用场景进行规范,甚至对各个专门领域中的人工智能使用进行规范。

第三,人工智能的技术通常是集中且不透明的,这会使得法律实施及其结果变得很困难。在国外,强大的信息技术企业正在通过自己的方式让自己的服务和产出变得不受监管,即使有了反垄断法的存在其实质性影响也是相当有限的,覆盖全球信息技术和人工智能领域的反垄断法并不存在。与此同时,人工智能技术的涉密性和安全性也使得其不太透明,产生一定的黑箱特性。随着算法的知识产权保护越来越受重视,很有可能扩张了其技术的不透明性。我们之前讨论过,人工智能相关法律的重要目标是防止个人与公共的相关利益受到损害,例如保护隐私、免收操作、公平获取信息及防治算法歧视等,而现有的法律框架在面临这些挑战时缺乏实践性的效果。

以上就是我们对人工智能对法律制订与应用带来的挑战与风险的初步讨论,我们可以看到人工智能领域的法律和道德伦理要求是紧密相关的,这其中的关键在于明确在多大程度上保护措施仅基于道德标准,还是要考虑通过约束性的规则进行规范即可。除此之外,我们看到了人工智能技术在实施上的困难,尤其是在跨国法律框架下所收到的挑战。

可以看到,无论是国内还是跨国的人工智能领域企业,尤其是占据市场支配地位的科技巨头,更愿意用道德原则去规范和指引行为而非直接诉诸于法律手段,来为科技创新获得更大的自由度,而我们也需要认识到。鉴于数字化空间普遍存在的风险,以及全球越来越重视人工智能领域的规则制定,人工智能领域的立法将成为不可避免的趋势。

(作者系数字经济学家、商汤智能产业研究院主任)

版权声明:以上内容为《经济观察报》社原创作品,版权归《经济观察报》社所有。未经《经济观察报》社授权,严禁转载或镜像,否则将依法追究相关行为主体的法律责任。版权合作请致电:【010-60910566-1260】。

相关热门新闻

请点击添加到主屏幕