杨立新:民事责任在人工智能发展风险管控中的作用

杨立新:民事责任在人工智能发展风险管控中的作用

时代公共法律服务研究院 内地男星 2019-02-27 09:53:56 508

点击上方“蓝色字”,关注我们,免费订阅!


主管:成都市司法局    指导:成都市法学会

汇聚中国法治精英优秀思想理念,提供法学研究专业成果,促进法治建设,培育法治信仰,弘扬法治精神。

欢迎订阅 欢迎投稿 欢迎合作

Welcome to subscribe, contribute and cooperate

预计阅读时间3分钟...

 

   内容提要:人工智能的迅猛发展既给人们带来了生活、生产便利,也给人们带来现实风险和可能风险,民法应当在管控人工智能发展风险中发挥作用。基于民法人与物二分传统格局和人工智能产品是物的法理基础,民事责任对人工智能的现实风险和可能风险能够发挥重要的管控作用。首先应当区分人工智能产品致人损害,发生的是人的责任还是物的责任,根据其性质认定民事责任主体,确定民事责任的归属。其次,对现实风险而言,适用民事责任的具体规则,因人工智能产品缺陷所致损害适用物的责任,因人的过失操作所致损害适用人的责任。再次,对可能风险而言,适用民事责任的一般规范,通过限制人工智能的无序发展以及禁止技术滥用规则进行事先防控,防止人工智能发展出现危害人类的后果。


关键词:人工智能;现实风险;可能风险;管控;民事责任


 近年来,人工智能的迅猛发展已经远远超出了人们的预期,出现了从未预料的新情况。在这些新情况中,存在人工智能的进一步发展,是否能够发生影响人类生存和发展安全的现实和可能的风险。对人工智能技术发展风险的担忧并非是“杞人忧天”,而是具有一定的现实性和客观性。对此,必须充分发挥法律的作用,对人工智能发展风险进行管控,规范人工智能发展的路径和方向,保证其朝着有利于人类生存和发展的方向发展。在这其中,民事责任将发挥重大的、不可替代的作用。


 一、人工智能技术发展已经存在和可能发生的风险


 人工智能分为三个层次,即作为工具的弱人工智能、具有自主意识类似于人的强人工智能、超越人类的超人工智能。当代社会已经进入了人工智能时代,从智能机器人、智慧家居弱人工智能,到无人驾驶、无人工厂等强人工智能,人工智能技术已被应用到社会生活和生产领域,改变我们的生活。人工智能在给社会带来巨大便利,提高人们生活水平的同时,也会侵犯个人信息和隐私权,造成其他的社会风险,甚至危害人类的生存与发展。例如,有人正在研制人工智能的杀人机器人,被追杀的人几乎无法进行预防和抵抗,进一步发展,将会是人类毁灭性的噩梦。[1]因此,国务院《新一代人工智能发展规划》强调指出:“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”[2]总之,人工智能技术虽肇始于人类智慧的发明创造,但是其风险也来源于人类的管控不足与无法管控。一方面,人类受到现阶段科技水平的制约,容易管控不足;另一方面,随着人工智能远超人类的智慧水平,人类将无法管控。鉴于此,人工智能技术发展存在现实风险与可能风险。对于这些存在的风险,应当纳入民法规范的轨道。


 (一)人类对人工智能技术发展管控不足


 现阶段人工智能面临着技术和制度方面的风险,主要是安全保障技术的不完善、高密度的关联风险增加、安全责任归责问题、技术标准不统一,与网络安全监管不匹配等方面。[3]笔者认为,只要管控不足,或引导不当,人工智能就会超出人类控制范围。若任由人工智能盲目发展,最终形成不可控的技术风险,必将损害人类的根本利益。


 人工智能发展形成不可控风险的主要原因,是受现有技术发展水平的制约。人工智能技术自身具有许多不确定性和复杂性, 而技术的不确定性是由于人工智能的自主性越来越强,“自主”就意味着人类对其“失控”。受样本空间大小的限制,人类的经验认知具有局限性,大数据科学的发展和机器学习能力的提升,可能会突破人类认知的局限,因此人工智能把技术失控推向了一个新高度。[4]


 不仅如此,人类自己并非是都能约束自己行为的整体,而是表现为各个有独立意志的个体,每一个具有独立意志的人都有选择自己行为的能力,当研究人员背离研究宗旨,脱离人伦、道德、法律的约束,无序发展,或者恶意而为,利用机器学习的能力,创造出能够毁损人类生存和发展的人工智能技术,最终损害人类自己的利益。目前出现的违法编辑人类基因的高科技研究行为,就是最好的例证。[5]


 (二)人类将无法管控人工智能技术发展


  人类的能力是有限的,受历史条件的制约;人工智能的能力是无限的。对于“人工智能是否能超过人类的智慧水平”这一问题,部分学者持否定意见。其主要论据在于机器是人造的,其性能完全是由设计者规定的。因此,无论如何其能力也不会超过设计者本人。诚然,对于不具备学习能力的机器而言,这种意见是正确的。对具备学习能力的机器而言,仍值得商榷。


  学习是人类独有的智能行为,是人区别于动物的主要标识。但是,人工智能的核心技术就是机器学习的功能。机器学习是人工智能的科学,其主要研究对象是计算机如何在经验学习中改善具体算法,通过经验自动改进计算机算法的研究,使用数据或以往的经验,优化计算机程序的性能标准。机器学习是研究如何使用机器来模拟人类学习活动的科学,是研究机器获取新知识和新技能,并识别现有知识的学问。


  就现在的发展趋势而言,具备机器学习功能的人工智能在应用中会不断地提高自身能力,设计者本人也无法知晓它的能力能够达到何种水平。因此,人工智能发展将会远远超过人类智慧的水平。AlphaGo Zero打败世界围棋冠军的事实足以让我们知道,人工智能产品可以突破人类智慧的极限。在这种情况下,社会生活的秩序将会被人工智能所打破。人工智能的发展具有无限的广泛性和不可预知性。当人工智能发展超出人类智慧水平时,人类将难以控制人工智能发展的风险。如何面临这种尴尬的局面,就需要我们正确设计人工智能技术发展风险防控的法律安排。


 (三)人工智能技术发展中的风险


  人工智能技术始终在发展,这样的发展速度和后果,已经引起人类社会颠覆性的改变。这既令人欣喜,也令人担忧。


 作为影响面特别广泛的颠覆性技术,目前的影响主要在三个方面:一是改变就业结构,办公机器人的应用,将会影响数十人甚至数百人的就业问题;[6]二是冲击法律与社会伦理,例如将人工智能机器人登记为公民而混淆人与物的界限、提供性爱机器人解决人的性需求;[7]三是侵犯个人隐私,人工智能几乎无孔不入的能力,使个人隐私和个人信息极容易被暴露。[8]因人工智能的应用而产生的这些问题,将对人的权利保护、政府管理、经济安全和社会稳定产生严重影响。


 可以预见的是,人工智能在更远的未来将会远远超过人类的智慧,使人类的智慧所无法比拟。但若是人工智能的发展陷入无序化状态,必定会给社会带来无可估量的风险。


 人工智能技术发展始终存在着的巨大风险,既包括现实风险,也包括可能风险。现实风险是人工智能技术的应用所带来的侵害隐私、个人信息等侵害人的权利的已经发生或者正在发生的风险。可能风险是人工智能技术发展尚未发生,但是可能存在并且有可能发生的破坏伦理、威胁人类生存和发展安全的风险。换言之,现实风险是人工智能已经存在的一般风险,而可能风险是人工智能将来可能发生的重大风险。对于人工智能发展中存在的这些风险, 必须纳入法律特别是民法规范的轨道,接受民事责任的规制。


 二、民法在管控人工智能发展风险的基本作用


 私法调整市民社会的所有民事法律关系。面对人工智能发展存在的风险,民法必须发挥其调整作用,将现实风险和可能风险进行民法的管控。例如,救济人工智能技术在实际应用中造成的损害,确认人工智能产品的法律地位。此外,“人工智能代理”、隐私和数据保护问题等都给民法提出了新的挑战。因此,不论是在事前预防或者事后救济方面,民法必须充分发挥在管控人工智能发展风险中的基础性作用。


 (一)民法事前预防人工智能发展风险


 在风险社会背景下,民法能够发挥其预防功能。一方面,对于不影响人类生存根本利益的人工智能,通过限制无序发展进行一般性预防;另一方面,对于影响人类生存根本利益的人工智能,通过禁止技术滥用进行特殊性预防。


 第一,民法应当限制人工智能的无序发展。当强人工智能可以模拟人的行为甚至情感时,会挑战社会的伦理道德和秩序。首先,人工智能没有道德观念,只能依据输入的算法和程序作出选择,如果出现算法偏差和算法错误,将会对人类的自主性、公正性甚至生存造成威胁。其次,人工智能的广泛应用有可能加剧人文精神的衰落,如果用算法处理人类所有的行为、感情、事件以及与他人之间的关系,这些人类所特有的活动会逐渐丧失人性,可能会导致“数学人类”的社会伦理风险出现。[9]伦理风险虽然对人类而言并不是毁灭性的、颠覆性的风险,但其对社会的稳定和平衡、人的价值观具有重要影响。因而,民法应当对人工智能无序发展所引发的伦理风险予以强烈关注。


 第二,民法必须禁止人工智能发展中的技术滥用。正如学者所云,当技术成为社会的主导力量时,技术滥用的危机会成为人类面临的共同难题,人工智能技术将可能导致社会的变革甚至是对文明的颠覆和对社会格局的重整,[10]甚至会成为人类的灾难,影响人类的生存和发展。例如,当年原子能技术的高速发展所产生的原子弹、氢弹等,如果没有人类有理性的防控,至今在世界上存在的原子弹和氢弹等将会毁灭人类几十次,甚至更多。而在人类的理性控制下,只将其使用于对非正义战争的制止。同样,如果非理性地研制杀人机器人而不加以规范或者禁止,在发展到强人工智能甚至超人工智能时,将会对社会造成威力巨大的破坏,而人力将有所不及。


 (二)民法事后救济人工智能风险损害


 人工智能风险已经部分转化为损害。对此,民法作为权利法,理应制裁侵权行为,以救济损害。


 第一,民法必须管控人工智能对个人信息和隐私的侵权行为。在人工智能技术的应用下,许多互联网技术企业应用人工智能技术,实现了信息的精准分发,通过算法了解用户需求,根据用户需求对其推荐信息或广告。通过人工智能技术,对数据和信息的广泛搜集与掌握,汇聚成巨大的信息库、数据库,酝酿着信息泄露的现实风险,不法分子只需要攻击数据库,就能够获得大量的信息。[11]在某种程度上,在人工智能技术面前,人们仿佛穿上了“透明衣”,毫无隐私可言,个人信息也受到严重侵犯,数据收集过程中的公开性、透明性和合法性更是受到了威胁。[12]此外,掌握人工智能技术的制造者收集了消费者的海量个人信息,热衷于建设智慧城市、智慧政府、智慧法院的公权力部门会求助他们提供公民的信息,模糊了公权力和私权利之间的边界,使政府监管的对象成为政府的合作伙伴,甚至成为实际控制者,个人隐私的防范对象也从私主体扩大到权力机关。[13]人工智能技术还对个人隐私的保护、个人信息的保护、个人肖像的保护、个人声音表情等人格利益的保护都带来了挑战。如何从技术层面和法律层面规范智能机器人搜集个人信息的合法性问题,是民法学面临的又一个新挑战。


 第二,民法应当制裁人工智能发展中出现的新型侵权行为。在弱人工智能时代,人工智能只能根据设计和编程内容对外界刺激做出应对,故只需要对产品研发者或使用者的行为进行规制即可。但随着人工智能技术的发展,强人工智能产品可以产生自主意思和自我意志,其可能会在设计和编程范围外实施行为,对人类的社会秩序造成严重破坏。人工智能技术的发展带来的新的侵权行为,究竟应当如何界定,如何对损害进行赔偿,可能成为法律难题。[14]遵守技术中立原则尽管有一定的合理性,但怎样才能对人工智能技术应用中出现的新型侵权行为予以制裁,维护被侵权人的利益和保障安全秩序,仍值得研究。平衡各方利益时,除了要针对特定人工智能类型引入强制保险制度来解决归责问题,[15]更重要的是民法对新型侵权行为确定责任规则。


 总之,人工智能技术的应用会引发社会结构发生重大变化,引发贫富分化加重和失业率增加等其他社会秩序方面的风险,鉴于此,需要塑造风险社会的法律理念,建立多元互动的风险规制体系,以最大程度地发挥人工智能的积极作用。[16]因而,在人工智能发展给民法带来巨大的挑战面前,民法应当勇立潮头,既能保障人工智能的发展更好地为人类服务,又能拘束其有序发展而不伤害人类自身。


 在此基础上,民法管控人工智能发展的风险,究竟是适用现行民法理念和规则,还是需要创设新的民法规则,同样值得思考。笔者认为,目前的人工智能技术发展与多年前出现的克隆技术一样,只要全面分析、认真对待,用现行民法的基本制度进行适当调整,就可以管控人工智能发展的风险,而不需要改变民法的基本理念和规则。[17]比如,对人工智能法律地位的确认,对人工智能造成损害的责任承担等问题,都可以纳入现行民法体系中寻求解决办法。[18]即使人工智能的发展和应用达到了超人工智能的水平,只要正确应用现行民法的基本规则和理念,人工智能引起的法律问题自然会迎刃而解。


 三、充分发挥民事责任在管控人工智能发展风险中的职能作用


 (一)民事责任制度管控人工智能发展风险的法理基础


 人工智能是科学,人工智能技术是人工智能的应用,而人工智能的应用成果则是人工智能产品。目前,人工智能产品的主要表现形式是智能机器人等。民法对人工智能现实风险的管控,是针对人工智能产品所带来的损害;民法对人工智能可能风险的管控,是针对人工智能的技术发展,禁止其危害人类的应用,但是其着眼点,仍然是未来人工智能产品所带来的危害。因而,民事责任制度是民法对人工智能成果进行管控的主要方法。其基本的法理基础在于人工智能成果的法律地位是物。


 人工智能成果的社会地位,是人工智能学界和社会科学界共同关注的问题。关于其法律地位,学界众说纷纭。目前形成三种主流意见,分别是人、物及准人。其分歧集中表现为对待传统民法人与物二分格局的态度,即是否构成对民事主体制度的挑战。


 有学者认为,人工智能越来越智能化,与人类的差别逐渐缩小,将来可能会拥有生物大脑,而且从法律系统的发展史看,赋予人工智能法律主体地位符合权利发展的历史规律。[19]实质上,这种观点针对的是具有自主意识的强人工智能或者超人工智能。即使是智能机器人,也未将其作为工具机器对待,而是根据强人工智能或者超人工智能的特性,赋予其主体地位。这种意见虽然还没有否定传统民法的人与物二分格局的基石,但是却扩大了“人”的范畴。将不具有自然生命的“物”移转到“人”的范畴。


 再比如,有的学者认为,人工智能的运行是由算法决定,尚不具有自主意识,也不能独立享有权利、承担义务,所以仍应该将人工智能纳入法律客体范围,不赋予其独立的民事主体地位。[20]也有学者认为,智能机器人的智慧体现的是一种演绎智慧,它只能对符号进行一种形式化的加工,是一个受特定算法支配从而接受人类指令为人类服务的工具,故强人工智能的出现根本就是一个伪命题,没有必要讨论是否应给予人工智能法律主体地位。[21]这种意见的主旨在于人工智能机器人仍然是机器、是物,并不具有人格。


 不过,也有学者突破性颠覆传统民法人与物二分格局认为,人工智能正在迈向高度智能化,机器人的主体地位在逐步显现,其与自然人之间的关系也在发生变化,应正视这一伦理现象,考虑赋予人工智能以恰当的法律资格与地位,制定并完善相关的法律制度。但同时要肯定的是,人工智能不可能获得完全的、不受限制的、与自然人平等的主体地位,在与自然人利益冲突时保障自然人利益是原则,人工智能取得的是有限制的主体地位。这样的意见是对传统民法人与物二分格局提出的尖锐挑战,认为人工智能机器人享有有限的人格,在一定范围内具有主体地位、享有部分权利义务,而这个范围需要法律来规定标准。[22]也有学者提出,要跳出法律主体的类型化思维,采用全方位的方法思考人与智能机器的关系,通过制定法律做出相应调整,架构一种二元化的法律主体类型。[23]因此,坚守人与物二分格局的传统民法不能适应当代人工智能技术发展的要求,应当被打破,在人与物之间设置第三种市民社会的物质存在形式,即贴近民事主体的准民事主体制度,形成人、准人和物的三分法格局。


 这种意见在讨论对动物的法律保护时也出现过。有学者提出了动物人格权的理论,即动物既不是人,也不是物,而是介于人与物之间的第三种市民社会物质表现形式,传统的民法人与物二分格局应当打破,将民法改变为三分格局,动物是人与物之间“准人”范畴。[24]对此,笔者曾撰文进行反驳,即动物的本质属性仍然是物,只需要对其加强法律保护即可,而不必通过打破民法的二分格局的方式来保护。[25]


 笔者认为,面对人工智能特别是智能机器人技术的迅猛发展,不仅在当前,即使在可以预期的将来,人工智能机器人不仅不会成为“人”,而且也不会成为“准人”,其所具有的人工类人格只能是类似于人格的“物格”。[26]例如,最具有人格特点的沙特“公民”索菲娅,它也不过是不具有自然的生命和人脑的机器而已。即使在将来,这种人工智能的产品也不会转变为人的范畴。换言之,作为人工智能技术发展结晶的强人工智能或者超人工智能的机器人,永远是人工制造的机器,仍然属于物的范畴,不会成为市民社会的第三种物质表现形式。故传统民法的人与物二分格局仍然具有一定的现实意义,能够将人工智能的发展及其风险纳入自己的管控范围,成功进行管控。


 (二)民事责任对人工智能现实风险的管控


 1.划清人工智能应用中人的责任与物的责任的界限。在人与物二分格局的民法逻辑基础上产生的权利、义务、责任的三段逻辑结构,是确认民事责任社会职能的逻辑起点。[27]市民社会的人与物是其基本物质构成,其运行模式是人支配物,物受人的支配。人在支配物的时候发生民事权利,只有享有权利才能够对物进行支配,而无权支配该物的人,对权利人的权利负有不可侵义务。当违反义务的行为出现时,违反义务的行为人侵害了权利人的权利,破坏了市民社会的秩序,因而产生民事责任,法律强制违反义务、侵害他人权利的人承担责任,保障权利人的权利实现,进而维护正常的市民社会秩序。这样的逻辑推演,从侧面说明了民事责任基本的社会职能。


 尽管民事责任可以分为侵权责任、违约责任、其他责任等不同种类,但是从另一个角度分析,则可以将民事责任分为人的责任和物的责任。


 首先,人的责任就是行为人对自己的行为造成的后果所负的责任。在侵权行为中,人的行为直接加害于被侵权人——例如殴打、诽谤、侵占等,都是人的直接行为[28]——造成了被侵权人的人身损害、精神损害或者财产损害时,行为人要承担的民事责任就是自己责任、直接责任。在合同领域,债务人的违约行为造成债权不能实现或者不能完全实现的后果,使债权人的利益受到损害,也是人的行为所造成的损害,承担的违约责任也是人的责任。


 其次,物的责任则是在人管领下的物,因管领人的疏忽而造成他人损害时,管领人应当承担的责任。无论是建筑物、构筑物以及其他设施及其悬挂物、搁置物脱落、坠落、倒塌、陷落造成损害,还是饲养动物致人损害、缺陷产品致人损害等,都是人对于物的管领存在疏忽等过失,而由物直接造成了被侵权人的损害。这样的行为是间接行为。管领人对自己管领下的物造成的损害承担的物的责任,是替代责任、间接责任。即使在违约责任中,加害给付责任中的履行债务行为,基本上也是给付的合同标的物存在缺陷或者瑕疵,而由物直接造成的损害,承担的责任也是交付标的物的债务人承担的物的责任。


 当然,无论是人的责任还是物的责任,最终都是人来承担责任,绝不会出现由物自己承担责任的情况——因为物在市民社会中,只是法律关系的客体而不是主体——只不过人的责任是人对自己的直接行为承担责任,而物的责任指的是造成损害的直接原因力来自于物,而不是人的直接行为所致。


 2.确定人工智能发展中的民事责任主体。在人工智能发展的民事法律关系中,主要的民事主体是设计者、生产者、销售者和使用者。在这些主体之间发生的民事法律关系,既有侵权责任关系,也有违约责任关系。


 设计者是人工智能技术应用的研发者。设计者通过研究人工智能软件推动人工智能的发展和应用。人工智能软件既是人工智能的表现形式,又是人工智能应用的技术基础。


 生产者是人工智能技术应用的实践者。生产者通过设计者提供的人工智能软件,安装在产品之上,构成一体,形成人工智能产品,并且推向市场,为人类生活和社会发展服务。


 销售者是人工智能成果的推广者。销售者通过自己的行为,将生产者生产的人工智能产品推向市场,应用于社会生产、生活中,使其发挥效益,创造新的财富,满足人们的生产、生活需求。


 使用者是应用人工智能产品的民事主体。之所以使用“使用者”而不使用“消费者”的概念,是因为为生产所需购买商品的人不属于消费者。无论是为生产还是为生活需要,购买人工智能产品使用,满足自己的需求,就可以称为人工智能产品的使用者。


 3.认定人工智能技术发展中民事责任的基本规则。人工智能发展的现实风险,集中在人工智能产品之上,例如智能机器人、自动驾驶汽车等,如果不发生损害,人工智能的现实风险就没有发生;一旦发生损害,即产生人工智能现实风险的责任归属问题。


 民事责任管控人工智能发展现实风险,根据人的责任还是物的责任的不同,基本规则是:


 第一,确定人工智能产品所致损害是人的责任,还是物的责任。人工智能发展的结果,最终凝结在产品之中,物化为人工智能产品。因此,人工智能本身并不可能造成损害,而是人工智能发展失去控制或者发生错误,依照这种人工智能制造出来的产品会造成损害,人工智能的现实风险就直接转化为损害。人工智能产品造成损害存在两种可能,一是人工智能产品存在缺陷,因该缺陷而造成损害;二是人工智能产品不存在缺陷,是符合质量要求的产品,而是使用人工智能产品的人的过错所致损害。前者是物的责任,后者是人的责任。即使在人工智能发展领域存在的违约责任中,也存在这样的划分:在设计者与生产者之间的委托研发合同,违约行为是债法领域中的人的责任;在制造人工智能产品的生产合同,交付的人工智能产品存在缺陷,则是加害给付的违约行为,因缺陷或者瑕疵的人工智能产品致害,则为物的责任。


 第二,根据人的责任还是物的责任确定应当承担责任的责任主体。人工智能产品形成的人的责任,其责任人是有过错的人工智能产品的使用者。自动驾驶机动车不存在缺陷或者瑕疵,是购买、使用自动驾驶机动车的人因其错误使用而致损害发生,就是人的责任。例如驾驶三级自动驾驶机动车处于自动巡航过程中,如果自动驾驶机动车的驾驶人昏睡,而导致自动驾驶机动车在不能自动识别缓慢移动的清扫车的情况下,致使自动驾驶机动车撞上清扫车而酿成机动车交通事故。如果该交通肇事的原因在于机动车驾驶人的疏忽,而处于三级自动驾驶的自动巡航中的自动驾驶机动车所存在的上述不足,是生产者反复警示、说明的合理危险,不属于缺陷,因而驾驶三级自动驾驶的机动车驾驶人,在必须时刻准备接管机动车的掌控进行人工驾驶避免危险时没有及时掌控驾驶,所致损害是人的责任,是驾驶人自己的责任。反之,如果自动驾驶机动车存在缺陷,并且因该缺陷而造成交通肇事发生责任,则为物的责任。同样,接受委托进行人工智能技术研发的设计者,与生产者之间的委托关系,就是合同关系;当研究者提供的人工智能技术软件存在缺陷,违反了研发合同的要求,构成人的责任,违约人即不履行或者不适当履行合同义务的人,应当承担违约责任。


 第三,准确确定责任主体承担的民事责任。民事责任归责的最终结果,是责任人承担损害后果。在人工智能产品造成损害,确定了责任的性质属于人的责任还是物的责任之后,按照承担民事责任的基本规则,就要将责任归咎于应当承担责任的主体,使其受到制裁。例如,在机动车交通事故责任中,确定人的责任是交通事故责任规则,由有过错的机动车驾驶人或者所有人承担侵权责任;如果机动车有缺陷而造成损害,确定物的责任是产品责任。在自动驾驶机动车发生交通事故造成损害中,同样如此:如果是人的责任,则现有的机动车交通事故责任规则完全可以对其进行规制,确定具有过错的驾驶人承担责任;如果是自动驾驶机动车存在缺陷而发生交通事故造成损害,则是物的责任,由有缺陷的自动驾驶机动车的生产者、设计者和销售者承担不真正连带责任。前文提及的驾驶人在驾驶三级自动驾驶机动车中发生的交通事故,就是人的责任,是因其驾驶中睡眠而引起的,因此应当依照《道路交通安全法》第76条规定确定交通事故责任;如果是自动驾驶机动车存在制造缺陷,则生产者应当依照《侵权责任法》规定的产品责任规则,确定和承担赔偿责任;如果是人工智能技术研发者即自动驾驶机动车的软件设计者提供的软件存在缺陷,则自动驾驶机动车的生产者、设计者应当按照《侵权责任法》第43条规定承担不真正连带责任。


 总之,依照法律的规定一一对号入座,明确民事责任时,不仅制裁了违法者,也警示了同行从业者和所有人。民事责任自然对管控人工智能技术发展风险发挥了职能作用。


 (三)民事责任对人工智能发展可能风险的管控


 在民法人与物二分法的基本格局中,民事责任制度是在其基础上产生管控市民社会风险的调整器。基于人与物二分格局产生的民事责任体系能够管控人工智能发展的可能风险。


 可能风险作为未来可能发生的重大风险,尚未转换为现实性的损害,似乎民事责任的管控鞭长莫及。但这并不妨碍民事责任对人工智能技术发展中的风险防控。不同于民事责任对现实风险防控中的“对号入座”模式,民事责任是用一般性规范防控可能风险,也即通过《民法总则》所规定民事责任的一般条款规范人工智能技术发展的路径和方向。


 第一,将人工智能发展纳入民法和民事责任塑造的正确管道。民事责任居于民法“权利——义务——责任”三段逻辑结构的终点,保障了人的行为自由,加强了对行为人的责任管控。行使权利,权利人享有自我决定权,在法律的范围内自由为之,但其前提是遵守和履行自己的义务。违反义务者,民事责任即对其发生强制拘束力。这就是《民法总则》第176条关于“民事主体依照法律规定和当事人约定,履行民事义务,承担民事责任”的立法本意,严格遵循了民事责任和民事义务区分的民法原理,确立了“义务——责任”的立法逻辑关系。[29]发展人工智能,造福于人类,自然属于自由行使权利的范畴,但是必须遵守其应当遵守的不得危害人类的义务。一旦违反这样的义务,就将要受到民事责任的强制拘束。如果在研究人工智能发展并将其物化为产品中无序进行或者技术滥用,脱离民法规范的管道,违反了应当履行的义务,民事责任将强制其纠正错误,回到民事责任规范的轨道之中向前发展,决不允许人工智能的无序发展和技术滥用。


 第二,民事责任必须保持对人工智能发展的可能风险,施加强大的遏制力。事实上,义务就是行为人实施某种行为的必要性,在法律上具有强制性。[30]不过义务的强制性是以民事责任的强制性为后盾的,如果没有民事责任作为民事义务的后盾,义务的强制性就无从谈起。因此,民事义务的强制性来源于民事责任的不可避免性与强大遏制力。民事责任不仅可以制裁现实发生的违反义务的违法行为和违约行为,同样可以以其不可避免性和强大遏制力发挥阻吓作用,吓阻违法行为人,防止违法行为的发生。在人工智能发展中,研发单位和人员如果违反应当遵守的义务,进行违反促进科技发展、造福于人类目的的行为,就是违反了应当遵守的义务,就必将接受民事责任的制裁,承受对自己不利的法律后果。如此而言,民事责任就是悬在人工智能研发人员头上的达摩克利斯之剑,约束他们只能将人工智能发展应用于造福人类的用途,而不能用于相反的目的。从这个意义上说,民事责任是民法为人工智能发展正确管道的钢铁壁垒,触犯者必将承受严重后果。


 第三,民事责任绝不是仅仅针对民事违法者、违约者单个的人,而具有警示社会的作用。当然,民事责任首先针对的是违法、违约者个人的违法、违约行为,让其承担不利后果。但是,这是民事责任的特殊预防作用。民事责任在市民社会中,更具有一般预防作用,用其强制力和遏制力以及不可避免性,昭告全体民事主体,凡是不履行义务或者不正确履行义务的人,必将受到民事责任的制裁。这种一般预防作用完全适用于每一个人,包括人工智能的研发单位和个人,以及相关的责任者。任何人在研发人工智能中试图离开民法规范的管道,就必然碰在这个管道周围的钢铁壁垒之上,承受承担民事责任的后果。例如,在人工编辑人类基因的高科技应用中,不仅受到社会的强烈谴责,而且也面临着法律责任其中就包括民事责任的制裁可能。民事责任的这种普遍的警示性,正是管控人工智能发展可能风险的基本力量。


 通过以上分析,民法的民事责任制度实际上塑造了一个管控人工智能发展的管道,这个管道规范了人工智能发展的正确路径和方向,让人工智能技术发展在这个管道中健康进行。对于超越管道的人工智能的无序发展和技术滥用者,就要让责任人承担民事责任,强制其回到这个管道之中;对于在这个管道中正常进行的人工智能发展研究和应用,民事责任对其不加以拘束,而是任其自由发展,取得更大的成果。在这样的管道的管制下,民事责任与其他法律责任一道,就能构成一个管控人工智能发展的完整体系,能够实现管控人工智能发展可能风险的目标。


 归根究底,人类社会涉及的人的地位、财产流转等问题,都须要纳入民事法律关系之中,接受民法的规范,接受民事责任的管控。人工智能的发展只有在民事法律关系的调整之下,接受民事责任的规制,才能健康有序地进行。如果人工智能发展离开了民事责任管控的管道,就强制其接受民事责任。民事责任正是用这种最强有力的方法,强制人工智能发展接受民法规定的路径和方向,防控可能出现的可能风险。


 四、结语


 人工智能技术的迅猛发展,存在着现实风险甚至是可能风险。就目前状况而言,现实风险已经出现或者正在出现,民事责任的管控具有直接的现实意义。对人工智能产品造成的损害,通过人的责任和物的责任的划分,确定民事责任的承担主体以及承担方式,既能够规范人工智能技术的发展,又能够对现实风险造成的损害予以填补,并制裁违法行为人,警示社会。另外,人工智能技术发展的可能风险具有存在的客观可能性,尽管可以预测其并非必然存在颠覆人类社会根本秩序的可能,但绝不可以低估其影响。民法应通过民事责任的适用,管控人工智能发展的可能风险,规范人工智能发展的路径和方向。总之,我们必须对人工智能技术发展保持清醒的认识,正确设计人工智能技术发展风险防控的法律安排。

   


[1] 李俊:《26国AI技术领袖上书要求联合国禁止“杀人机器人”的研发与使用》,载《计算机与网络》2017年第18期。

[2] 参见国务院《新一代人工智能发展规划》[国发(2017)35号]。

[3] 吴沈括、罗瑾裕:《人工智能安全的法律治理:围绕系统安全的检视》,载《新疆师范大学学报(哲学社会科学版)》2018年第39期。

[4] 张成岗:《人工智能时代:技术发展、风险挑战与秩序重构》,载《南京社会科学》2018年第5期。

[5] 金振娅、严圣禾:《“基因编辑婴儿”涉嫌严重违背医学伦理、学术伦理》,载《光明日报》2018年11月27日第8版。

[6] 创新科技编辑部:《办公替身机器人》,载《创新科技》2010年第12期;银昕:《医生会被人工智能代替吗?》,载《中国经济周刊》2017年第46期。

[7] 《沙特授予机器人公民身份,是惊喜还是惊吓?》,载《中国经济周刊》2017年第43期。

[8] 李玲、尤一炜:《喜达屋酒店约5亿人次开房信息或泄露》,载《南方都市报》2018年12月1日A11版。

[9] 参见[美]卢克·多梅尔:《算法时代:新经济的新引擎》,胡小悦等译,中信出版社2016年版,第79页;马治国、徐济宽:《人工智能发展的潜在风险及法律防控监管》,载《北京工业大学学报(社会科学版)》2018年第6期。

[10] 马治国、徐济宽:《人工智能发展的潜在风险及法律防控监管》,载《北京工业大学学报(社会科学版)》2018年第18期。

[11] 刘宪权:《人工智能时代的刑事风险与刑法应对》,载《法商研究》2018年第1期。

[12] 刘宪权、林雨佳:《人工智能时代技术风险的刑法应对》,载《华东政法大学学报》2018年第5期。

[13] 郑戈:《人工智能与法律的未来》,载《探索与争鸣》2017年第10期。

[14] 高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,载《华中科技大学学报(社会科学版)》2018年第1期。

[15] 党家玉:《人工智能的伦理与法律风险问题研究》,载《信息安全研究》2017年第12期;张童:《人工智能产品致人损害民事责任研究》,载《社会科学》2018年第4期;齐恩平、曹一夔:《人工智能视角下的民法问题分析》,载《天津商业大学学报》2018年第1期;杨立新:《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》,载《求是学刊》2018年第4期;张清、张蓉:《论类型化人工智能法律责任体系的构建》,载《中国高校社会科学》2018年第4期;房绍坤、林广会:《人工智能民事主体适格性之辨思》,载《苏州大学学报(哲学社会科学版)》2018年第5期。

[16] 党家玉:《人工智能的伦理与法律风险问题研究》,载《信息安全研究》2017年第12期;朱体正:《人工智能时代的法律因应》,载《大连理工大学学报(社会科学版)》2018年第2期。

[17] 杨立新:《用现行民法规则解决人工智能法律调整问题的尝试》,载《中州学刊》2018年第7期。

[18] 同注释[21]。

[19] 张玉洁:《论人工智能时代的机器人权利及其风险规制》,载《东方法学》2017年第6期。

[20] 参见杨立新:《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》,载《求是学刊》2018年第4期。

[21] 房绍坤、林广会:《人工智能民事主体适格性之辨思》,载《苏州大学学报(哲学社会科学版)》2018年第5期。

[22] 参见杨立新:《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》,载《求是学刊》2018年第4期。

[23] 王勇:《人工智能时代的法律主体理论构造——以智能机器人为切入点》,载《理论导刊》2018年第2期。

[24] 蔡守秋:《从对<德国民法典>第90a条的理解——展开环境资源法学与民法学的对话》,载《南阳师范学院学报(社会科学版)》2006年第4期。

[25] 参见杨立新、朱呈义:《论动物法律人格之否定——兼论动物之法律“物格”》,载《法学研究》2004年第5期。

[26] 参见杨立新、朱呈义:《论动物法律人格之否定——兼论动物之法律“物格”》,载《法学研究》2004年第5期。

[27] 参见魏振瀛:《民事责任与债分离研究》,北京大学出版社2013年版,第235~236页。

[28] 关于直接行为和间接行为的划分,参见杨立新:《简明侵权责任法》,中国法制出版社2015年版,第66页。

[29] 陈甦主编:《民法总则评注》(下册),法律出版社2017年版,第1257页。

[30] 杨立新:《民法总则》,法律出版社2017年第2版,第228页。





    作者:杨立新 天津大学卓越教授,中国人民大学民商事法律科学研究中心研究员;文章来源:《法学杂志》2019年第2期“人工智能法治专题”栏目

END



凝聚专家力量     助力法治建设

Condense the expert strength to help the Construction of the Rule of Law


   在成都市司法局主管、成都市法学会的指导下开展法学研究,公共法律服务体系建设的课题研究、人才培训、指数发布;政府规范性文件的拟定及审查、行业标准制定;公共法律事务的风险评估、专家论证、舆情研究。

成都时代公共法律服务研究院

本公众号由成都时代公共法律服务创新与发展中心运行管理  如有问题请联系

Tel:028-86985148 Email:[email protected]

总编:曹帅    

主编:唐烽    责任编辑:雷雨

编辑:林恒宇 古妤汐  

欢迎赐稿

法律顾问:四川坤弘律师事务所


时代公共法律服务研究院:www.att.vip



取消

感谢您的支持鼓励,我会继续努力的!

文章地址:

用户邮箱:

打赏金额:USDT

点击”去打赏“,即可进行打赏支持本文章哦

发表评论