来源:民法牛,作者/杨立新,感谢老师的授权
杨老师:今天介绍这个题目是一个比较新的题目,就是在人工智能发展过程当中我们怎么去看待机器人的属性,接下来同样的问题,也是在自动驾驶汽车当中怎么样确定它的责任。大家听起来好像两个题目差的还比较远,其实两个问题是一个问题。说到底是什么原因呢?是因为真正的自动驾驶汽车,其实就是一个运行的机器人,跟其他智能机器人一样,都是智能机器人系列法律的事情。这些问题在民法上应该怎么考虑,怎么去规范这样一些科学技术的发展,规范它们的产品,在发展人工智能的同时,怎么能够让人工智能更好的为人服务,而不至于伤害到人类自己,这也是个大的问题。
在民法典的立法中,怎样能够体现当代最先进的科学技术,能够反映时代的特点,其中就涉及人工智能的问题。所以我今天给大家介绍这样一个题目,也是想在我们民法典当中,在民法典分则各编当中,有没有可能解决一下有关的问题。我这个题目介绍三部分,第一部分,人工智能的发展和民法的关系。第二部分,介绍一下高端智能机器人的民法地位。第三部分,是自动驾驶汽车交通事故责任的认定。
最近这些年来,人工智能突飞猛进,这些方面,大概最集中反映到了就是关于机器人的问题,我们现在看到很多涉及到高科技的会议,一些比较高级的会议,去报道的时候门口都会有一个机器人在那里,也会管一些事情,你问他什么会议议程他会告诉你,这是一种。
再往后大家都知道有了沙特的索非亚,到了沙特以后给公民的资格。这一下子提出问题了,人工智能机器人到底是人还是物?就提出这个问题来,这是真正的机器人,它什么都给你讲,还有各种各样的表情和语言能力,如果大家都喜欢机器人,不喜欢真人的话,恐怕得立法,再怎么喜欢机器人也得要有一个真人,这些问题都会引起法律上的问题。最后发展到比较高级的这种,大家看到就是AlphaGo,现在已经看到了,所有的围棋高手谁也下不过它,机器人自我学习的功能,使它变得智能无比,将来会超过人类的智能。在这种情况下我们怎么对待它?
大家也提到人工智能发展到更高级阶段的时候,会不会出现人类无法控制的时候?然后就提到杀人机器人,把杀人机器人做的跟蚊子一样,你只要给它一个指令,不把人杀掉不罢休,一旦出现这种情况,会不会带来人类灾难?这样的问题都涉及到法律的问题,就是怎么样进行规制。对于这样一个问题,人工智能发展下去,会不会出现人类无法控制的后果?很多人都在担心,但是也有人提出来,也可能这是一个伪命题,也可能它根本就不是一个问题。说人工智能再怎么样还是人工的问题,既然人能把它造出来就能够把它控制住。
我们成立了一个未来法治研究院,曾经和北京理工大学的计算机系的教授搞过一次联席会议,大家一起来讨论这个问题,在人工智能发展上,北京理工大学的计算机学院是比较厉害的一个机构,是不是最前沿我不知道。他们现在能达到什么程度?他们的几百架无人机可以变换队形等等,人工智能他们正在研究过程当中。他们院长给我们讲课的过程当中提到一点,人工智能技术向前发展,也可能带来更多的好处,也可能带来危险。但是会不会有这样的时候?也不好说,也可能真的有问题,也可能是一个假的问题。比方说我们在科学技术发展的过程中,一直会出现这样的问题。当然有一个比较新的科学技术发生的时候,就会带来很多很多的忧虑,但是最后其实都没有发生太大的事情。
前一段我们一直在讨论这个问题,是不是要适当的放开人工代孕的要求,我们不可以进行商业的人工代孕,但是对于确有必要的,从情理上都应该给机会的,这样是不是可以放开,就可以满足人的要求,我觉得这个案件是特别重要的一个案子。
我说这个意思,当某一种很先进的科学技术出现的时候,都会带来它的发展,发展带来的风险,法律怎么样规范它。我们看到它的危险以后,用法制防治解决好以后,大概不会发生严重的后果,不会说最后人自己就控制不了的地步。所以我想人工智能今后发展的过程,只要在我们现行的法律规范当中去补充新的规范,然后去进一步规制人工智能技术发展的情况,一个是促进它发展,另外一方面,防止人工智能出现危害人类后果的情况。
在这样的时候,我觉得人工智能就会给我们人类带来更多的好处,不会给人类带来太大的灾难。所以我觉得应该是这样的。在这种情况下,民法和人工智能的发展,它们之间应该怎么去做?我觉得大概最重要的一个问题,就是在人工智能发展当中最具典型意义的就是高端智能机器人,它在民法上怎么去定位,去定位就确定了它在民法上是一个人还是一个物?像沙特给了公民资格的索非亚,它到底是人还是什么?按说是公民了当然是人,假如说中国有一个索非亚,我们会给它一个公民资格吗?我们会给它一个公民待遇吗?我们会给它一个自然人的身份吗?应该不会。所以我觉得在人工智能发展过程当中民法想要解决的第一个问题就是它的民法地位问题。
接下来的机器人的民法问题,就是它的行为,它的行为是人的行为还是支配物的行为,它如果是一个人,它的行为就是自己的行为,就跟今天所有自然人的行为一样的,它的行为就要受到民事法行为的要求,但有可能是这样吗?大概不太够。一个机器人总有人控制它,有人支配它,虽然机器人带有一些自主的行为,它仍然是人的行为,我觉得这是第二个问题。
第三个问题是什么?就是这些人工智能的机器人,它们在它们的行为当中造成了人的损害的结果,究竟怎么去承担责任?在这个问题上,好像我们看到普通的人工智能机器人没有这样的责任,但是在一些特别人工智能方面的技术应用方面,它要造成损害后果呢?比方说自动驾驶汽车,当前自动驾驶汽车发生交通事故已经不是一起了,已经有十余起,对于这样一些问题应该怎么样去规制,怎么样去承担责任?这是必须要研究的问题。
这是就我从民法的角度上来讲,我想关于人工智能的发展和它的规范,它和民法的关系,最起码要解决问题,地位问题,属性问题,还有责任,造成损害的责任。自动驾驶汽车会发生交通事故,其实你看到现在一些智能机器人,好像索非亚那种比较理智,也没有太大的危害,但是你知道好几个电视台,当他们用人工智能在电视台进行服务的时候,在网络上进行服务的时候,它发生了诽谤的事情,因为它自己的判断能力还是不够,把什么人叫什么人,这样就涉及到人格损害的问题,然后投诉他们,这个事情已经存在了,这也是责任的问题。所以这部分真的是可以很好的研究,在民法领域当中,把这些问题都考虑到了,然后做好了充分的规制,就保证人工智能技术向对人类有益的方面去发展,怎么控制它造成的损害,一旦发生损害以后怎么样解决责任承担的问题。这一部分是人工智能发展和民法之间的问题,这是讲的第一个问题。
对于这样一些问题,现在学界都在讨论,很多在研究法律的这些前沿认识,对于人工智能对民法带来的问题都在进行讨论,当然比较热,但是说全面普遍的解决这些问题还正在探讨过程当中。
去年11月份,世界侵权法学会在美国开会,用了很长时间是在讨论人工智能问题,讨论自动驾驶汽车的问题。也可以这样讲,关于人工智能民法的问题,其实全世界都在同一个起跑线上,在这样的情况下,谁向前使的劲大一点,谁就在前面。所以在这部分,我觉得加强对人工智能法律规制,特别是民法方面的问题,我觉得是很重要很重要的事情,也标志着中国法学在世界领域当中地位的问题。
关于智能机器人在民法当中的地位问题,就是刚才说在民法当中的第一个问题,它到底是人还是物?在这个问题上,面对智能机器人技术的迅猛发展,可以预见到在不远的将来,在交通运输、医疗、看护、工业、服务业等等领域当中,智能机器人在人类社会当中应该是司空见惯的。北京理工大学的院长他讲现在人工智能技术,机器人的技术大概应用最好的领域应该是医疗,当对人做外科手术的时候,人的操作总有可能会发生失误,手一抖就可以发生失误,机器人只要设定好了就会按程序做,这部分具有最好发展前景,就能够代替外科医生去做手术。这样一种情况下,我们在生活当中会面临越来越的机器人,甚至将来会出现很多很多和我们长的一模一样,大家一起交流、一起工作的机器人,就是完全具有人形的机器人。在这样一种情况下,它到底是人还是物?这是一个最大的问题。
刚才我已经列举了例子,比如沙特的索非亚,围棋的AlphaGo,还有现在性爱的机器人,还有保险公司和律师事务所大量应用的代替秘书的那些机器人。面对这样一些情况我们怎么去对待它?现在在研究人工智能,研究智能机器人的时候我也是在学习过程当中,觉得有一个词特别重要,也是人工智能不断向前发展,人工智能机器人层次越来越高,将来甚至会超过人的思维、超过人的智慧,最关键的东西就叫机器学习。就是通过人的智能建立起这样一种机器,这种机器自己可以在你给它提供智慧的基础上再进一步整理,自己去提高,这就是我们说的机器学习,它自己一边总结、一边提高,然后逐渐逐渐超过了人类。就像围棋技术,现在可能是所有的自然人的棋手也玩儿不过AlphaGo。将来这样一种情况下,智能机器人我们怎么对待它,这是一个最大的问题。
我们怎么去看待人工智能机器人民法地位,它是人还是物?关键的一个问题,它有没有人格?就是智能机器人有没有人格,在这个问题上大概有这么一些观点。
一个观点,智能机器人没有人格,这就是人格否定说,很多人认为智能机器人尽管叫人,它仍然是一种工具,这种工具比其他的工具更先进而已。在这个问题上可能会出现这样的问题,比如说简单的智能机器人,就说我家里那个扫地机器人,面对它的时候,你不会想到它会有人格,因为它根本就不像一个人,就像我一开始人家给我的机器人这么高,我得把它请进来,打开一看就是一个盒子,不会认为它有人格,这种情况把它认定为工具一点都没错。但是面对那些自己有人形,还有它自己的思维,它自己可能做一些行为的机器人,你要说它完全是工具,可能就会有疑问,这是一个问题。
除了这些否定说以外,很多肯定说。肯定说就认为它有人格,所以在法律系统的发展史上,他们认为这个主体是从自然人逐渐发展。大家看到一个最基本的事实,我们最早时候说民法的主体其实讲的就是自然人,人,才有人格,不是人就没有人格。但是后来发展到法人了,法人是一个组织,是一个团体,民法上怎么去规制它?认为它也有人格,毕竟法律承认它有人格。再结合我们中国的民法来说,我们现在不仅仅存在自然人有主体资格,不仅仅承认法人有主体资格,也承认非法人组织也有主体资格,自去年3月15号开始,我国的民事主体就变成了三种主体,都有人格。有些人认为从这样一个过程当中,预测有一种规律,就是说人格的问题是从狭小的自然人身上逐渐发展,逐渐扩大。我们现在从自然人发展到法人,从法人发展到非法人组织,将来就会发展到智能机器人身上,所以认定智能机器人它也有人格是迟早的事情,甚至说索非亚不就是一个有人格的机器人吗?这就是讲的这种肯定说。
还有折中说,不全部承认它有人格,也不全部否认它有人格,而是有几种说法。有人说智能机器人就是电子奴隶,这个奴隶说的是罗马法上的奴隶,大家知道罗马法上人是分两种,一种是市民,有人格的,还有一种是奴隶,奴隶没有人格,他是财产,一个人家里多富有,要看他养了多少奴隶,奴隶是没有人格的。电子奴隶说认为我们所说的智能机器人其实就相当于过去的奴隶,它是一个电子的奴隶,它像人,但是它又不是人,但是它实质上又是人,就是这样一个逻辑,所以把它叫做电子奴隶说。也有人把它叫做电子人格,它虽然不是自然人的人格,但是它是一个电子人格。就有点像今天说的虚拟财产,说我们财产有时在的,就是现实当中的物,这是财产,虚拟的财产,网络当中虚拟的财产不是财产吗?比特币现在多值钱,昨天有人还问我,说杨老师,比如说两个人有一批比特币,我现在要向去申请公证,说是我们夫妻两个人共同财产,你说公证不公证?我说你可以做公证,因为我们《民法总则》第127条已经规定了数据和网络信息财产应该保护,应当依照法律规定,既然民法总则说了,你怎么说没有法律依据吗?他说他没有说清楚它是什么财产,这倒是真的。
一个现实的物,一个虚拟的物,现实大家能看到的,还有在网络虚拟空间当中存在的虚拟的物。我说电子人格其实说的就是可不可以讲现实生活当中的人就是我们自然人团体,还有一种,其实就是人工合成带有电子特点的人格,讲的是这种。
欧盟曾经有一个文件当中提到有限人格,它不是完全的人格,它是有限的人格,在这些方面当中带有人格的特点。现在肯定说和折中说应该是多数,否定说应该是少数。在这样一种情况下,我们应该怎么去考虑对智能机器人民法地位的界定?这个东西不界定好的话,我们民法没有办法对它进行规制,你到底是人还是物?我们今天说民法上对于市民社会的认识,是人就用主体的规则,是物就要用客体的规则。我今天讲人工智能机器人的时候,也必须面临这样一个问题,要界定它是人还是物,你界定它是人,我们就要用主体的法,要界定它是物,我们使用客体的法。这里面有一个可以借鉴的说法,我觉得它是不成立的,在刚才我介绍人体冷冻胚胎的案件当中,一审法院把这个冷冻胚胎界定叫做具有人格因素的物,说它脱离了人体,它本来应该是人体的组成部分,但是它脱离了人体以后就不是人了,它不是人,它应该是一个物的属性,它是物的属性的时候,它还有人格的要素里面。所以把它界定具有人格因素的物,或者叫做人格物,它毕竟就是一个物,要对它适用法律的时候应该适用物的规则。到二审法院,就是无锡市中级人民法院审理的时候,院长亲自审这个案件,院长他比较人性,他说人体冷冻胚胎既不是人也不是物,是基于人与物之间的过渡存在,后来我看这个判决书好有文化。客观描述的对不对?真的是对的,但是在民法领域当中,你必须界定它人还是物这边的,过渡存在这个中间状态,法律没有办法界定。最后判决书把它界定成人与物过渡的存在,它就没有设定什么权利了,最后院长界定了两个权利出来,说双方父母争议的是什么,他们争议的是胚胎的监管权和管理权。我看到这个权利一愣,这个判决书在理论上说起来我是觉得有点荒唐,但是最终结果是好的,他把监管权和管理权界定给双方四个当事人,归他们所有,然后他就可以拿回来。最终结果是好的,所以我写这个文章的时候,说一份标志着人伦与情理胜诉的终审判决。
在这样情况下,它是属于人这边,还是属于物这边?一定要界定清楚才有办法适用法律。涉及到人体冷冻胚胎的案件,也是我跟办案的法官两个人一人写一篇文章,结果都一样的,但是中间有不同看法。说是两个人结婚了,男的在美国,后来女的也去了,两个人生活一段时间不是很快乐,在美国期间说现在不想生孩子,先弄个冷冻胚胎,在美国医院冻起来了,等着以后愿意生的时候再生,把冷冻胚胎放医院的两个人后来离婚了,女的跑回中国了。男的一想都离婚了,冷冻胚胎还在医院,它是半年一续费,不续费医院就废弃了。后来这个男的就没交费,医院就给废弃了。这个女的后来想想孩子还得生,找医院,医院说销毁了,最后女的就开始告他老公。
这就涉及到这个问题,冷冻胚胎是什么?一审认定是有人格的,但是在判决里面说你没有经过对方同意把冷冻胚胎废弃了,造成了它人格的损害,然后要承担精神损害赔偿责任。我说这个有点奇怪,判决结果承担1万块钱的精神损害赔偿,一方面你说他侵害的是物,另一方面说直接侵害了人格的损害,这个道理讲不通。我说有一个正确的裁判思维,首先界定它是物,双方共同享有这个物的物权,共同享有的物权应该是共有权,这个案件为什么说是侵权呢?因为一个共有的物,你没有经过共有人的同意就单方废弃了,那当然就是侵权。这个侵权不是侵害了一个普通主体的权利,而是侵害了一个共有人的权利。这个物当中又包含精神利益的因素,包括人格的利益因素,当然得赔偿精神损害。从这样一个角度论述,可能论述的更清楚。
这里仍然也有一个问题,对这样一个东西,今天发生争议的东西,你要对它适用民法的时候,首先第一件事情是界定它是属于人这部分还是物的这部分。我拿冷冻胚胎来说明,同时我们在人工智能机器人定性的时候定性人还是物,这是非常重要的。你说它是什么样的东西?我们界定人格的时候有一些说法,一个是自然人格,每个自然人享有的人格,这是自然人格,自然人格,身体要健康,还有法人人格,还有非法人组织的人格。
有人还提出一种人格,叫做虚拟人格,这个虚拟人格说的最响的就是我一个学生,他就认为这个虚拟人格也是人格。虚拟人格指的是什么?就是我们在网络活动当中的网民,比方我在现实生活当中叫杨立新,网络活动的时候我也叫杨立新,大丈夫坐不改名,立不改姓。如果我在网络上起一个“会飞的鱼”,那是网络上的名,把真名隐去了,现在主张虚拟人格的说法,说那个也是人格,网络隐藏的人就叫虚拟人格。但是要看到一点,我们虚拟人格和自然人格是统一的。就是我在现实生活当中叫杨立新,是我的人格,叫会飞的鱼的时候,我也是杨立新,这两个人格是统一起来。欧盟管它叫做电子人格,还有说叫有限人格,这都是我们在说人格的时候。
我们在民法上到底给它叫什么?一方面叫机器人,有人赞同有人不赞同,我说了一个词,叫人工类人格,它带有一点人格外观的表现,其实它是人工的人格,说到底它不是人格,我想提出这么一个概念。
确定一个人有人格还是没人格,我原来写连体人文章的时候,不知道同学们看过没有,确定连体人到底是几个人格,它是一个人格还是两个人格。这一部分,我们在确定一个人是不是有独立人格时,有三方面的判断标准,一是生理学的要素,从生理学层面观察,人有独立的姿态和善于思维的大脑、具有独特的人类基因组成、独特的人类基因结构,按照这样的说法去判断人工智能机器人,其实就是没有机,外型好像什么都有,但不是自然的,这是一个标准。还有一个标准,从心理学层面观察,心理学作为人格的重要标准,就是要有独立的意志,就是他自己能够思考,从这个角度来说,人工智能机器人真的有点像。三是社会学的要素,作为一个人他有独立人格的时候,他在社会上要有独立的角色,当他有一个独立角色的时候他也是一个人。我们要看智能机器人,以它的代表看,看沙特的索非亚,人家真有独立的社会角色,还可以教你怎么样,人家就是独立人,还有公民资格。
根据这三个方面来判断,人工智能机器人有一部分人格的要素,它最重要最缺乏的是自然人当中自然结构的人体,自然的大脑,人的基因结构,这些它是没有的。这三个标准当中,这个标准是最重要的,所以把这三个标准都结合起来,是不是应该这样,它外观看起来是具有人格,但是这个人格是一个类人格,是类似于人格的表象。说到底,类人格就不是人格,它仍然是物的属性,所以我论证这些问题的结论,就是我们民法在对待人工智能机器人的时候,要界定它是物的属性,它并不是人的属性,尽管它有人的外观形象,它有人的一些功能、人的一些行为,甚至有一定自主性的行为,但是它仍然还是物。
它是物,接下来还有进一步的问题,它是物当中的哪种东西?我说再进一步界定的时候它就是产品,它仍然是产品。我们看到沙特的索非亚,它不是人造出来的吗?它是人造出来的,它是人结合以后生出来的人吗?不是,它不具有自然人的人格,也没有理智的人格,它仍然是一个产品,它是物当中的产品,能够把它界定下来以后,我们在民法上对它适用法律的时候就必须清晰了。
这么长时间给大家论证这个问题,我想说明一个问题,人工智能机器人有再了不起的技术,将来做的跟人完全一模一样,看都看不出来,可以做很多很多人的事情但仍然不是人,它的人格就是类人格,它仍然是机器,仍然是产品。
第二个问题它的行为是谁的行为,它的行为就是所有者的行为,这个人做出一个机器人送给他哥了,它给他哥服务,仍然是人的行为,它自然承担责任吗?好像也不行。假如说这个机器人疯狂了,出去以后把人打伤了,打死了,打残了,如果说它有人格,先抓这个机器人,判了刑,你送到监狱里以后还得通电,不通电,他就还是物。这部分给大家讲第二个问题就是人工智能机器人到底是什么东西,它是物还是产品,这是我想说的第二个问题的内容。
自动驾驶汽车的交通事故责任,这是现在全世界都特别关注的一个问题。我们看到今天中国在这个问题上也在探索当中,春节前北京市下了文件,可以在北京进行自动驾驶汽车的测试,接下来又划了一定的区域,在这个区域里面自动驾驶汽车是合法行为。针对的问题是什么?去年还是前年的时候有一个网络公司的老板开了自动驾驶汽车上了五环被处罚了,你这种违法了。有了测试的规定以后,你在测试的范围之内可以开,有了自动驾驶准入的规则。
自动驾驶汽车首先一点,这个技术发展非常快,现在最典型的是特斯拉,还有谷歌,还有很多厂商做出很先进的自动驾驶汽车,我们现在也在做,但是达不达到人家那个程度难说。
最近一个案件我一直在关注,讲的是这个,讲自动驾驶汽车的时候,首先是要讲自动驾驶汽车的分级。自动驾驶汽车的分级,按照现在的情况,基本上用的是美国的标准,把自动驾驶汽车分成五级或者六级的,是美国的自动驾驶汽车标准分成两个标准。这两个标准大体相似,但是不完全一样,现在通常用的是六级标准。
2013年美国国家公路交通安全管理局发布了汽车自动化的标准,将自动驾驶功能分为五个级别,就是零到四级,零级就是无自动化,就是现在的汽车是无自动化的,没有任何自动驾驶功能和技术,驾驶人对汽车所有功能拥有绝对的控制权,就是现在的零级别。一级为单一功能的自动化,驾驶人仍然对行车安全负责,不过可以放弃部分控制权给管理,比如常见的自动巡航。在高速公路达到一定条件的时候,把汽车做成自动的时候,你脚放到刹车上不用动,自己就走了,交通部认为这是一级。二级部分自动化,司机和汽车分享控制权,驾驶员在某些道路和环境下可以不操作汽车,手脚同时离开控制,随时准备在短时间内接管汽车驾驶权。一级是要求打开自动巡航的时候,双手必须在方向盘上,脚在刹车的位置上,一旦出现问题马上就能够把汽车控制起来。到了二级的时候,部分自动化,你手脚可以离开,暂时离开,但是你必须全面的关注,随时准备出现问题接管汽车的控制权。三级是有条件的自动化,有条件的情况下实现自动控制,预设的路段,当遇到紧急情况,驾驶员仍需要接管汽车,但有足够的预警时间,在这个时间里面你必须要接管汽车。三级自动驾驶汽车将解放驾驶员,对整个行车安全不再负责,也不必监视道路状况。四级是完全自动化,变成完全无人驾驶,无须人进行协助,由出发地驶向目的地,仅需起点和终点的信息,完全不需要驾驶员,行车时可以没有人,按照交通完全自动化,车里的所有人变成了乘客,汽车里面没有方向盘和驾驶器,这就是自动机器人了。比方汽车里面全都是乘客的座,从郑州到北京,你该笑就笑,该说就说,到北京自己停到那里你就下车,这就是完全自动化。
另外一个标准,是美国机动车工程公司协会,前边那个有点官方性质,这是协会制定的。为零到五级,分别强调的是无自动化驾驶、部分自动化和有条件的自动化,区别是对完全自动化做了进一步细分,强调行车和环境道路的要求,五级标准当中,四级标准在特定条件下进行,比如封闭的园区和固定的通车路线。通常说自动车,你看到视频上,到家以后,把他一按你就回家了,车自己回车库了,这就是预定的路线,完全无人驾驶,不用你管。早上到门口一按汽车自己来了,这是讲的四级,把完全自动化分成区域的自动化和没有区域限制的自动化。
现在世界各国关于自动驾驶汽车的分级标准大概都是零到五级的标准,就是美国协会的标准。目前在自动驾驶汽车当中,发生交通事故的基本上是属于一级或者二级的状态,现在发生的几个自动驾驶汽车交通事故的,大体是在自动巡航期间,达到了预设的高速公路符合条件的,你打上自动巡航系统,双手放到双向盘,脚放刹车上,还得注视路面,前面出现车辆的时候,它就可以自动的去规避,比如前面有车它可以慢慢停下来,然后还可以自动转向,如果需要往这边拐可以拐。
它的标准相当于现在我们说的一级,就是自动循环系统。在这样一种情况下,交通事故责任到底怎么认定?这里涉及一个问题,开始说到的,前面说的问题,首先我们必须给自动驾驶一个定性,对它定性了以后,才能对它进行适用法律。当一个自动驾驶汽车完全达到了自动驾驶的时候,到了四级、五级状态的时候,它就和人没有关系了,因为人不用操作它,人在自动驾驶汽车以后是没有任何作为的,跟着走就可以了,就是乘客。在这样一种情况下,汽车造成的损害,我们界定它,首先自动驾驶汽车是人工智能的一种表现成果,自动驾驶汽车既然是人工智能发展到这种情况,它有自己的自动化,它其实就是一个行走的机器人,可以运载的机器人。它是机器人,是人工造出来的,就具有人工类人,接下来它一定是一个产品,当四级和五级自动驾驶发生交通事故的时候,你觉得是人的责任还是车的责任?它就不再是人的责任。但是看到今天传统汽车的交通事故责任,只要发生交通事故,一定是人的责任。人的责任包括驾驶人的责任,汽车道路人的责任,他们之间怎么区别?就是现在侵权责任法第六章机动车交通事故责任要解决的问题,除了解决所有人和驾驶人之间的关系,还要解决使用人的,我们看一看,关于驾驶人和所有人的关系,基本上是在道路交通安全法76条规定,那里面规定了交通事故基本的规则。侵权责任法用了第48条,就讲的76条的规定。
侵权责任法第六章第49条到最后一条,关于交通事故责任,都是在处理机动车使用人和所有人之间的关系,比如借车给人家开,偷盗抢机动车发生交通事故应该怎么样,报废车、拼装车造成交通事故以后怎么承担责任,解决的都是这样的问题。不管道路交通安全法也好,还是侵权责任法也好,它们在解决交通事故责任的时候,都是这三个人的责任问题,所有人、驾驶人和使用人这三个人的责任。一个交通事故发生了,造成他人伤害和死亡,财产损害,我们就在这三种人去承担。概括一下,在传统的机动车交通事故责任当中,它解决的是人的责任,就是这些人谁去承担责任。但是一旦到了自动驾驶状态的时候,自动驾驶达到四级、五级的时候,和人就没有关系了,和这三种人一个都没有关系,完全是车的责任。车的责任是什么责任?就是产品责任。我们说当传统的交通事故责任适用侵权责任法第六章,自动驾驶汽车的责任就是产品责任,就是第五章。这样一分清以后,其实自动驾驶汽车交通事故责任一点都不难。
去年我们在美国讨论好几天,我就开始下决心要把自动驾驶汽车交通事故责任研究清楚,自动驾驶责任就是产品责任,产品责任就是生产者、消费者责任,再加一个人就是设计者。因为自动驾驶就是人工智能,设计它就是人工智能的科学家,他在设计自动驾驶系统的时候,他是设计缺陷还是制造缺陷,设计缺陷就是设计者要承担责任,制造缺陷就是生产者的责任。这样分析以后,其实自动驾驶的问题比较容易解决,我建议人大法工委能不能在侵权责任编的草案当中,民法分则的侵权责任编当中加进去自动驾驶这一条。我们要在立法当中加自动驾驶的条款,我们这个立法就走到了全世界的最前面,现在要论证我提出的规则到底行不行。
这一部分仍然不是这样简单,我们说传统汽车就是人的责任,自动驾驶汽车就是车的责任,现在很大一部分是介于两者之间。我们在一级、二级、三级的情况下,区分它是人的责任还是车的责任。就像刚才我给大家分析的案件,你们可以讨论一下,考虑一下,当自动驾驶汽车从一级到三级的时候,它都要求驾驶员时刻不可以放松警惕,对汽车的接管,他的操控,从一级、二级、三级逐渐减轻,但是都没有说驾驶员没有任何义务了,只有到第四级、第五级的时候才有。
现在看发生交通事故的车,这样的车,就是我们说在自动巡航过程中发生的交通事故,驾驶人打瞌睡的时候,双手离开方向盘,在这当中有一个汽车进来了,自动驾驶汽车识别了,又进来一个它又识别了,但是在以后的数秒钟发生了交通事故,与前边的清扫车碰撞,自动巡航的汽车不能识别出前面行使缓慢的清扫车,这部分如果说它是缺陷的话,是产品责任的话,这个汽车是不是有缺陷?人有没有责任?我们就要看产品的说明书,就是在这个级别的自动驾驶汽车都会给你一个非常重要的警告,他会告诉你,当你在自动巡航系统的时候,你在用自动巡航系统的时候,自动巡航的时候,你的双手不可以离开方向盘,脚不可以离开刹车,不可以放弃观察行使环境,如果不这样做会发生严重的人身伤害,甚至死亡的后果,这是警示。然后告诉你,自动巡航的过程中,跟汽车相似的物体都能分清,但是对于行使缓慢的物品和一些人的行为它分不清楚,所以你要特别特别警惕不能够放弃驾驶的警惕性。这部分就会看,让你不可以怎么样,你开车的时候睡着了,发生重大事故,这一点完全确定,损害的发生,是驾驶人的重大过失所致。
接下来判断车的问题,这种情况算不算缺陷?我们在产品责任当中确定缺陷,我们现在界定的是四种缺陷,一是设计缺陷,设计的时候就是有问题的。二是制造缺陷,设计没有问题,生产出现问题。三是这种产品投入生产的时候本身就包含危险,这个危险是合理的危险,这时候要给个充分的警示说明,只要你按照这个警示说明的时候危险就不会发生,就不认为是缺陷。但是你要没有充分的警示说明,就是缺陷。这种叫什么?有的叫经营缺陷,有的叫警示说明缺陷。四是跟踪观察缺陷,说什么?当一个产品生产出来的时候,当时的科学技术发展水平无法判断它有没有缺陷,就是有没有我不知道,看不出来,这种情况下也可以把这个产品投放市场,但是你要进行跟踪观察,一旦发现有缺陷的时候,立刻要进行警示或者说明,或者召回。前面这个情况,当时的科学技术发展不能够识别它有没有缺陷的时候,你可以投放市场,这个就叫发展风险规则。这是可以免责的,但是一旦发现问题以后,必须马上进行警示,要召回。这部分规定在侵权责任法第46条。
这四种缺陷当中,自动巡航过程当中,汽车的智能系统没有发现前面行使缓慢的物体,最后发生车祸,这个自动驾驶系统算不算有缺陷?有人认为有缺陷,有人认为没有缺陷。我们按照缺陷的标准看,这不是设计缺陷,也不是生产缺陷,它应该是属于产品中包含的合理危险。这样一个合理危险,它只要经过充分的警示说明,它就可以不认为它是缺陷了。最典型的合理危险需要警示说明的事例,北京现在是完全禁止放鞭炮,哪一个鞭炮没有危险?哪一个都有危险,但是这个危险是人工可以接受的危险,只要说的充分,造成损害跟生产没有关系。比如大家说的二踢脚,要求竖放,他非要横放,结果把你们炸伤了,谁的责任?如果拿在手里竖放把我手炸掉了,这是缺陷。因为二踢脚放在手里是没有危险的,不太可能放在手里爆炸,如果放在手里爆炸就一定是缺陷,一定要赔偿。说一个二踢脚放在地上,我去点的时候药捻燃烧的比较慢,再蹲下去看的时候,爆炸了,造成伤害,这个如果没有警示、说明的话,就是一个缺陷,如果有充分的警示、说明,就不是缺陷,因为它有可能是慢的,它要安全,让你跑到一定程度才能响,避免造成危险。
一个产品当中有一个合理的危险,这个合理的危险经过充分的警示说明,按照正确方法做的时候,就不会发生危险,用这样一个规则看我们自动巡航过程当中的汽车发生交通事故是不是这样?对识别慢的物体,自动驾驶汽车在巡航的时候,一级的情况下,它无法识别,现在技术也做不出来这样的,有这样一种危险它就告诉你这个危险是可以避免的,你双手放到方向盘上,发现问题你及时转弯,驾驶人直接控制汽车,一点问题都不会有。所以这样的案件在美国发生,最后判决厂商没有罪的,是受害人自己造成重大过失。
从这一点上说,传统汽车是人的责任,自动驾驶汽车,完全自动驾驶的状态是车的责任,是产品的责任。当处于一级到三级这个过程当中有部分自动驾驶功能汽车的时候,这时候应当判断是人的责任为主,然后看产品是不是有缺陷,如果真的有缺陷,它应该是产品责任,人要有过失是人的责任,那边有缺陷,那边有过失,最后构成过失相抵。自动驾驶汽车交通事故说到底,其实最后最后把它分析清楚的时候,不过就是三个层次,人的责任,车的责任,人和车责任结合一起的时候,看看是以哪个责任为主,这样就可以了。所以我觉得这个问题虽然说是世界性的难题,其实规则应该比较清楚的。
上一次在美国讨论这个问题的时候,美国有好多方面的专家参加讨论,有汽车制造商,有自动驾驶的设计者,还有公路交通管理部门,还有法学家,还有保险公司,从不同的角度来讨论这个问题,大家都觉得极其艰难。如果我们把规则限制过严的时候,会限制自动驾驶汽车的技术发展;限制过宽的时候,会造成人的利益的损害,所以必须找一个合适的规则。
这个问题说到最后,我想可不可以这样,大家都是学法律的,我们在学习法律、研究法律问题的时候,可不可以有两种思维,一种思维是把简单的事情搞复杂,另一种思维是把复杂的事情搞简单,把这两个部分都结合起来的时候,你就会在法学研究上会有新的发现,并且有新的解决办法,而且这个解决办法会比较恰如其分。
我原来写过一篇杂文叫简单与复杂,我说的是这样一个故事,我们搞法律的人有两种人,两种思维,第一种人是法官,法官的基本技能是把复杂的事情搞简单。比方说双方当事人争议的事情,极其复杂,脑袋都大了,法官听了好几天,审判一拍桌子说不过就是这么一件事情,然后找到法律适用的方法,其实法官最大的方式是这样的,找到适用的法律就完事。法学家不是,法学家是要把简单的事情搞复杂,我现在研究民法差不多40年了,我得出一个最基本的结论,我说民法就是人法。我这个结论重不重要?重要,但我把这个结论放到刊物他会给我多少钱?一个字十块钱!但是,我要把这个事情详细论证出来,写出几十万字,稿费可能值几万元。当然这是开玩笑,说我们怎样把一个问题分析清楚是需要论证,这个论证做的越详细、越周密,最后得出的真论就越扎实。别人看不到的东西法学家看到了,把它写出来,这就是创造。法学和法官的思维区别在这里,但是我们要把这两种方法都结合到一起的时候,那才是真正的法学家的思维,把问题看的很复杂,然后又能理清,最后得出一个结论,比如我用一百万字证明民法就是人法,最后得出一个结论,民法就是人法。我也想把这个想法推荐给每一位同学,你们都面临着写毕业论文的问题,如果要有兴趣的话,也要进行科研,要写科研的论文,还要大创、小创的写作,这些问题其实思维的方法都是一样的。你要借鉴我研究这个问题的方法,应该对你们的科研有很大的帮助。
我今天给大家介绍这个题目就介绍这么多,说了三个问题,就这么多,供大家参考。