意志、理性均源于人类心灵的能力,正是这种能力使得为人类确立道德法则成为可能。而在现有的技术水平下(弱人工智能时代),智能机器(人)显然不具备人类心灵的能力。不能基于这种人工的“智能”,就认为智能机器(人)可以与自然人比肩而成为法律中的人。
从功利的角度出发,是否需要为智能机器(人)拟制主体地位,取决于这种拟制的目的是否正当、手段是否合适,即是否符合工具理性的要求。仅出于限制智能机器(人)的制造商或设计者的责任的目的,不构成为拟制法律人格的正当目的。
或许在将来的某一天,从功利的角度出发需要拟制智能机器(人)的法律人格,这种必要性就需要有实践的基础并得到充分的论证。
随着人工智能技术的发展,“人工智能”、“智能机器”、“智能机器人”这些概念进入了人们的视野。内华达州开了美国自动驾驶汽车立法之先河,于2011年通过AB 511法案,对“人工智能”下了一个定义:人工智能是指使用计算机和相关设备以使机器能够重复或模仿人类的行为。当智能机器的概念与人们原已拥有的“机器人”的观念相结合的时候,“智能机器人”的概念又被提出来了。这样,人们不禁疑惑,智能机器(人)在法律上能不能算人?
2017年2月16日,欧洲议会投票表决通过《就机器人民事法律规则向欧盟委员会的立法建议[2015/2103(INL)]》(以下简称“机器人民事法律规则”),其中最引人注目之处,就是建议对最复杂的自主智能机器人,可以考虑赋予其法律地位,在法律上承认其为“电子人”(electronic person)。不过,是否承认智能机器人具有法律人格,存在激烈的争论。
讨论智能机器(人)是否可以被赋予法律人格或法律主体的问题,首先需要厘清的是,什么是“法律中的人”?
有权利能力
才能成为法律认可的“人”
为了确定谁可以成为法律中的人,民法学引入了“权利能力”这一概念。权利能力成为法律中的人的“标签”。简言之,有权利能力,就是法律中的人;没有权利能力,就不是法律中的人。
作为近代以来“人的解放”的重要成果,每个自然人(man)生而为人(person),不分年龄、性别、民族、种族、职业等具体情形的不同,都具有权利能力,此为各国国内立法和国际公约所普遍承认。但是,法律中的人(person)与我们通常所理解的“人”,并非同一个概念。为了将这两者相区分,我们将“法律中的人”用“法律主体”这个概念来替换。
法律中的主体,除了自然人之外,尚有“法人”。我国《民法总则》第57条明确规定,法人具有权利能力。其实,“法人”本来就是“法律中的人”的简化表达形式,从这个意义上讲,自然人具有权利能力,也是“法人”。但是习惯上,人们将“法人”概念限缩为专门用来指称除自然人以外的法律中的人,按照《民法总则》的规定,法人是具有权利能力的组织。
若是将智能机器(人)定位为电子人(electronic person),即一方面是说,智能机器(人)也是法律中的人(person);另一方面,这种法律中的人既不是自然人(natural person)也不是法人(legal person),而是一种新的类别——电子人。若是智能机器(人)与自然人、法人一样,可以是法律中的人,也就意味着他们之间必然具有某种共性。
那么,智能机器(人)是在哪些方面与自然人或法人相类似,以至于需要赋予其法律人格或法律主体地位呢?
智能机器(人)
还不具备自然人的心灵能力
法律中的人的“权利能力”,究竟是谁的能力、又是什么样的能力呢?权利能力是法学对人的理性能力的抽象化和概念化。依现有的哲学,意志、理性均源于人类心灵的能力,正是这种能力使得为人类确立道德法则成为可能。用康德的话说,“可以把纯粹理性看成是一种制定法规的能力”。
即使是尚不具备理性能力的婴幼儿、虽然成年但却丧失了理性能力的不幸者,法律也承认其具有权利能力。对此需要加以解释,人的意志、理性是人类区别于自然界其他事物、生命的本质特征,因此,即便某些人类个体与一般情况有所偏离,仍不妨碍我们将其视为同类,并且依“等者等之”的正义观,承认其仍然为法律中的人。
智能机器(人)与自然人的类比,显然不是从其外在物理或形体特征角度出发的。智能机器(人)不是因为外形与人类相似,而使人产生它们也是“人”的联想的。从目前的讨论来看,智能机器(人)与人类的比较,着眼点在于其“智能”。
AlphaGo战胜人类最优秀的棋手、微软小冰能够“创作”诗歌,这些人工智能技术的新成果,使得不少人认为有的智能机器(人)可以比人类更聪明。而欧洲议会建议赋予电子人地位的智能机器人,也是着眼于最复杂的自主智能机器人。这种类比思维使我们回过头来反思,究竟什么才是人类的理性能力?是不是会下围棋、可以写诗,就具备了人类的理性能力?
需要指出,机器人的所谓自主性,具有的是纯技术本质。欧洲议会建议的“机器人民事法律规则”明确说明:机器人的自主性可以被界定为,在外部世界作出独立于外在控制或影响的决定并实施这些决定的能力;这一自主性具有纯技术本质,且其自主性程度取决于机器人被设计成的可与其环境进行交互的复杂程度。欧洲议会关于赋予智能机器人电子人格的建议,并非因为其自主性使其具有了人类的理性能力。
近期,中科院院士张钹接受记者采访,指出引发这一轮人工智能技术进展的深度学习算法,本质上是概率统计。深度学习是寻找那些重复出现的模式,重复多了就被认为是规律(真理)。因此,现在形成的人工智能系统非常脆弱,容易受攻击或欺骗,需要大量的数据,而且不可解释,存在严重的缺陷。张院士认为,我们现在还没有进入人工智能的核心问题。人工智能的核心是知识表示、不确定性推理等,知识表示、在开放系统中进行不确定推理的能力等,才是人类理性的根本。
总结而言,在现有的技术水平下(弱人工智能时代),智能机器(人)没有自主目的、不会反思、不会提出问题、无法进行因果性思考、没有自己的符号系统,显然不具备人类心灵的能力。虽然人工智能使用了“智能”这一语词,但是这个“智能”前面还有“人工”这一限定语。因此,不能基于这种人工的“智能”,认为智能机器(人)可以与自然人比肩而成为法律中的人。
智能机器(人)
与法人的比较
智能机器(人)与法人的比较,则存在更多的争议与不确定性。这是因为,法人是否具有自然人据以成为法律中的人的权利能力的内核即理性能力,一直存在极大的争论。
关于法人本质的几百年来的争论,随着各国立法普遍承认(或赋予)法人以权利能力、承认其作为法律主体的地位,而逐渐淡出人们的视野。而智能机器(人)的法律地位问题,使这个古老的问题又焕发出生机。一些人正是从与法人的对比中获得灵感,主张或呼吁赋予智能机器(人)以法律主体地位,这就要求对作为被比较对象的法人有进一步的认识。关于法人本质的问题,有一些共识是学界已经达成的,这些共识可以作为我们对比智能机器(人)与法人的出发点。
首先,法人的背后其实离不开自然人。
法人的目的由自然人设定,法人通过自然人的代表(或代理)从事民事交往,法人通过自然人的理性响应法律的行止要求。人类社会之所以可以由法律来调整并构建秩序,是由于人的理性决定了法律能够通过规范人们的行为来调整社会关系。那么,智能机器(人)能否理解法律的行止要求?能否根据法律的要求来规范自己的“决策”?在现有技术条件下显然无法做到。这样,智能机器(人)也不得不依赖于其背后的人来响应法律的要求。例如,德国《道路交通法第八修正案》第1a条要求高度或者全自动驾驶汽车能够在高度或者全自动驾驶期间遵守交通法规,这就要求设计或制造自动驾驶汽车的人将道路交通规则内化于自动驾驶汽车的决策逻辑之中。所以,德国的法律是对人提出了要求,而不是对自动驾驶汽车本身提出要求。
其次,法人作为其背后众多自然人所构建的法律关系的结点,有利于简化法律关系,便利民事交往。
以社团性法人为例,如某钓鱼俱乐部,可能有众多的俱乐部成员甲、乙、丙等等。如果该俱乐部需要购买钓鱼用品,或者需要租用钓鱼场所,以俱乐部的名义来缔结合同并享有权利、承担义务,比起以甲、乙、丙等等的名义来缔结合同,要简便得多。那么,将智能机器(人)类比于法人,能否实现简化法律关系、便利民事交往的目的呢?至少从目前来看,还无法想象如何通过赋予智能机器(人)法律主体地位以实现法律关系的简化。
再次,法人能够实现将特定财产用于特定目的的财产特定化需求。
财产的特定化,在遗产的限定继承和将遗产本身作为一个财团法人方面,就有所体现。近代以来,企业的产生、主权者之间的经济竞赛的需要,使得财产的特定化以法人或者信托的形式得到极大发展。从人们对智能机器(人)成为电子人的遐想来看,也要求其制造商、设计者、销售者或者其他利益相关者以智能机器(人)登记为基础,为其设立责任基金。在本质上,这一做法就是为智能机器(人)分配一定的财产并且将其特定化为智能机器(人)的责任财产。但是,通过法人实现的财产特定化,实际上是对近代以来法人作为社会生产的基本组织单位的法律认可。相较而言,目前关于智能机器(人)致损事故法律责任的讨论,包括欧洲议会建议的“机器人民事法律规则”,均将智能机器(人)的生产者或设计者的产品责任作为处理智能机器致损事故的主要法律机制。显然,智能机器(人)的生产者和设计者通常都是法人。法人本来就已经实现了财产的特定化,并且经过特定化的用于生产、经营等的法人财产同时也是其责任财产。这样,赋予智能机器(人)以法律人格,在实际效果上就是将法人的财产加以进一步分割和特定化,从而限制为其设计或制造的智能机器(人)的致损事故承担的责任。这就涉及到下面将要论及的法人与其他法律主体之间的关系问题。
最后,法人的法律主体地位导致了法人与其成员的关系以及法人与法人以外的其他法律主体之间的关系这样两类需要法律予以关注和解决的问题。
法人与其成员的关系引发了法律上关于成员资格、成员权等的相关制度构建;而法人与其他法律主体的关系,则主要涉及劳动者、消费者以及法人的一般债权人这三类法律主体。在法人与其一般债权人的关系上,问题的核心在于法人是否仅以自己的责任财产承担责任,换句话说,法人的成员是否仅承担有限责任。虽然有限责任制度在近代以来的经济发展过程中发挥了巨大的作用,并且至今仍然占据主导地位,但是只有在可以与法人的债权人的利益达成大致平衡的情况下,才是可持续的。并且,经济社会发展到今天,有些公司的股东主动或被动地承担补充出资责任,承诺在公司资不抵债的情况下对公司的债务负责,这是我们在思考有限责任的合理性时所必须注意到的。
智能机器(人)并非组织,无所谓成员问题,因此考虑赋予其法律人格,主要就涉及与其可能的债权人之间的关系。目前来看,智能机器(人)充当经营者或从事其他商事活动还只是人们的想象,其涉及的主要对外关系就是与其致损事故的受害人之间的损害赔偿责任问题。智能机器(人)若成为法律主体,就意味着其损害赔偿责任应由其自己承担,而智能机器(人)的制造商或设计者则可以类比法人的有限责任而在原则上无须担责。若果真采取这样的制度设计,固然有利于鼓励更多的公司致力于智能机器(人)的设计与制造,使得他们不用担心被人工智能技术可能存在的不可预见的风险引发的损害赔偿责任所击垮,但是对于智能机器(人)致损事故的受害人而言,却是极不公平的,因为他们将可能承担无端的、自己根本无法预防和控制的风险。
可以看出,目前学界普遍承认从功利的视角看待法人。法人之权利能力,是对近代以来社会生产方式和社会组织方式的法学构建。在某种意义上,权利能力一方面解放了自然人,另一方面又将其禁锢于法人之中。回到智能机器(人)的法律地位问题,若是其主体地位不能通过与自然人的类比而得到承认,那么与法人相类比的结果,就是要求回答下面的问题:从工具理性的角度出发,为什么要将其拟制为人?
为何承认智能机器(人)是“人”
是有待回答的问题
从功利的角度出发,是否需要为智能机器(人)拟制主体地位,取决于这种拟制的目的是否正当、手段是否合适,即是否符合工具理性的要求。
若是仅服务于限制智能机器(人)的制造商或设计者的责任的目的,不构成为拟制法律人格的正当目的。从手段的角度来讲,作为法人的制造商或设计者正处于便利的地位,可以通过产品定价等机制在全社会范围内分散新技术应用所可能带来的风险。另一方面,他们还可以通过保险机制进一步分散风险。因此,即便仅从手段的角度来讲,也不必采取拟制主体地位的方式来达到本来已经可以达到的目的。
但是,也应该看到,技术和产业的发展日新月异,我们今天想象不到的为智能机器(人)拟制法律人格的必要性,或许在将来的某一天会凸显出来。但是,既然这是从功利的角度出发考虑是否需要拟制法律人格,并非出于智能机器(人)在伦理上的应然地位,这种必要性就需要有实践的基础并得到充分的论证,并且,这种论证责任应该在主张赋予其拟制法律主体地位的一方。
在人工智能产业发展如火如荼的今天,关于智能机器的法律地位的探讨,可能被某些产业界人士诟病为不利于产业的发展。然而,产业发展与事故受害人的救济应该是并行不悖的。这也是众多的自动驾驶汽车设计者或者制造商主动声明愿意承担责任的原因所在。沃尔沃总裁宣称将“对其自动驾驶模式下汽车造成的损失承担全部责任”;谷歌和戴姆勒也都提出,如果他们的技术有缺陷,他们将承担责任。因此,产业的发展只有在能够平衡产业内外不同主体之间的利益关系尤其是在高度尊重自然人的生命、身体、健康等伦理价值的情况下,才是可持续的。