首页 理论教育 智能机器(人)的民事法律责任主体资格

智能机器(人)的民事法律责任主体资格

时间:2023-07-05 理论教育 版权反馈
【摘要】:反之,倘若智能机器(人)拥有独立财产,则其能够以独立的财产承担民事法律责任。智能是取得法律主体资格或成为民事法律责任主体的前提条件,但是,拥有智能并不必然能够成为法律关系中的主体。智能机器(人)的设计者、制造者或使用者会利用智能机器(人)的民事法律责任主体资格逃避责任。

智能机器(人)的民事法律责任主体资格

人工智能导致的损害(AI-caused harm)将伴随人工智能应用领域的扩张持续增长。出现自动驾驶汽车导致事故、智能诊疗系统导致误诊、智能投资顾问出现误判等情况应当由谁(who)或者什么(what)来承担责任?联合国世界科学知识与技术伦理委员会(COMEST)发布报告,就智能机器(人)民事法律责任承担的问题提出了两种方案:一是让参与智能机器创造、生产和应用的人分担责任;二是让自主决策和行为的智能机器人独立承担责任。有学者认为:“这两种责任分担方式可能都不完善,因为既无视人类科技发展过程中的固有偏见,也忽略了科技被居心叵测的使用者用做他途的可能性。”[84]另有学者在“人工智能类别化”的基础上构造了“九宫格”模型的三维法律责任主体规则体系。“一类人工智能”为人造人,如科幻影片中的“机器管家”;“二类人工智能”为人造机器或人造机器人,如智能网联汽车、无人机、服务机器人等;“三类人工智能”为人造程序,如语音或图像识别、智能搜索、智能投顾软件等。[85]

(一)学说见解

1.综合考量说

智能机器(人)是算法支配下的硬件系统,虽然其决策或行为离不开初始程序设计者和制造者的行为,但是不能简单地将其等同于人类控制的工具。“对于人工智能侵害的民事责任,也不宜简单适用传统民事责任制度的处理原则,而应当结合人工智能的拟人属性,予以特殊的综合考量。”[86]高丝敏教授认为考察人工智能的责任主体适格性需要综合考量独立意识、伦理考量、独立财产等三个因素。

2.民事责任能力说

以智能机器(人)是否具有人形标准或应用场景标准确定其是否需要承担民事法律责任无疑是一种过于简单化的方式。“对‘人工智能+X’的法律规制的‘类型化’不能以‘人形’或‘非人形’为分界点,亦不能以‘X’所在领域为分界点,因为是否具有人形以及应用于何种领域并不具有必然的法律意义,而应当以法律责任能力为基础,这样方能回归法律规制的本意。”[87]有学者认为,是否拥有独立财产通常会被认为是判断民事责任能力的标准。“独立财产是承担民事责任的基础,而人工智能通常没有独立的财产用以支付民事赔偿。”[88]由此可以推论,智能机器(人)不能承担民事责任,也不能作为民事责任主体。反之,倘若智能机器(人)拥有独立财产,则其能够以独立的财产承担民事法律责任。另有学者认为,关于智能机器(人)的独立财产和民事责任能力的思考是将简单问题复杂化,徒劳无益,“人工智能没有独立财产,也不具有相应的责任能力,其产生的责任只能由其所有人或控制人负担。”[89]

3.参与主体分摊责任说

“机器人的责任问题,首先应当考虑的是人类的责任,而并非是机器人的责任。”[90]参与主体分摊责任说认为,设计智能机器(人)民事法律责任规则的目的不在于规范智能机器(人)的行为,而在于规范和引导人工智能技术的研发与应用。因而,承担民事责任的并非智能机器(人),而是参与人工智能技术研发和应用的主体。

智能是取得法律主体资格或成为民事法律责任主体的前提条件,但是,拥有智能并不必然能够成为法律关系中的主体。“奴隶当然也是具有智能的,但是这并不妨碍奴隶主对于奴隶的致害行为承担责任。”[91]未取得民事主体资格的智能机器(人)是受人类支配或利用的工具,属于产品的范畴,自身并不具有独立的人格和财产,需要由占有、使用或所有该智能机器(人)的主体承担民事法律责任。“最终人工智能的侵权责任还是要由相关自然人完全承担或补充承担,而人工智能本身无法独立承担民事义务与责任,不具备民事责任能力。”[92]

智能机器(人)作出的决策或行为是设计者、制造者、使用者等诸多主体共同作用的结果,因智能机器(人)产生的民事法律责任亦应由各参与主体进行分摊。“让所有参与到机器人的发明、授权和分配过程中的人来分担责任。”[93]这是基于风险控制的责任分配方式,“如果最终负有责任的主体得到确认,其所应承担的责任应与其给予机器人的指令级别以及机器人的自主性程度相称。”[94]

参与主体分摊责任说面临的困境是智能机器(人)自主决策或行为时的责任承担依据缺失。当智能机器(人)自主决策或行为时,参与人工智能技术研发和应用的主体对其行为无法准确预见也无法控制,对于此时将民事责任归咎于参与主体是否合理存在疑问。

4.法律实体说

智能机器(人)不同于一般的物或产品,智能化因素使得其决策或行为与人的意志之间的关系复杂化。需要区分智能机器(人)致人损害是人的意志的结果还是智能机器(人)自身意志的结果。法律实体说以具有自我感知和自主学习能力的智能机器(人)具有独立的意志并能基于该意志进行独立判断为前提,认为智能机器(人)的决策或行为已经脱离了人的控制,具备独立承担法律责任的能力。“以主体意识参与到民事关系中来的智能机器人必须承担相应的责任,必须以主体身份参与到民事活动,作为法律关系的承担者。”[95]

5.机器自主性说

“具有类似人类独立思考与深度学习的能力是人工智能与其他科技最大的差异。”[96]人工智能技术的研发和应用对既有民事法律责任体系构成冲击,求诸机器自主性,赋予智能机器(人)法律人格并由其承担民事法律责任的观点应运而生。“这种观点甚至在没有得到有力论证的情况下,就得到了产业界、立法者甚至学界不少人士的支持与赞同。”[97]《格里申法案》虽然提出机器人可以独立拥有财产并承担责任的建议。但是,对于这一大胆设想并未提供相应的落实措施。该法案中规定:“机器人—代理人拥有独立的财产并以之为自己的债务承担责任,可以以自己名义取得并行使民事权利和承担民事义务。在法律规定的情况下,机器人—代理人可以作为民事诉讼的参加者。”[98]

6.刺穿面纱

民事法律责任主体资格存在被形式化和工具化的可能。智能机器(人)的设计者、制造者或使用者会利用智能机器(人)的民事法律责任主体资格逃避责任。比照公司法中“刺穿法人面纱”的理论和规则设计,在一定情形下需要透过智能机器(人)民事法律责任主体资格,追究背后主体的责任,即向智能机器(人)主张责任承担的主体能够如同刺破法人面纱一样,主张由智能机器(人)的控制人承担责任。[99]

(二)弱人工智能时代的民事法律责任主体:以产品属性为基础的分析

1.工具论视角下的分析

传统工具论以主体与客体二元划分为基础,作为客体的人工智能产品只是人类实现一定目的的工具,并无独立的意志或行为决策能力,与之相关的后果归属于利用人工智能产品的人,人工智能产品并非侵权的行为主体或责任主体。“弱人工智能实质上是人类活动的辅助与工具,其也无独立之意思表示,对该阶段人工智能侵权责任之追究与其他凭借工具侵权之情形并无差异。”[100]

以智能机器(人)的工具性为逻辑基点,智能机器(人)不具有独立的法律人格,不能为其行为造成的损害独立承担责任。在现有的责任规则体系下,智能机器(人)的行为归因于设计、制造、支配、使用智能机器(人)的人类个体或组织体。其功能不是惩戒致害主体,而是促使支配或利用智能机器(人)的主体避免致害行为发生。

弱人工智能时代智能机器(人)的工具性特征是构建民事法律责任规则体系的基本理论预设。智能机器(人)制造得再精巧或者再复杂,都不过是人类设计的结果,要受制于人的行为。作为调整社会关系手段之一的法律,其关注的对象是人而非技术本身。法律对技术的影响是通过调整人与人之间的关系实现的。郑戈教授认为:“法律应当去规制被技术改变后的社会中的人,从而使技术对人类社会的影响能够朝着善和正义的方向去发展。”[101]作为工具的智能机器(人)与汽车、电脑、房屋等人类占有或使用的物一样,发生事故造成损害,需要由生产者、所有者或使用者承担法律责任。换言之,以智能机器(人)的工具性特征为中心的法律规则体系设计是以智能机器(人)决策或行为的被动性为前提的,智能机器(人)决策或行为的模式为“命令—行动”。智能机器(人)的决策或行为不过是人的行为的延伸,造成的损害当然应当由智能机器(人)背后的行为人负责。

2.民事法律责任主体类型

“《侵权责任法》自身的规则设计和背后蕴藏的制度张力能够较为妥善地解决现阶段的人工智能侵权的责任纠纷,在传统民法人物二分的制度构建下不应随意扩大民事主体的范围,以免徒增法教义学上的困惑。”[102]人工智能的研发与应用主体多元化使责任追究变得复杂化。现有的民事法律责任规则体系以人工智能产品作为法律关系客体为基本前提。机器的工具性是传统民事法律责任规则设计的基础。人工智能是程序员编程的结果,人工智能产品是工具性的存在。机器参与的活动不过是人的行为的延伸,造成的损害应当由智能机器(人)背后的行为人负责。人类利用人工智能产品与利用其他工具在本质上并无区别,因此人工智能产品造成的损害应当由其制造者、销售者、所有者、使用者等主体负责。(www.xing528.com)

(1)研发阶段:算法设计者

人工智能时代,算法几乎无处不在,人类生活在算法的世界中。社会主体的上网痕迹、购物记录、位置信息等数据信息经算法处理后转化为一定的分数,影响社会对主体的评价以及主体未来的决策。在互联网的世界中,以为自己是主宰的人类往往被禁锢在算法的牢笼中。算法决定人们看到什么,预测人们会如何行动或决策。算法在一定程度上决定了智能机器(人)的决策或行为。通过规则约束算法设计者的行为能够起到防范或避免智能机器(人)随意决策或行为的作用。有学者认为:“如果是人工智能技术研发者即自动驾驶机动车的软件设计者提供的软件存在缺陷,则自动驾驶机动车的生产者、设计者应当按照《民法典》第1203 条规定承担不真正连带责任。”[103]

(2)生产和销售阶段:智能机器(人)的制造者

“掌握核心技术的生产者作为风险的基本来源,具有较强的风险掌控能力,亦能通过集中化解风险的手段抽调出更多的社会资源。”[104]智能机器(人)是人类制造的产品,制造者对产品致人损害需要承担责任的情形主要包括:第一,因制造缺陷而致人损害的责任。制造缺陷是指因制造者未尽到必要注意义务而导致智能机器(人)存在产品缺陷。智能机器(人)因制造缺陷致人损害,制造者需要承担法律责任。第二,因制造者的恶意使得智能机器(人)致人损害。人类智能是人工智能的原动力和基础,制造者在制造智能机器(人)的过程中,改变算法设计或硬件设计而导致损害的,制造者需要承担法律责任。

流通环节连接生产环节和消费环节,起到桥梁作用,智能机器(人)由制造者转移至所有者或使用者进入消费环节通常需要经由销售者实现。销售者对产品致人损害需要承担责任的情形主要包括:第一,在销售环节因销售者的过错使得智能机器(人)出现缺陷;第二,受害人因产品制造缺陷向销售者请求赔偿。

有学者对销售商就制造缺陷承担连带责任提出质疑。人工智能系统的设计以及内在工作模式具有不透明性和难以解释性,“复杂人工智能系统在设计上存在的缺陷,不仅消费者们难以发现,就算是下游的生产商与销售商同样无法知晓。”[105]销售商与消费者对人工智能研发和应用细节的不知情被作为否定销售商承担连带责任的理由。这一观点虽不无道理,但是值得商榷。相对于消费者,销售商在风险认知和控制上具有明显优势。销售商作为沟通生产商与消费者的桥梁,对生产者进行追责更为容易。倘若免除销售商的连带责任,对生产情况甚至生产商信息不知情的消费者可能陷入无法获得救济的困境。

(3)使用阶段:智能机器(人)的所有者和使用者

在智能机器(人)被作为产品的情况下,因使用产品而造成损害的,由使用者或所有者承担责任。杨立新教授认为:“产品使用行为的后果要归产品的使用者、所有者承担。”[106]

(4)影响力标准

在智能机器(人)尚不具备独立意识的前提下,其无法对自身行为对第三人造成的损害负责。依据现行法律规范,智能机器(人)造成的损害由其制造者、所有者或使用者等主体负责。上述主体基于危险物品责任或产品责任承担相应的民事责任,旨在通过注意义务避免相应的加害行为发生。“从研发到使用全过程的所有参与者,他们对于人工智能的侵权责任的承担与其对该人工智能的影响呈正相关,也就是说,对人工智能的影响越大,侵权责任应当越重。”[107]在研发过程中,人类通过算法设计决定了人工智能的初始等级、功能、用途等。在生产过程中,人类决定了人工智能的外观、材质等。终端的消费者则在数据训练方面影响人工智能。“生产者、销售者、消费者(管理人或使用人)三者相比,对人工智能的影响逐渐减弱,责任程度逐渐减轻,这一点看来是合理的。”[108]

(5)大口袋原则:以受害人救济为中心的责任主体范围确定

为拓宽受害者得到救济的途径,有学者建议根据《民法典》第1170 条关于共同危险行为规则,将智能机器(人)的制造者、设计者甚至服务提供者都纳入责任主体的范围,在无法查清责任主体时由上述主体对受害人承担连带责任。[109]存在疑问的是,共同危险行为以侵权行为人实施了导致损害发生的危险行为为前提。但是,智能机器(人)的设计者以及精密地图的提供者等参与主体可能只是参与了前期研发工作,他们就智能机器(人)的实际应用场景根本不知情,不具有控制风险的能力。倘若要求上述主体承担连带责任,与风险控制的一般原理相悖。应当严格限定大口袋原则适用的范围,不能使责任承担成为人工智能技术研发与应用的障碍,妨害技术进步和社会发展。

(三)强人工智能时代的民事法律责任主体:以自主性为基础的分析

随着人工智能技术的革新,智能机器(人)行为的被动性理论预设被动摇。智能机器(人)的认知和学习能力不断增强,冲击着现有民事法律责任规则体系赖以存在的理论假设。自主智能机器(人)的决策和行为虽然是人类设计者编程和制造的结果,但是并非程序设计者直接指令安排的结果。自主智能机器(人)能够对在不同场景获取的信息进行分析、判断并作出决策,而这并非是程序设计者事先安排或可以预料的。当智能机器(人)的行为具有自主性,行为模式转变为“感知—思考—行动”时,智能机器(人)的行为与人的行为相对独立,将智能机器(人)造成的损害归责于生产者、所有者或使用者的基础被动摇甚至丧失。“机器人的自主性越强,就越难将其当成是其他主体(比如制造商、所有人、使用者等)手中的简单工具,这反过来使得既有的责任规则开始变得不足,因而需要新的规则。新的规则着眼于如何让一台机器为其行为或者疏忽而部分或全部地承担责任。”[110]智能机器(人)能否作为独立民事责任主体的问题值得深入思考。

1.行为相对独立性视角下的分析

人工智能的智能要素决定人工智能产品与一般的产品之间存在差异。拥有深度学习等算法的智能机器(人)的行为和决策并非程序员最初设计的结果,智能机器(人)具有相对独立的推理、判断及决定的能力。智能机器(人)在决策或行为方面的相对独立性,切断了行为与人类主体之间的联系,将智能机器(人)作为侵权行为的主体具有了理论上的正当性。换言之,智能机器(人)的自主性增强,其工具性特征弱化,将其致害行为归因于人类个体或组织体的正当性随之减弱。传统民事法律责任规则无法满足新形势的要求。

侵权行为主体与责任主体通常是同一的,即实施侵权行为的主体需要承担侵权行为产生的不利法律后果。但是,侵权行为主体与责任主体也存在分离的现象,如职务侵权行为。智能机器(人)即便能作为侵权行为主体也并不意味着其当然能够成为侵权责任的承担主体。“对于人工智能,侵权责任与赔偿责任可能不统一,因为人工智能是物,无法承担侵权责任。但与一般机器侵权的无过错责任不同的是,人工智能可以用自己的保险、基金、劳动报酬来支付其损害赔偿。”[111]

2.泛自主性现象

目前人工智能技术的研发与应用尚未达到智能机器(人)能自主行为导致侵害或损害的程度。2016 年11 月中下旬,在深圳召开的第十八届中国国际高新技术成果交易会(China Hi-Tech Fair)中上演了机器人意识觉醒、威胁人类安全的一幕。在没有得到任何指令的情况下,名为“小胖”的家用服务型机器人突然打砸玻璃,致路人受伤。事后,“小胖”的展商北京进化者机器人科技有限公司发布声明称,“小胖”机器人发生“失控”行为不过是由于参展人员误操作。“小胖”机器人的行为缺乏自主性,并无独立意志。对“小胖”机器人拟人化的过度解读不过是部分媒体渲染和炒作的结果。[112]

类似事件在德国也有发生,网络报道盛传德国大众公司的机器人突袭技术人员。该报道称一名技术人员在安装机器人的过程中,处于静止状态的机器人突然“抓住”其胸部并将其“压在”铁板上,最终导致技术人员死亡。溯本求源,该消息最初来自原英国《金融时报》网络版的一则报道。该报道原文使用了“struck”(撞击)一词,并将该事件解释为工业事故。但是此后的报道用“catch”(抓住)替代了“struck”(撞击),将其描述为因技术故障而导致的“杀人案”。

耸人听闻的故事不过是主观臆想、夸大其词和以讹传讹的结果,并非事实真相。事后辟谣发现,轩然大波不过是无风起浪。艾伦·温菲尔德(Alan Winfield)教授称:“很遗憾,大家夸大了机器人的能力,而且过分惧怕机器人。科幻电影和媒体报道让大家变得过分敏感。”[113]机器人自主决策、自己负责的基础尚不具备。外观上独立的自主行为仍然是程序设计的结果,机器人并没有独立意识,更不会恶意攻击人类。人类在编程或操作中出现的错误被转嫁给了机器人,机器人成为人类的替罪羊。

即便智能机器人作为独立民事责任主体的条件尚不成熟,也有必要对由人工智能造成的人身或财产损失的责任主体重新进行思考。如何将行业标准与事故责任分配机制相结合、人工智能设计者与所有者和使用者之间的关系等问题的解决方案直接关系到人工智能行业的未来发展。“联合国教科文组织与世界科学知识与技术伦理委员会在2016 年的报告中……在对机器人的操作失灵造成事故,形成责任承担问题时,报告甚至提出,可以让智能机器人承担责任,因为智能机器人确实拥有前所未有的自主性,并且拥有能够独立作出决策的能力。”[114]

在人工智能技术研发与应用的前景无法准确预见的情况下,法律对民事责任主体规则的设计需要兼顾现实与未来。一方面,根据目前人工智能技术研发和应用的情况,侧重将人类而非智能机器(人)作为责任主体进行规则设计,考虑智能机器(人)决策和行为的自主性,在主客体二元划分的框架下探索特别规则;另一方面,考虑到人工智能技术研发和应用的未来发展,为有条件地赋予智能机器(人)法律主体地位预留空间。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈