(一)智能机器(人)自负责任
自负责任说主张,智能机器(人)行为的自主性使其应当对自身造成的损害承担法律责任。该说是建立在智能机器(人)能够作为独立的民事责任主体基础上的。有学者认为,由智能机器(人)独立承担损害赔偿责任虽然奇怪,却是合法且最佳的选择。[148]对此,有学者提出反对意见,认为这一观点混淆了技术上的自主性与主体意义上的自主性。“论者所主张的‘由自动驾驶汽车自负责任,为其设立责任基金并实行强制保险制度’的观点,只是限制了本来应该由制造商、设计者、销售商或者其他利益相关方承担的责任并将其在全社会范围内予以分散,而这种责任限制和责任分散的主要理由,就是将技术意义上的‘自主性’错误地理解为主体意义上的自主性。”[149]
(二)替代责任
替代责任是指某一类主体基于法定或约定的理由代替另一类主体承担法律责任,进而出现行为主体与责任主体分离的现象。替代责任存在的前提是法律主体多元化,如雇主与雇员、父母与未成年子女。行为主体与责任主体同一的情况下不存在替代责任。只有将智能机器(人)视为行为主体,才会出现替代责任。“如果智能机器人实际上‘代理或者代表’某个法律主体从事行为或者进行决策,那么可以比照父母对未成年人子女的责任或者说监护人对被监护人的责任,或者雇主对雇员的责任,让部署智能机器人的人承担替代责任。”[150]
1.代理人责任
“代理说的观点是,人工智能的所有行为均为人类所控制,其实施的行为与引起的后果最终必须由被代理人承担。”[151]在代理说的框架下,智能机器(人)与智能机器(人)的所有人、使用人或占有人之间是代理与被代理的关系。将智能机器(人)作为“人”看待是在代理关系的框架内理解智能机器(人)致害的民事责任承担的逻辑前提。智能机器(人)与管理者都属于主体的范畴,智能机器(人)是代理人而管理者是被代理人。智能机器(人)实施的行为反映了管理者的意志,责任由管理者承担。《欧盟机器人民事法律规则》第52 条使用了“非人类代理人”的概念,在一定程度上承认了智能机器(人)具有法律人格。在思瑞夫蒂电话公司诉贝森尼克案(Thrifty-Tel,Inc.v.Bezenek)中,法院认定思瑞夫蒂电话公司的智能系统为该公司的代理人或扮演类似代理人的角色,将智能系统的信赖归诸本人。[152]
“代理机制的引入和解释有效地解决了机器人—代理人和本人在从事民事活动中特别是从事民事法律行为中的效力判断、法律后果归属以及可能产生的民事责任的归属,本质上也属于一种查明和确定责任归属的法律机制。”[153]欧洲议会在《欧盟机器人民事法律责任》(Civil Law Rules on Robots)这一议案中表达了对既有法律框架调整合同行为的担忧。相对方选择、条款磋商、合同订立与履行因智能机器(人)的参与对传统法律规则体系的适用性造成冲击。有学者认为,这一担忧未免言过其实,其实传统的代理法律规则可以有效解决此类问题,《格里申法案》就是非常成功的解决范例[154]。《格里申法案》在责任规则设计上参照罗马法的特有产制度,让智能机器(人)在一定范围内享有独立财产并基于该财产独立承担责任。智能机器(人)的所有权人或占有人可以将部分财产转移给智能机器(人),由其占有或使用,在该财产范围内,智能机器(人)独立承担责任。[155]
代理说存在的问题主要有:①代理的权限如何确定?作为代理人的人工智能超越代理权实施加害行为时法律责任由谁承担?“鉴于人工智能的自主性,代理权限和范围很难确定,如果超出权限的加害行为得不到管理人追认,侵权责任应当由代理人,也就是人工智能承担,而这种责任对受害者而言显然是没有实际意义的。”[156]②代理人如何承担责任?倘若代理人无法承担法律责任,而被代理人需要承担所有法律责任,这就与代理人作为“人”而非“物”的理论预设相冲突。(www.xing528.com)
2.法人责任
法人责任说认为,智能机器(人)的法律地位类似于拟制的法人。赋予智能机器(人)主体地位的逻辑基点是伦理性人格还是工具性人格?主张赋予智能机器(人)类似自然人的人格或类似动物进行保护是注重伦理性人格,而主张赋予智能机器(人)类似法人的人格是注重工具性人格。法人是民事主体的一种类型,但是,它具有强烈的工具性色彩,不以伦理性为基础。《格里申法案》对具有高度自主性的智能机器(人)作类似于法人的处理,赋予其法律主体地位。法人责任说存在的弊端是:在“剥洋葱”理论的分析框架下,人工智能与法人剩余的内核存在本质的差异。将法人进行层层分解并剔除股东的因素后其只剩下空洞的内核;而将智能机器(人)进行层层分解并剔除管理者的因素后其剩下的可能是具有自主性的独立存在。法人的成立、运营、破产完全受人的控制,但人工智能有其自主性,很大程度上不受人的控制。[157]
3.雇主责任
雇主责任说认为,在技术中立原则下,管理者对人工智能实施的侵权行为因未尽到管理义务而存在过错的,应当承担类似于雇主责任的法律责任。我国《民法典》第1191 条对雇主责任进行了规定。有学者认为:“类推适用雇主责任说,将人工智能当作其所有者的雇员,其行使智能之行为,所创设之权利和义务应归属于主体。”[158]在雇主责任说的框架内,区分智能机器(人)的职务行为与非职务行为十分必要。“如果将智能机器人看作是事实上的雇员,为了明确雇主的责任,就必须提出判断智能机器人的职务行为和非职务行为的标准。”[159]
4.监护责任
“人工智能的法律地位并非一成不变,未来可能具有民事主体资格,适用监护制度。”[160]为智能机器人设立类似监护制度的前提是:①智能机器人具有独立人格;②智能机器人缺乏责任能力。[161]作为智能机器(人)监督者的监护人责任随之产生,“其职责是维护、监督人工智能的日常行为,矫正人工智能的非正常行为以避免损害发生。当损害发生时,监督者代替生产者和创造者承担赔偿责任,其履行赔偿责任后有权向生产者和创造者追偿。”[162]存在疑问的是,监护人即智能机器(人)的监督者是谁?是公权主体还是私权主体?监督者的权利和义务是否会失衡?这些问题都在积极探索中,尚无定论,需要进一步研究并提出解释或解决方案。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。