(一)技术社会的主奴悖论
技术社会中出现主体客体化和客体主体化的情形,引发主奴悖论。一方面,技术社会中人的主体性局部丧失,异化为缺乏思想和灵魂的存在。强调执行而非理解的技术社会中的人犹如接收和输出信息的接线员,人的主体性出现弱化倾向。“法国哲学家米歇尔·福柯在《词与物:人文科学考古学》(1966)中提出了‘人之死’的观点,这里的人是指人文科学意义上的人,即有关人的观念和学说。按照福柯的分析,‘人之死’是以康德的人类学为基础的哲学的消失,是19 世纪以来以人为中心的现代知识形态的消失。”[4]另一方面,技术社会中作为客体的机器因智能化而具有了一定的主体特征。“技术并不仅仅是工具,或者不仅仅是达到目的的手段;相反,其是政治行动者,手段与目的密不可分。”[5]人工智能技术的研发与应用使得智能不再专属于人类,智能机器(人)能像人一样思维、决策和行为,其工具性弱化而主体性增强。计算机被《时代》周刊评为年代人物,这一戏剧化的方式向人类宣告了后人类时代即将到来。
“从民法理论角度观察,要成为责任主体,就必须属于民事法律关系的主体。”[6]智能机器(人)的智能属性注定其不会像其他人类创造物一样,仅仅是一种工具性或手段性的存在。智能机器(人)是人吗?即智能机器(人)的法律人格问题自人工智能概念产生之日起便成为人类不懈探索的难解之谜。[7]由于人类认知水平的限制,智能机器(人)的法律人格问题一直停留在科学幻想和纯粹理论分析的层面,智能机器(人)未能突破以客体形式存在的藩篱。[8]这一状况在近10 年间发生了变化,智能机器(人)的法律人格问题从科幻和书斋走进现实,出现被认可的趋势,如外形酷似海豹的宠物机器人“帕罗”(Paro)在日本取得户籍,沙特赋予人形机器人索菲亚(So⁃phia)以国籍,美国国家高速公路交通安全管理局(NHTSA)认可谷歌(Google)驾驶系统具有司机地位。倘若智能机器(人)具有法律主体地位,则作为交易或生产对象的规则需要进行重新设计,这将会引发财产权制度、交易制度以及责任制度领域的深刻变革。“人工智能时代的到来,正在倒逼法学理论重新审视法律人格制度,从社会现实与法律理论的双重视角探求有无必要以及如何赋予人工智能体法律人格。”[9]
(二)作为客体存在的智能机器(人)及遭遇的挑战
1.智能机器(人)作为客体存在的理论预设
主体与客体严格区分的二元框架是构建近现代民法体系的基础之一。传统法律体系中智能机器(人)的法律定位以智能机器(人)的工具属性和主体与客体二元区分为基础。智能机器(人)是由有形载体承载计算机编程的结果,是人类创造或设计的产品,与人类利用的众多其他工具无异,属于可供人类支配或利用的财产。Robot 一词源于robe(奴隶),机器人是类似奴隶的“会说话的工具”,被定位为人类的奴仆。人工智能是一种工具性或手段性的存在,在法律关系中处于客体地位,不具备承载权利、义务或责任的资格。
将智能机器(人)作为客体存在的理论预设,注重人工智能中“人工”的部分。“人工”意味着智能机器(人)是人类的创造物,是人类智慧的结晶,是人类征服世界的外在表征。人类与人工智能类似于造物主与创造物的关系。所谓智能机器(人)的行为并非其自主意志的结果,而是人类意志的体现或折射。
智能机器(人)创作诗歌、新闻稿、小说等不过是人类意志的延伸。人类借助智能机器(人)进行创作与借助电脑、打字机等设备进行创作并无本质区别。设计或使用人工智能的人类是创作的思想源泉,作为法律关系客体的人工智能不具有享有权利的资格。在私权体系中,权利主体与权利客体不仅相对应,而且彼此之间的法律地位不得转换,所以权利主体不能是权利客体,权利客体亦永远无法成为权利主体,只可能是法定支配权指向的对象。[10]智能机器(人)对创作物享有权利的命题倘若成立,无异于认可客体对客体享有权利,这在传统法律体系框架内难以实现理论自洽,因此是荒谬的。同理,人工智能也不能作为承载义务或责任的主体。作为工具的智能机器(人)实施行为的背后隐藏着设计者、制造者、使用者等人类主体的意志,其导致的社会危害或造成的损失应由传统法律意义上的人承担。总之,人类创造了智能机器(人)并将其作为工具,所谓的智能机器(人)的行为不具有独立于人类意志或行为的价值,智能机器(人)不能取得法律主体资格。
2.智能机器(人)作为客体存在的理论预设遭遇的冲击
时至今日,人工智能作为客体的理论预设仍然具有存在的现实基础。从人工智能技术发展的角度看,虽然人工智能在诸多领域呈现出优越于人类智能的特点,但是能够与人类智能媲美的通用型人工智能仍处于探索研发阶段。当下人工智能主要扮演任务执行者的角色,即按照人类预先设定的程序和指令作为或不作为。关于智能机器(人)基于自主意识而行为的技术是否可能,学者尚未形成共识,人工智能技术的应用也未能达到普及的程度。
即便如此,人工智能作为客体存在的理论预设也并非固若金汤。人工生殖技术和人工智能技术的发展与应用模糊了主体与客体二元划分的界限。第一,人工生殖技术的发展与应用冲击了主体与客体二元划分的传统民法理论,在主体与客体之间出现了过渡性的模糊地带。人工生殖技术的临床应用使得在人体以外合成的胚胎的法律地位模糊化,难以在传统的“人”或“物”的概念中寻求归属。在江苏省宜兴市发生的人体冷冻胚胎权属争议案[11]中,宜兴市人民法院和无锡市中级人民法院都认为体外受精的人体胚胎具有发展为生命的潜能,不同于一般的物。无论将其称为“特殊之物”还是“介于人与物之间的过渡状态”都说明传统民法理论和规则无法满足现实生活的需要,应当进行调整。相较于将体外受精的人体胚胎作为“特殊之物”和“介于人与物之间的过渡状态”的观点,承认在人与物之外存在第三种物质存在形式是更具有革命性和颠覆性的。
第二,人工智能技术的发展与应用冲击主体与客体二元划分的传统民法理论,在主体与客体之间出现了过渡性的模糊地带。机器智能化悄然改变了人与机器之间的关系,将智能机器(人)作为客体的理论预设的正当性开始动摇。首先,在人机共处的场景中,人的行为与智能机器(人)的行为发生混合,是否需要将人与机器作为混合体进行规制以及如何规制的问题产生。混合体中的机器部分难以继续作为客体被对待。其次,在学习算法主导的应用场景中,智能机器(人)是行为的发出者,这与客体作为行为的承受者发生冲突。“主体做出行为,客体承受行为——但一个行为着的客体算什么呢?对法律而言,这种不确定的区分将引发一个又一个难解之题。”[12]最后,在强人工智能场景中,人与智能机器(人)之间的关系出现拟人化倾向。“当机器人变得足够复杂的时候,它们既不是人类的仆人,也不是人类的主人,而是人类的伙伴。”[13]一方面,“人们经常把情绪和意图赋予机器人,把机器人不是仅看作‘物’或‘纯粹的机器’。”[14]另一方面,智能机器(人)学习和认知能力的不断增强冲击着智能机器(人)作为纯粹客体的理论预设。智能机器(人)的行为模式由“命令—行动”转变为“感知—思考—行动”,其行为的自主性增强,智能机器(人)的行为与人的意志或行为之间的联系逐渐被切断,将人工智能创作物的权利归属于人类或者将智能机器(人)造成的人身或财产损失归责于生产者、所有者或使用者的基础被动摇甚至丧失。
人工智能行为的独立性、自主性模糊了民事主体与民事客体的界限,引发对民事法律关系中法律人格理论基础的深层思考,直接冲击传统民事法律制度中的民事主体规则、权利归属规则以及责任承担规则。人工智能是否具有法律人格成为规则体系重构的核心与关键,而解决这一问题又必须以反思传统法学理论和法律体系中取得法律主体资格的正当理由和条件为基础。
总而言之,传统私法理论认为,法律主体与法律客体相互区分且不能相互转化。在这一理论预设下,作为人类创造物的人工智能是一种客体性或工具性的存在,不能作为法律主体。智能机器(人)既不能作为权利主体取得人工智能创作物的著作权,也不能作为责任主体对其造成的损失承担责任。伴随计算机科学和人工智能技术进步,人工智能深度学习能力增强,其部分行为已经具备了自主性的要求,不再是人类事先设计或安排的结果。人工智能时代智能机器(人)工具性特征的弱化,打破了传统的主体—客体二元框架,传统民事主体理论暴露出缺陷。机器智能化使得民事法律规则设计复杂化。《格里申法案》体现了立法者对智能机器(人)复杂且矛盾的心态,该法案在主体、客体、责任等部分均对智能机器(人)作出了规定。[15]
(三)关于智能机器(人)法律主体资格的认识分歧
客体转化为主体存在理论上的可能性,但是客体主体化的过程是艰难的,其间存在诸多不适应性。斯通(Christopher Stone)教授认为:在每一场试图把权利赋予某些新的“实体”的运动中,相关的提议不可避免地让人感觉是奇怪的,或者是可怕的,抑或是可笑的。[16]智能机器(人)能否作为法律主体在认识上存在分歧。
1.否定说:权利客体说
否定说认为智能机器(人)属于动产中的产品,在法律上应当定性为物,是客体性的存在。“人工智能应当是法律上的‘物’。”[17]“人工智能是人所利用的客体,而人则属于主体,二者泾渭分明。”[18]“机器人无论以何种方式承担责任,最终的责任承担者都是人,这使得它的‘法律人格’显得多余和毫无必要,经不住‘奥康剃刀’(如无必要,勿增实体)的检验。”[19]人工智能法律规则的设计需要以人类对人工智能的理性认知为基础。在人类对人工智能是否能够自主生成意识以及自主意识的程度缺乏明晰认识的情况下,赋予人工智能独立的法律主体地位不过是基于虚构事实的规则假想,对社会生活难以起到有效调控的作用。
“人工智能是人控制之下的,人能力的延伸物,它本身没有内源性的行为能力,也没有内源性的权利能力。”[20]智能机器(人)作出判断的基础并非自由意志,而是数据分析。基于数据分析进行动态实时判断不能被认为是独立意思表示的结果。智能机器(人)决策或行为的目的从属于人类,因而智能机器(人)本质上属于机器,不具有独立的法律主体资格。“人工智能是孙悟空,而人类却是如来佛和唐僧。”[21]
智能机器人的名称中虽然有人的字样,但是这里的人是在非严格意义上人类对具有部分人类特征的机器的称谓。智能机器(人)是人类制造的、具有部分与人类相同或相近要素的产品,即便它可能具有人的外形、类似于人类的智慧、独立意志和相对独立的社会角色,也只是物而不是人,不具有人格,不过是特殊的工具。“高端智能机器人虽然有人的外观形象,有人的一些功能,可以实施某些类似于人的行为甚至有一定自主性的行为,但它的基本属性仍然是物。”[22]赋予智能机器(人)法律主体资格并无必要,不能假借法律主体制度逃避责任。在“姆拉塞克诉布林矛尔医院”(Marcek v.Bryn Mawr Hospital)一案中,法院将因达芬奇医疗机器(人)故障造成的损害认定为产品责任,并依据《美国侵权法重述(第二版)》第402 条a 款作出判决。“通过这一案件我们认识到:当机器人致害时,现行法律实践仅将其认定为产品或者权利客体而非法律主体。”[23]
智能机器(人)不同于自然人,也不同于自然人集合体的法人。自然人是当然的意思表示主体。法人和非法人组织的意思表示是由自然人组成的机构实现的,其意思表示的主体可以追溯至自然人。智能机器(人)工作的素材是人类输入的特定领域的知识,其行为性质缺乏独立的目的性和自主意识,因而“将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处”[24]。将智能机器(人)与法人进行类比论证忽略了“自然人之于法人”的重要意义,无法在理论层面完成证成。[25]“公司与机器人的重大区别在于,公司总是‘通过’人类来运营。”[26]
(1)工具说
工具说严格划定人类与作为人类创造物的智能机器(人)之间的边界,并坚守主体与客体二元划分的逻辑框架,将智能机器(人)归入与主体相对应的机器的范畴。智能机器(人)是人类创造的产物,其最初的定位为客体而非主体。“人工智能缺乏作为自然人的自我意识、理性和道德感,缺乏人类之‘灵性’,没有需要保护的伦理价值,其本质上只是一台机器。”[27]有学者对工具说提出质疑,认为该说忽视或否认智能机器(人)的智能属性,与人工智能技术不断发展和进步的趋势相悖。“这种学说的弊端在于忽略了人工智能的自主性,人工智能技术目前已经发展到可以独立表达自己意思并作出行为的阶段,如特斯拉汽车可实现无人驾驶,在这一点上,人工智能早已超越传统的工具。”[28]“索菲亚”“帕罗”缘何能够取得国籍或户籍?当然,就该质疑也存在两点疑问:第一,技术发展是否已经到了智能机器(人)能够独立、自主为意思表示和行为的阶段?第二,智能机器(人)不同于传统的工具能否作为智能机器(人)脱离工具的行列进入主体范畴的充分理由?
(2)人工类人格说
持否定说的学者也并非一概否认人格制度适用于智能机器(人)的可能性。有学者跳出非此即彼的思维方式,寻求介于主体与客体之间的第三种主体形态,提出“人工类人格”的概念,认为“人工类人格是智能机器人所享有的,通过人工制造的类似于或者接近于自然人人格的民事法律地位”[29]。赋予智能机器(人)人工类人格是在典型的法律意义上的主体与客体之间发现第三种存在形态。智能机器人正是因为具有人工类人格,才区别于普通的物,也区别于普通的产品,属于物的最高类型即伦理物格的物。[30]
智能机器(人)的工具性法律人格以财产相对独立或资产特定化为前提。但财产独立或资产特定化作为主体隔离资产和限制责任范围的手段并非人工智能时代首创。法人制度的创设在主体拥有的不同类型的财产之间设置了防火墙,所需承担的责任被限定在预先安排的范围内。该制度解决了因商事活动失败而导致商事主体承担的责任无限扩大进而影响个人生活或其他商事活动的问题,为商事主体从事创新活动提供了制度保障,排除了后顾之忧。法人制度的资产隔离和特定化效果为商事活动创新和社会发展繁荣做出了重大贡献。智能机器(人)的工具性法律人格仍然是以人类主义为中心的。人工类人格说需要以智能机器(人)登记作为配套制度设计。“每一台人工智能都需到监管部门强制登记,获得‘身份证’,确定其专属管理人。”[31]这一做法的目的在于进行身份识别。[32]“我国应当建立机器人强制登记制度,确保机器人在推向社会之前获得唯一的编号。这既是机器人权责追溯的必要保证,也是确立个体机器人法律主体地位的基础。”[33]为满足责任追溯的需要,《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》提出了对智能机器(人)进行分类并引入登记制度的设想。智能机器(人)登记分为自愿登记和强制登记。《格里申法案》规定了机器(人)自愿登记制度。未登记的机器(人)不能作为代理人,不能取得权利主体地位。[34]
权利客体说的依据包括以下几种学说:
(1)无独立财产说
有学者认为,是否拥有独立财产是判断智能机器(人)是否拥有独立人格的考量因素,基于智能机器(人)没有独立财产推论其不享有独立法律人格。社会实体转变为法律意义上的人需要满足形式和实质双重要件。“物质性要件是指,拥有从事活动所需的财产或其它必要条件。相对于意志能力,物质性要件是判断法律人格的‘形’。”[35]这一观点有颠倒责任主体资格与财产独立性之间的因果关系之嫌,是以实然推论应然,合理性存在疑问。智能机器(人)不具有独立法律人格是其不能独立享有财产权的原因,不能基于智能机器(人)名下没有财产就认为其不能取得法律人格。在制度设计的层面,赋予智能机器(人)法律人格,将财产登记在其名下或由其占有并不存在技术上的障碍。此外,财产是否需要他人进行管理并不影响财产权的归属,更不会影响其法律人格。例如,未成年人缺乏行为能力,需要借助监护人对财产进行管理,但是不能以此为由否定未成年人作为权利主体的资格。
(2)政策选择说
法律人格是社会存在经法律认可而享有权利并承担义务和责任的资格,它具有社会性。政策选择说将视角从理论证成转向政策选择,从法律价值判断和政策选择出发,认为是否赋予某一社会存在以法律主体资格需要考虑人的需要,赋予人工智能法律人格会导致人类非人化的后果,因而应当排斥。“民法并不把现实世界的一切实体都确立为法律关系主体,而是在立法政策的作用下,选择一定的实体赋予其民事主体地位。”[36]政策选择说在禁止生殖性克隆人类技术应用的国际公约中得以体现。[37]“某一特定社会的法律以及赋予该特定社会成员的权利与义务是‘人类境况’(human condition)的表达。……将机器人当作人类一样对待将会使人类非人化,所以我们应当避免持有这种态度。”[38]因而,无论是在现在还是在未来,将智能机器(人)视为与人同等重要的存在都不符合人的需要,不应成为政策选择的结果。
(3)时机不成熟说
时机不成熟说关注法律制度设计与现实生活之间的关系,将法律主体制度设计置于当下的社会环境中,不再纠结人工智能技术的未来。人工智能技术的研发和应用在当下仍然没有突破工具论的范畴。即便基于学习算法的智能机器(人)有一定的自主性,但就其整体而言仍属于产品。人工智能技术的研发与应用尚未对传统的法律规则体系造成颠覆性冲击,赋予智能机器(人)民事主体资格的时机尚不成熟。“在短时期内仍然应当坚守传统民事主体理论,而不宜将智能机器人规定为民事主体。”[39]时机不成熟说关注当下主体规则体系,又保持体系的开放性,为未来制度创新预留空间,具有一定的理论解释力。
(4)道德能力缺乏说
道德能力缺乏说认为,具有道德能力是成为法律意义上的人的前提条件,缺乏道德认知能力的社会存在不能取得法律主体地位。智能机器(人)不具备道德认知能力,因而不能成为法律意义上的人。有学者对此提出质疑,认为“该说忽视了道德与法的根本区别,我们可以说道德主体必然为法律主体,但法律主体未必是道德主体”[40]。
2.肯定说:权利主体说
肯定说认为,法律发展史表明民事主体的范围并不是固定不变的,它呈现扩张趋势,自主智能机器(人)能够独立作出决策并行为,就应当赋予其法律主体地位。人格的概念并不是对现实世界的描述,而是法律判断和抽象的结果。“‘人格’(persona)这个拉丁词的原始意思就是面具或者角色。罗马法承认了各种作为非自然人却享有权利并承担义务的主体,比如自治城市(municipia)或者工会(collegia)。”[41]人工智能与生理意义上的人之间存在区别不能作为否定其具有法律人格的正当理由。“智能机器人摆脱人类的纯粹工具地位而获取主体身份,将是一个必然的趋势,相关的法律关系主体制度设计也将面临重大变革。”[42]“《机器人也是人:人工智能时代的法律》一书也提出,鉴于人工智能具有自动决策的能力,法律应当赋予其法律人格,将其视为独立的法律主体;对于人工智能引发的事故,理当由人工智能本身来承担责任,而非消费者和制造商。”[43]
(1)代理说
《欧盟机器人民事法律规则》第52 条提出“非人类的代理人”概念。“代理说认为,人工智能的行为均来自于其管理人的意思表示,行为后果归责于被代理人,相当于管理人的代理人。”[44]将智能机器(人)当作人类的代理人,智能机器(人)虽无需对外承担责任,但是其独立人格得到默认。
(2)电子人格说
《欧盟机器人民事法律规则》第59 条f 款有条件地承认智能机器(人)的法律主体地位,即对于能够作出自动化决策或行为的复杂机器(人)可以赋予其电子人(Electronic Persons)的法律地位。电子人格的取得不仅需要生产和制造智能机器(人)的事实,而且需要经过申请程序得到国家认可。
(3)拟制说
“‘拟制’是将实为权利客体的人工智能认定为民事主体的法律技术。”[45]拟制说为作为权利客体的智能机器(人)转变为法律主体扫清了法律技术上的障碍。“法律拟制说认为,人工智能虽不具备人的属性,但可‘视为人’,类似于法人。”[46]该说扩张了法律主体的范围,通过法律拟制的方式将智能机器(人)纳入法律主体的范畴。值得注意的是,即便能够赋予智能机器(人)以法律人格,其拟制人格与法人拟制人格也存在本质区别。赋予法人拟制人格的基础是法人背后之人的意志,而赋予智能机器(人)拟制人格的基础是人工智能的智能因素。相同立法技术下拟制人格的基础各不相同。
3.折中说
折中说通常不在人和物的二元划分中对智能机器(人)进行定性,而将其视为第三种类型的存在。“人工智能不是物,但‘他’同样也不是人。”[47]“在现实条件下,将人工智能定义为具有智慧工具性质又可作出独立意思表示的特殊主体较妥。”[48]折中说不否认智能机器(人)具有法律人格,但是,也不认为智能机器(人)具有与人同等的法律人格。
(1)电子奴隶说
“电子奴隶说的观点是,人工智能不具备自然人的特殊的情感和肉体特征,它有行为能力可是无权利能力。”[49]具备智能是成为法律主体的前提条件,但是,拥有智能并不必然代表能成为法律关系中的主体。智能主体与智能工具在法律地位上有差异,需要透过智能工具,揭示其背后主体的责任。古罗马法中的“奴隶”虽然具有独立的思维和意识,但不是具有权利能力的主体。智能机器(人)类似于罗马法上的奴隶,这种“电子奴隶”形式上是人,实质上并不是人,其行为后果需由“主人”承担。“奴隶当然也是具有智能的,但是这并不妨碍奴隶主对于奴隶的致害行为承担责任。”[50]
(2)有限电子人格说
智能机器(人)享有的“电子人格”,不同于自然人的人格,是参与方法律人格聚合的结果,仅在一定范围内具有自主权。智能机器(人)虽然没有生命但是拥有“智能”,赋予其有限法律人格是一种适应未来科技发展的“兼具创新的保守方式”[51]。有学者认为,当下折中说缺乏理论上的正当性,“支持赋予人工智能有限法律人格的观点,并不能实现法理逻辑的自洽”[52]。
徘徊于主体与客体之间的折中说貌似兼容了智能机器(人)的工具性和主体性,缓和了不同学说之间的对立和冲突。但是,折中的做法与法律的稳定性相矛盾,法律规则可以考虑主体或客体的特殊性进行差异化设计,却不能在主体与客体之间任意转化。有限人格说对智能机器(人)主体地位的态度影响其关于民事法律责任承担的规则设计。有限法律人格对应有限民事法律责任,而余下部分则由智能机器(人)的参与主体,如制造者、设计者等承担。但是,有限民事法律责任的范围如何划分往往模棱两可。
4.学说评析
肯定说与否定说共同的逻辑基点是在法律的视域范围内严格区分主体与客体,不存在游离于主体与客体之间的存在形式。折中说突破了主体与客体严格二元区分的界限,承认第三类存在形式。目前关于上述三种学说的讨论往往存在以下误区:
(1)同义反复,预设结论(www.xing528.com)
法律主体地位、权利能力、法律人格、资格等概念虽然在具体表述和关注角度方面存在差异,但是在法律层面实质上相同或高度类似。作为法律概念,人格先于权利能力出现。古罗马法中人格被分解为自由权、家长权和市民权,丧失上述权利的全部或者部分会导致人格减等。《德国民法典》首次使用了民事权利能力的概念。在现代社会,民事权利能力与人格概念同义。拉伦茨认为:“在法律上,权利能力是指一个人作为法律关系主体的能力,也即作为权利享有者和法律义务的承担者的能力。”[53]在讨论智能机器(人)能否作为法律主体问题时,经常有学者在预设智能机器(人)不具有民事法律资格或不具有权利能力的基础上论证智能机器(人)不具有法律人格,不能作为法律主体。
(2)依据既有的民事法律规范判断人工智能的法律地位,以实然推断应然
有学者认为:“无论人工智能有多接近于自然人,其不具有人的‘身份’,与法人的虚拟身份也不尽相同,没有出生不会死亡,自然也没有民事权利能力。”[54]以是否存在出生或死亡的事实作为判断民事权利能力有无是以既有民事法律规则为依据作出的判断。而智能机器(人)是否应当具有民事权利能力,能否作为民事法律关系主体是一个应然的法律命题。以实然的既有法律规范为依据并作严格解释,进而认为智能机器(人)不应当具有民事权利能力,不能作为民事法律主体,存在逻辑上的漏洞甚至错误。首先,“出生”和“死亡”能否作为判断民事权利能力有无的依据?“出生”和“死亡”是判断民事权利能力起点和终点的依据,并非判断民事权利能力有无的依据。其次,对于“出生”和“死亡”的理解是以自然人为标准的,在适用于法人时进行了扩张解释。但是,法人并非是对“出生”和“死亡”等概念进行扩张解释的边界,将上述概念扩张解释至智能机器(人)具有理论可能性。
(3)颠倒权利能力与权利之间的关系,以实然否定应然
梅迪库斯(Medicus)认为:“权利能力是指‘成为权利和义务载体的能力’。”[55]从逻辑关系的角度看,民事权利能力是民事主体享有民事权利的前提条件,民事主体的权利能力先于其享有的具体权利而存在。有学者以既有民事权利体系下人工智能缺乏对应的权利类型为由否定人工智能应当具有权利能力,颠倒了权利能力与权利之间的关系。
(4)考察智能机器(人)能否成为法律主体,需要从人类中心主义和非人类中心主义两条路径分别进行分析
在人类中心主义的框架下,不能简单地因为智能机器(人)不是生理意义上的人就否定其法律主体地位。“人之为人”,区别于其他物种或事物的根本属性是什么?倘若智能机器(人)与人在“人之为人”的根本属性上并无区别,则智能机器(人)亦应纳入法律主体的范畴。在非人类中心主义的框架下,单纯的“类保护”或“类关怀”作为判断法律主体资格的标准不再具有充分的正当性,命题转换为具有何种属性方能成为法律主体。
(四)智能主体一元化视角下智能机器(人)法律人格思考:涵摄式路径
在智能主体一元化视角下,人类是现实世界中唯一具有心智和灵性的社会存在,是法律主体制度设计的唯一原型和基础。智能机器(人)作为人类创造物,不具有与人类同等或者类似的心智和灵性,原则上不具有法律人格。但在特定情境下,为了满足人类利益的需要,可以通过拟制的立法技术,赋予部分社会主体法律人格。智能主体一元化体现了“人是万物的尺度”这一人类中心主义思想。
智能机器(人)法律人格的涵摄式路径是指通过解读传统法律人格理论和规则体系中法律人格的内涵,分析智能机器(人)与传统民事主体的异同,考察智能机器(人)能否被纳入“人”的范畴中。这是借助逻辑三段论推理解决智能机器(人)法律人格问题的路径。其中,大前提是享有法律人格需要具有若干基本要素,小前提是智能机器(人)具有或不具有上述基本要素。大前提中基本要素的模糊性和争议性以及小前提中确定智能机器(人)是否具备基本要素的技术性是该路径实施的难点。
1.“人之为人”的正当理由
民事主体即民法上的人是民事权利、义务和责任的载体。传统民法体系中,民事主体资格或法律人格制度的设计具有浓厚的人类中心主义色彩。在主体和客体二元划分框架下,人占据主体地位,人以外的其他事物是人类征服的对象,以客体的形式存在。法律主体资格的判断标准以人为基本参照系。传统的主体资格判断标准主要包括三个方面,即生理学标准、心理学标准和社会学标准。作为法律主体,从生理学角度而言需要具有人体和大脑;从心理学角度而言需要具有独立的意志;从社会学角度而言需要具有独立的社会角色。[56]
基因是判断“人之为人”的基本标准。民法上的人以生物学意义上的人为基础或原型。在这一意义上,日常生活中,“人”通常指“自然人”(human being)。法律意义上的“人”是经过法律技术处理的结果,指向权利和义务的承担者(subject)。[57]但是,民法上的人并不简单等同于生物学意义上的人。根据基因标准的限缩与扩张,民法上出现了“人可非人”与“非人可人”的现象。各种法律体系对人的承认分为不同种类:①正常自然人(human being);②变态自然人,例如白痴;③超自然存在;④动物;⑤无生命体,例如船舶;⑥法人(juristic person),例如社团(corporation)。[58]
(1)基因标准的限缩:身份标准下的“人可非人”现象
近代社会以前,“基因+身份”被作为判断能否取得法律人格的标准。基因标准将非生理意义上的人排除在民事主体的范围外。但是,生物学意义上的人并不必然能够作为法律主体而具有权利能力或责任能力,即“人可非人”。法律以“强而智”的人像预设为基础设计主体意义上的人,将具有“弱而愚”特征的生物学意义上的人排除在法律主体之外。法律主体资格是一种特殊的身份,不具有普遍性。古罗马法中,奴隶以客体的形式存在,与牲口并无差异;妇女、未成年子女的主体身份存在瑕疵;即便是作为一家之主的成年男性也可能遭遇人格减等。
(2)基因标准的恢复:自由意志标准下民法上差异化的人
近代社会,经过“3R 运动”[59],身份标准不再被作为判断能否取得法律主体资格的依据。是否具有人类基因成为取得法律人格的唯一标准,具有决定性作用,即生理学意义上的人都具有法律主体资格。概言之,生物学意义上的人等同于民法上的人,具备转化为后者的充分条件。
生物学意义上人与人之间事实上存在的差异在抽象法律人格中被抹平。人人平等、独立、自由的时代最强音在民事主体法律规则中得以体现。自然人的权利能力与行为能力分离。权利能力对应法律人格,一切具有人类基因的存在都应当无差异地取得民事主体资格,成为民法上的人;而行为能力体现了具有同等法律人格的不同类型群体在参与现实社会生活能力方面的差异。判断主体的行为能力时采用自由意志标准,即基于主体拥有自由意志的强弱区分主体行为能力的类型。换言之,根据抽象法律人格理论,基因标准是判断社会存在[60]是否具有法律人格的决定性标准,而自由意志则是对具备法律人格的主体进行进一步类型化细分的标准。基因标准使生物学意义上的人以“类存在”的方式获得普遍保护,成为权利、义务、责任的承载主体。自由意志不是决定社会存在能否具有法律人格的因素,它影响拥有抽象法律人格的主体直接参与社会生活的范围。“而当意志能力确实不具备时——例如新生儿或白痴的案件——法律所归属给这类变态自然人的意志便并非来自于某个确定的个人,而是来自于大众,或是大多数正常自然人。”[61]社会主体在人像预设上仍有“强而智”和“弱而愚”的区分,但是这一区分并不具有将某一群体排除在法律主体之外的作用,仅影响法律主体的行为能力及相应的责任能力。
现代社会对消费者和劳动者等特殊群体利益的关注使法律人格制度从无差异的抽象法律人格向有差异的具体法律人格转向,法律规则设计在一定程度上实现“从契约到身份”的回归。这一回归的目的并不是复辟特权思想,而是对弱势群体利益进行特殊保护。具体法律人格理论与抽象法律人格理论在将基因作为判断法律人格的决定性要素方面不存在差异,两者的不同之处在于抽象法律人格理论中的人像预设是单色调、无差异的,而具体法律人格理论中的人像预设考虑了社会生活中主体事实上的差异,在法律人格上进行类型划分。
(3)基因标准的扩张:延伸保护标准下的“非人可人”现象
基因标准的扩张是指包含人类基因的非人存在或以人或物聚合形态存在的非人组织因直接或间接满足基因标准,在不同程度、不同范围内被视为民事权利主体。也就是说,非生物学意义上的人在特定条件下存在取得法律人格的可能性。一方面,人类基因在法律规则设计中的重要性使得人格利益出现被延伸保护的趋势。载有遗传基因的物质,如受精卵、尸体等,受人格利益延伸保护,不同于一般的物,不能简单地被视为客体。胎儿利益受到法律保护,在一定范围内视为具有法律人格。[62]“克隆人”在技术上的可能性以及伦理上的正当性方面存在争议,但是,一旦“克隆人”成为现实,因其本质上与人类并无差异,取得法律人格应当没有障碍。另一方面,社会生活中自然人既可以以独立个体的形态出现,也可以以聚合的形态存在。虽然自然人与团体在意思表示的方式上存在差异,但是在本质上具有同质性。作为自然人集合体的公司、合伙以及社会团体组织虽然不属于生物学意义上的人,但是法律在不同程度上承认其主体地位。赋予自然人聚合形态下的团体组织以法律主体资格是自然人主体资格延伸的结果。“法人制度从来没有威胁到人的主体地位,反而被视为是人的手臂之延展,进而被认为是实现人的价值的最伟大制度发明。”[63]
2.基因标准下智能机器(人)的法律人格分析
基因标准下的法律人格分析属于典型的属性论。属性论认为,社会存在能否成为法律主体取决于一定的属性,特定的属性能够将人与其他物种区分开。近代以前与法律主体相关的属性为基因和身份;近代以后基因成为影响法律主体资格的决定性属性,身份属性被淡化。而到了现代社会,将基因作为判断法律主体资格的唯一属性的做法遭到质疑,动物、人工智能能否成为法律主体的问题随之产生。
以是否具有人类基因或是否属于人类基因延展所及的范围来判断人工智能是否具有法律人格具有明显的人类中心主义倾向。它深蕴“对人终极关怀”的价值理念,体现了法律规则为人类服务的目的以及对“类存在”的人的普遍尊重。“人是万物的尺度”,人类之外的存在都是一种客体性或工具性的存在。将基因标准推向极致,肉体也被赋予了特殊的重要性,成为人性不可或缺的组成部分。卡罗瓦(Karlowa)认为:“肉身并不仅仅是人性驻留的居所,它与灵魂一道组成了人性,而对于生活来说,灵魂则与肉身不可分离地结合在一起。”[64]基于此,有学者认为,人体是由细胞组成的有机体,拥有生物大脑。而由电路和元件构成的智能机器(人)的“大脑”即便拥有类似人脑的功能,仍不具备生物学要素。“只需这一点根据,就足以否定人工智能机器人的民法地位肯定说。”[65]
基因属性是一种形式化的外在判断标准。它将人与其他物种区分开来,在法律上予以特别保护。其逻辑思路非常简单、明确,即法律是人类制定并为人类服务的,因而人的存在具有目的性、主体性,人之外的其他物种的存在具有手段性、工具性。这一人类中心主义的判断标准是基于“类”保护和关怀得出的不言自明、无需论证的结论,缺乏逻辑说理的成分。它是在预先设定的关系结构而非现实的关系结构中考虑而得出的结果。“一种关系性结构已经在那里预先存在着,这使我们认为机器人就只是‘机器’或者一个‘它’,而不是把它看作我们的‘同伴’或‘他’。”[66]
严格的基因标准下的智能机器(人)与动物或植物类似,因不具有人类基因而原则上不具有法律人格。但是,严格的基因标准在立法上存在例外,非人类基因的社会存在并非绝对地被排斥在具有法律人格的主体之外。当今社会,有部分学者主张并在一些国家或地区的立法中体现的“动物权利论”或“生态权利观”就将部分与人类基因无关的社会存在纳入法律主体的范畴并加以保护。将智能机器(人)类比动物是为了和无生命的物相区别,而适用伦理规则和人道主义原则。事实上,“动物权利论”或“生态权利观”不过是人类基于整体利益或未来利益进行考量的结果,仍然以人类利益为出发点和终极目的。“那种赋予动物权利的法律体系可能也存在过,甚至目前也一定存在——例如古埃及的猫和暹罗的白象。在这类稀少的案例中,一定要将人类的意志归属于动物。”[67]动物权利以及动物取得权利主体资格命题的提出,并未对法律主体制度构成实质性冲击。动物权利观建立在人类利益本位的基础上,是人类利益折射的结果。
法律规则是人类社会设计的产物,与人类基因相关性的强弱成为判断社会存在能否作为法律主体的标准。在这一理论预设下,不具有人类基因的社会存在原则上不具有法律人格,作为例外,基于利益考量可以规定非人类的社会存在在一定范围内具有法律人格。与动物一样,人工智能能否具有法律人格是人类设计的结果。人工智能即便被赋予法律人格,也隐含着将人工智能作为工具性、手段性而非目的性存在的预设。如同影片《机器管家》中的情形,赋予人工智能以法律主体资格不过是人类的“恩赐”。人工智能作为具有法律人格的主体并不具有与人类同等的地位,其权利的享有和行使都是人类设计的结果且最终是为了服务于人类社会。
法律人格制度具有较强的价值宣誓功能,它反映了人人生而平等的价值理念,明确人是目的性而非手段性的存在。将人作为区别于其他生物或社会存在的独立类型予以特殊的“类保护”是主体与客体二元划分的基石。智能机器(人)的法律人格充其量是法律拟制的结果,属于拟制主体(fictitious person)。在人工智能语境下,我们并不排斥在法律上拟制出一个新的主体,或与法人一样,从拟制自然人的角度赋予新的主体或者法人以相同或者类似的法律地位。[68]视智能机器(人)为法律主体的立法技术本身蕴含着人工智能无法与人类智能比肩同行的意涵。正如拟制的法人主体资格和部分国家或地区赋予动物部分主体资格一样,视机器人为法律主体具有明显的工具性和手段性,是人类为实现一定的目的而采用的法律手段。“因为多元主体资格的承认在终极意义上都是对自然人尊严平等与人格自由的尊重。人工智能体作为新生的社会存在物,对其法律主体资格的赋予,仍需奉行与强化这一普适的人之价值。”[69]
智能主体一元化以人类智能为中心进行主体制度设计,强调人类智能的本源性和绝对控制性,坚持人类中心主义立场。它建立在对人类智能绝对自信的基础上,将人类智能视为智慧的源泉,人工智能不过是人类智能的衍生物;人类智能具有不竭性和无限可能性的特征,能够永久地绝对控制人工智能。人工智能是人类智能的创造物,是人类征服世界的结果。无论人工智能技术如何发展,都无法摆脱人类智慧的光环。在弱人工智能时代,人工智能技术在人类可以控制的范围内,即便赋予机器人以法律主体资格或地位,也具有显著的工具性或手段性特点。确立机器人的法律主体地位不过是为了实现人类的某种目的,并未超越“人的终极目的性”。
(五)智能主体多元化视角下智能机器(人)法律人格思考:新设式路径
在人工智能时代以前,法律人格制度的演变围绕基因标准展开。近代以前,关于法律人格的争论集中在人类基因是否存在等级性或差异性之上,即能否将部分具有人类基因的生物学意义上的人排除在法律主体之外。进入近现代社会,生物学意义上的人普遍取得了法律主体资格,关于法律人格的争论转移到人类基因延伸保护的范围问题上,法人及其他社会组织等作为集合性的人被视为具有法律人格。动物等完全与人类基因无关的社会存在是否具有法律人格在理论上存在争议。即便关于动物的法律人格问题在部分国家立法层面有所体现,却未撼动传统的以基因为标准判断法律人格的法律体系。机器智能主体的出现打破了人类作为唯一智能主体的状态,以人类为中心的主体规则制度设计不再满足社会发展的需要。智能主体概念作为涵盖人类智能主体与机器智能主体的上位概念应运而生。
“对人终极关怀”的人文价值观是通过基因标准判断法律人格的理论基础。这一标准具有明确性、可操作性的特征,但是,亦有过于武断之嫌,其并没有剖析人类当然具有法律地位的深层原因,即“人之为人”的根本性问题。倘若人工智能或其他形式的社会存在具有“人之为人”之根本的共性特征,则其在理论上亦存在取得法律人格的可能。
从生物进化论的角度看,人类由动物进化而来,其作为区别于其他动物的独特物种的根源在于人脑的构造。基于人脑的特殊构造,人类在思维方面比其他物种更具优势,具有基于独立意志行为的可能性。“人之所以为法律主体,便在于其所被赋予之自治可能,换言之,在于其意志。”[70]人工智能时代以前,人类以外的其他生物及人类的创造物都不具有类似人脑的思维器官。以人脑的独特构造以及人类思维方式的特殊性作为区分人类与其他生物以及人类创造物的标准具有正当性。人工智能中智能的属性表明人工智能技术指向的对象恰恰是模拟人脑思维或人类智能的部分。倘若智能机器(人)具有类似于人类的思维或独立意志,则人工智能作为独立法律主体具有理论上的可能性。但是,智能机器(人)能否具有独立思维或独立意志在认识上存在分歧,它是认识论上的难题。持怀疑主义论调的学者认为,倘若人与智能机器(人)是相对独立的实体,那么人类无法确定智能机器(人)是否具有自主意识。诚如《庄子·秋水》中惠子问庄子:“子非鱼,焉知鱼之乐?”
智能机器(人)虽然不具有人类基因,不能基于出生的事实享有主体资格。但是,其在思维、意志、智能方面与人类相似。“如果未来人和机器的分野仅仅是肉体(生物vs.机械)的不同,否认机器不是人,或者人不是机器,都将折射出种族主义的特征,因为人和机器仅仅是肤色和生物构架的不同而已,在心智上并无不同,甚至人类无法追上机器人的进化步伐。”[71]人工智能技术的发展逐步缩小着人类智能与人工智能的差距,人工智能甚至在诸多场合中表现出超越人类智能的优势。智能主体类型多元化以人工智能摆脱对人类智能的依附,获得独立性为前提。人工智能不是人类智能的附属物或衍生品,人类智能并不天然优越于人工智能。它突破了人类中心主义立场,将以人工智能技术为基础的智能机器(人)作为独立于人类的新的族群。
1.形而下的路径:结果导向的测试或思想试验
智能机器(人)能否独立思维以及是否具有心智等抽象问题涉及对思维、心智等抽象概念的理解以及对其本质的认识。为避免因抽象概念引发认识分歧,部分学者或实务工作者回避思维、心智等抽象概念,以结果导向的测试或思想试验判断机器是否达到了智能的要求。
图灵测试(Turing Test)通过比较智能机器(人)与人类输出内容(out⁃put)的模仿游戏(Imitation Game)判断机器是否达到智能的要求。图灵测试具有结果导向的特征,其关注的重点不在于输出内容的过程是否符合思维、心智等抽象概念的要求,而在于两个输出内容的比较结果是否相似或一致。迄今为止,结果导向的图灵测试仍然是判断机器是否能够达到智能要求的重要方法。
但是,有学者对该方法的合理性存在质疑。赛尔(John Searle)提出了“中文房间”(Chinese Room)的思想实验,质疑图灵测试关于智能的判断。[72]在“中文房间”思想实验中,尽管被测试者足以以假乱真,使得房间外的人确信被测试者懂中文,但是,事实上被测试者根本不懂中文。基于该试验结论,赛尔主张思维不应归因于模拟人类智能处理符号的程序。符号处理程序不构成“思维”(thinking)或“理解”(understanding),因为它缺乏“意向性”,即处理意义的能力。符号的形状是语法属性(syntactic property),其意义是语义属性(semantic property),计算机仅回应语法属性。“中文房间”输出的符合中文表达要求的语句表面上看是对输入该房间的信息的回应,但是,“中文房间”内处理信息的过程只针对输入内容的形状或语法属性,并不涉及理解或思维。[73]
2.形而上的路径:以思维等抽象概念为中心
“人工智能是否能够成为民事法律主体都只是一个立法技术问题,真正影响人工智能成为民事法律主体的因素不在生物学上,而在意思表达层面。”[74]关于机器能否思维的问题由笛卡尔(Rene Descartes)首先提出。他认为“我思故我在”,思维是人的基本素质,是人类与人造物的区别所在;机器作为人造物即便能够进行语言表达甚至对行为做出反应,也不能在不同情形下当即做出适当回应,因此机器不具有思维的能力。
人工智能出现后,笛卡尔关于人造物不具有思维能力的论断一直是学界争议的焦点。持保守观点的学者认为,无论是智能机器(人)战胜专业棋手还是普遍应用的模拟人类专家的专家系统(expert system)都是数字计算机编程的结果,是通过人工智能展现出的人类智能,体现的是人类智能的自我超越而非新型智能形态对人类智能的超越。人工智能不过是人类智能的延伸或再现,并不存在独立于人类智能的人工智能。“对于达到人工智能终极目标而言,意识是一个绕不开的难题。如果未来‘通用型人工智能’成为可能,一定会伴随着‘机器意识’的出现。而对于本轮基于机器学习的人工智能浪潮而言,这还是一个相对遥远的研究方向。”[75]
霍布斯(Thomas Hobbes)在《哲学原理》一书中提出“推理即计算”的观点,首先提出了心智的可计算性理论。[76]奥卡姆认为,认知科学以人类智能本质上具有可计算性假设为基础,人类的大脑能够模式化为运行计算机的程序。[77]智能机器(人)已经逐步具有自我意识和自我表达能力,可以与人类进行情感交流。[78]
(六)情景化预设下人工智能法律人格问题的解决路径
法律规则与制度设计需要因应时势变化,针对不同场景进行差异化规则或制度设计具有正当性。在人工智能时代的不同阶段,智能机器(人)在意志与行为的自主性方面存在差异,在差异化的情景预设下智能机器(人)是否具有法律人格需要进行区别对待。在这一意义上,“人工智能可否成为民事主体,并不取决于其是否具有独立人格或民事权利能力,而取决于现实社会的需要和既存事实的强化。”[79]需要区分弱人工智能时代与强人工智能时代对人工智能法律人格进行差异化设计。
1.弱人工智能时代无需赋予人工智能独立法律人格
弱人工智能时代“人工智能离通用型人工智能还有一段距离。工具型人工智能无法产生意识”[80]。人工智能尚未达到“自我觉醒”的程度,无法独立思维并自主决策和行为,所谓人工智能的思维或意识不过是人类设计或编程的结果。智能机器(人)与其他人类创造物类似,在社会生活中主要起到工具性和手段性的作用。
法律规则的设计具有体系化效应,局部规则变化在不同程度上影响着法律的内在精神气质与外在规范结构。法律主体类型和范围的规则设计是法律规则设计的基础,其变化具有牵一发而动全身的效果。主体与客体在类型与范围上存在的负相关性使得主体类型的增加以及范围的扩张必然导致客体类型的减少以及范围的限缩。而这些变化又会影响原有的权利、义务和责任结构体系。“自《法国民法典》至今200 余年来,实际上民事主体制度显示出极为稳定的结构。如果要撼动这种结构,则须存在充分的现实需要。”[81]鉴于法律主体类型的增加以及范围扩张在内在价值理念和外在体系结构等方面对既有法律体系的剧烈冲击,有必要考虑奥卡姆剃刀原理(Occam's Razor)[82],对人工智能时代增设法律主体类型或扩张法律主体范围持审慎的态度。
在弱人工智能时代,智能机器(人)尚不具备独立的思维和意志,其在社会生活中发挥的作用与其他作为工具的人类创造物并无实质差异。将智能机器(人)作为具有法律人格的法律主体进行规则设计在事实层面不具有足够的技术支撑,不仅无法产生积极的社会效果,而且会破坏法律规则体系原有的精神气质和结构。弱人工智能时代关注法律人格问题的重心不在于规则设计而在于法律伦理上的可能性及限度。人工智能的历史演进具有不可逆转性,即智能机器(人)一旦具备了与人类同等甚至超越人类的智能,智能机器(人)基于独立、自主的意志从事行为的后果将是人类单方无法控制的。控制智能机器(人)可能带来的灾难性风险需要从政策和法律制度等方面进行顶层设计,调控人工智能技术研发的方向与进度。换言之,在弱人工智能时代,智能机器(人)的法律人格不是“应不应该”而是“可不可以”的问题。合理规划人工智能未来走向的路线图,从法律伦理的角度探讨人工智能研发的技术限度,控制人工智能作为法律主体的进程及限度是弱人工智能时代法律的关注焦点。
2.强人工智能时代基于利益多元化设计法律人格规则
关于强人工智能时代法律人格的规则设计的想象和科幻色彩胜于严密的逻辑推理和理性分析。诸多科幻电影或小说中描述了机器意识觉醒的情形,如科幻影片《她》中的“萨曼莎”、《超能特工队》中的“大白”等。在技术条件尚未能实现强人工智能的阶段,人类只能通过想象预设人类与未来强人工智能之间的关系,并基于此进行相关制度设计。
在强人工智能时代,以“类”形式存在的人的主体地位遭到挑战。智能机器(人)作为新型意识主体必然会寻求法律上的地位。未来社会可能是人类与智能机器(人)共存的命运共同体,形成多元共主的局面。关于多元共主的思想在中国传统文化中早已出现。如《周易》整合处于矛盾对立关系中的阴与阳,形成了阴阳调和、共生共存的统一框架;道家通过辩证思维解释有无和大小等的关系;儒家思想强调“己所不欲,勿施于人”。
考虑到法律与现实生活的关系,对强人工智能时代法律人格进行规则设计不宜操之过急。因为缺乏现实生活作为根基的规则设计往往只是空中楼阁,即便设计得再完美也难以经受住现实生活的考验。人工智能能否发展到与人类智能媲美甚至超越人类智能的通用型人工智能阶段尚未可知。倘若通用型人工智能技术得以实现,具有独立思维和意志的智能机器(人)出现,人类面临的可能不再是法律人格设计的问题,而是作为类存在的智能机器(人)与作为类存在的人类之间进行利益协调和规则设计的问题。自我意识觉醒后的人工智能具有独立的自由意志,且在智力和体力方面明显优越于人类,其是否会遵循以人类公权力为后盾的法律规则体系不无疑问。“如果人工智能有意识,就不会服从人类为之设定的规则,至少应该是与人类一起制定规则,更可能的甚至是智能机器为人类设定规则。”[83]超强人工智能的认知能力突破了人类的认知极限,强人工智能时代的法律人格设计恐怕只是人类一厢情愿的幻想。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。