人权概念是一个重要的伦理、法律与政治概念,而机器人权利更多地属于伦理、科技与安全的范畴。如果机器人拥有权利具有一定的合理性,那么更关键的问题是,机器人可以拥有哪些权利?我们可以把权利分为道德权利与法律权利,以下分别就这两种权利展开初步探讨。
1.道德权利
与法律权利相比,道德权利不是由法律规定的,因而更多地依赖于道德主体的道德水平。就机器人来说,首先应该拥有得到尊重对待的权利。正如雷根指出的那样,在道德权利中,“尊重是基本的主题,因为彼此相待以尊重不过就是以尊重我们其他权利的方式对待彼此。我们最基本的权利,统一我们所有其他权利的权利,就是受到尊重对待的权利”[14]。由尊重权利至少可以得出以下几点推论:第一,不可以奴役机器人;第二,不可以虐待机器人;第三,不可以滥用机器人,比如让机器人去偷窃、破坏他人财产,等等。机器人应该得到尊重的道德权利是消极的道德权利,也就是不被伤害或错误利用的权利。目前,机器人经常被用来执行三D(dull、dirty、dangerous)工作,比如工业机器人、军用机器人均是如此。对于尚无自我意识、不能感受痛苦与快乐的机器人来说,执行三D工作当然没有问题。而且,倡导机器人拥有权利,并不是反对我们去应用机器人为人类服务。但是,如果让能够感受痛苦与快乐的机器人去做类似的工作,则需要进一步深入研究。事实上,不同类型、不同智能水平的机器人,对于权利的要求当然是完全不一样的。或许会有人认为,个人拥有的机器人是自己花钱购买来的,属于个人财产,个人可以随意处置,他人没有干涉的权利。有的学者认为具有意识的机器人不能再被视为财产[22],即使个人购买的机器人属于个人财产,但拥有强大智能的机器人不同于其他财产,所有者也不能随意处置。与动物相类比,人们可以从市场上购买宠物,但宠物并不是人们可以随意处置的财产。虽然从尊重原则不能推出机器人享有与人一样公平待遇的权利,但至少不能像处理简单的手工工具一样,对机器人进行随意处置。
由于社会文化的多样性与复杂性,建构一种理想的机器人权利概念可能并不现实。但是,这并不妨碍我们提出一种最低限度的机器人权利概念,正如米尔恩(A.J.M.Milne)所言:“有某些权利,尊重它们,是普遍的最低限度的道德标准的要求”[23]。得到人类尊重的权利,就是机器人应该拥有的最低限度的权利。圣雄甘地说过,从一个国家对待动物的态度,可以判断这个国家及其道德是否伟大与崇高[16]。我们也完全可以说,在人类即将进入的机器人时代,从一个国家与个人对待机器人的态度,可以判断这个国家与个人及其道德是否伟大与崇高。尊重机器人,就是尊重人类自己。接下来的重要问题是,如何保护机器人受尊重的权利?如果机器人受到虐待,它们该如何应对呢?如果没有保护机制,讨论机器人受尊重的权利就是纯粹的空谈。人们一般会希望机器人在遇到人类的不尊重行为时,不要进行暴力反抗,而应该通过更合理、更温和的方式进行应对。比如,机器人可以对人的不当使用进行提醒,并拒绝可能导致更严重后果的操作行为;还可以对人的不当使用进行记录,甚至记入个人信用档案,以供将来购买机器人产品时参考,就像个人使用信用卡的信用记录一样。如果机器人真的像微软公司创始人比尔·盖茨预言的那样走进千家万户的话[24],人类对机器人的依赖肯定会比现在对个人电脑的依赖更深,这样的处理方式显然还是有着相当大的威慑作用的。更多更合理的保护方式(甚至包括立法的方式)需要根据机器人的发展水平以及使用情况进一步深入探讨。
2.法律权利
如果说让机器人拥有道德权利还可以让人接受的话,让机器人拥有法律权利似乎就有点让人觉得走过头了。在机器人权利研究中,法律权利引起的争议可能最为激烈。以下提出机器人法律权利可能会涉及的几个问题,希望引起更多的讨论与研究。
比如,机器人是否拥有自由权?在关于人权的讨论中,自由权无疑占有至关重要的地位。《世界人权宣言》第一条就明确指出:“人人生而自由,在尊严和权利上一律平等。”除了人类之外,有的学者认为动物也拥有自由的权利[18]。但是,机器人是人类制造出来为自身服务的,机器人拥有自由权是否与机器人的工具价值相冲突?即使我们认为机器人不仅仅具有工具价值,机器人本身有内在价值,但机器人的工具价值并不能完全否定。也就是说,如果我们给予机器人自由权,这种自由权肯定与人类和动物的自由权不一样,应该是一种受到较大限制的自由权。但是,至少在某些特殊情况下,机器人确实应该拥有一定的自主决定权。比如,在飞行器(我们可以把具有自动驾驶功能的飞行器看作机器人)的驾驶过程中,如果有恐怖分子劫持了飞行器,试图使其往自己预定的方向飞行而不是飞往原来的目的地。此时,飞行器应该自主做出决定,拒绝恐怖分子的飞行操作,以自动驾驶的方式向正确的目的地飞行。(www.xing528.com)
又如,机器人是否拥有生命权?如何界定机器人的生命?如果有人通过暴力手段夺去了机器人的生命,他是否应该受到法律的处罚?机器人是否可以成为法律意义上的原告?机器人在一定程度上与电脑类似,可以分为软件与硬件部分。在机器人需要升级换代之时,我们是否可以通过更新机器人的软件来改变(或延长)机器人的生命?在机器人达到使用年限之后,是否可以通过重新格式化等方式结束其生命,同时对其硬件进行回收利用?这些问题既涉及社会伦理,又与法律法规密切相关。
拥有权利的对立面是剥夺权利。如果机器人拥有了某些权利,就应该对自己的行为负责。如果机器人犯了错,如何剥夺其权利?又在何种意义上剥夺?类似的问题是,如何处罚犯错的机器人?机器人的设计者与生产商在这方面应该承担何种角色?等等。
需要强调的是,机器人技术的发展进步可以使不同国家、不同民族的人群从中获益,但类似于机器人权利这样的伦理与法律问题,却需要不同国家的学者针对本国的特殊情况进行专门研究。比如,相对于外国护工与移民工人而言,日本人更愿意跟机器人相处。无论是机器人专家,还是普通民众,大多数日本人都不担心机器人与人为敌。在日本的影视节目中,机器人大多是可爱、正面的形象,与欧美等国家和地区形成了明显的反差。2010年11月7日,颇受欢迎的宠物机器人帕罗(Paro)获得了户籍(koseki),帕罗的发明人在户口簿上的身份是父亲。这是首个获得户籍的机器人,不过帕罗的外形并不像人,而是像海豹[25]。拥有户籍是拥有公民权利(civil rights)的前提,机器人在日本可能逐渐会被赋予一些法律权利。
3.限制机器人的权利
机器人伦理研究的基本目的之一就是希望机器人能够具有伦理判断与行为能力,使机器人的行为对人类更为有利,其中最基本的手段就是对机器人进行伦理设计。从机器人伦理设计的角度看,是否应该限制机器人对自身权利的要求?比如自由权,试想一下,拥有高度自由权的机器人如何为人类服务?如果机器人拥有高度自由选择的权利,它们选择与人类为敌岂不是让许多科幻电影中的情景变成了现实?如果机器人将来比人类更聪明,是否可以拥有选举权与被选举权?人类是否会由机器人来统治?这些显然是人类难以接受的。因此,在对机器人进行伦理设计的过程中,限制机器人要求更多的权利,与赋予机器人某些权利一样重要,甚至前者更为重要。
从机器人权利的角度看,著名科幻作家阿西莫夫(Isaac Asimov)提出的机器人法则的立足点就是对机器人的权利进行限制。他于1942年在短篇小说《转圈圈》中提出的机器人学三大原则是:第一,机器人不得伤害人类,或坐视人类受到伤害而袖手旁观;第二,除非违背第一法则,机器人必须服从人类的命令;第三,在不违背第一法则及第二法则的情况下,机器人必须保护自己[26]。在1985年出版的《机器人与帝国》一书中,阿西莫夫强调了“整体人类比单独一个人更重要”[27]的思想,将保护整体人类(humanity)作为机器人学的本初法则,而第一法则主要强调的是人类个体(a human being)。阿西莫夫的机器人法则具有明显的人类中心主义色彩。无独有偶,前文提及的动物权利的积极倡导者雷根亦如此。他提出了这样一个思想实验。设想救生艇上有5位幸存者,由于空间有限,小艇只能装下4人。假定所有的幸存者体重都大致相同,也都占据大致相同的空间。其中4位是人,第5位是狗,那么应该优先选择牺牲狗,而不是人[15]。雷根甚至认为,“假设这里不是要在1条狗和4个人之间做出选择,而是要在这些人类与任何数量的狗之间做出选择,救生艇情形也不会有任何道德差异”[15]。在他看来,100万只狗的损失也不会超过一个人类个体的损失。与此类似,强调人类的根本利益这一点应该是机器人权利研究根本出发点。当然,从机器人的伦理设计来看,阿西莫夫的原则过于宽泛,需要对之进行完善与细化。总的来看,提倡与限制机器人的权利应该是机器人权利研究的一体两翼,而且应该体现在机器人的伦理设计当中。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。