21世纪初,先进技术的研究报告就曾在预测21世纪的第三个或第四个10年之初,新一代机器人将支持人机共处。[56]2004年,在福冈(Fukuma)颁布的《世界机器人宣言》中表示,这些机器人有望与人类共存,给予人类生理帮助和心理帮助,而且会为实现社会的安宁与和谐作出贡献。[57]
一般认为,这类机器人可分为两大类型。第一类是新一代工业化机器人,具备制造各类产品、完成多项任务,以及和人类员工合作的能力。第二类是新一代服务型机器人,能够完成房屋清洁、保安、护理、生活支持和娱乐等任务,以此在家庭和工作环境中与人类共处。对该技术进行预测而出版最多作品的作家们,也对使用这些机器人对人类和社会可能造成的危险程度进行了评估。[58]这些评估引发了关于使用机器人的安全性的争论,而不管预测危险的真实水平如何。
只有在确认事物的危险性时,人们才会考虑安全性。人工智能和机器人科学领域技术进展的加速引起诸多恐惧。例如,人们对护理型仿真机器人护理员的第一反应是害怕它会伤害其帮助的人类。是不是所有人类都做好准备让机器人看护他们的婴幼儿?绝大多数人并不是技术专家,对他们一无所知的事物十分畏惧。
再者,人类往往会用科学幻想来填补由于知识匮乏和不确定性所造成的空白。过去科幻作品很小众,粉丝很少。现如今,好莱坞使科幻风靡全球。20世纪八九十年代和21世纪中,票房最高的电影都是科幻电影,其中大部分消费了人类的恐惧。在亚瑟·C.克拉克(Arthur C.Clarke)小说改编而成的《2001:太空漫游》(1968)中,宇宙飞船的中央计算机脱离人类的控制并企图刺杀机组人员。[59]在数人死亡后,人类才通过关闭计算机而恢复安全。[60]
在终结者系列电影中,机器控制了人类,人类几近灭绝。为数不多的幸存者奋力抵抗机器,只有关闭机器才能确保人类存续。而拯救者自身恰巧是一台机器,它最终自行关闭。[61]在黑客帝国三部曲中,机器统治地球,奴役人类,以生产能量供其所用。机器通过创造一种被称为“黑客帝国”的虚幻现实来控制人类的思想。只有少数几个人逃离了帝国,为摆脱机器统治实现自由而奋斗。[62]《机械公敌》(I, Robot)(2004)由艾萨克·阿西莫夫(Isaac Asimov)1950年作品集中的系列故事改编而成,电影中发生了先进机器人伤害人类的案件,一个机器人被怀疑是凶手,而人类主人公之一是一位不相信机器人的警察。整个故事情节都围绕机器企图控制人类展开。[63]
好莱坞的影响巨大,所以,我们可以合理预计,对人工智能和机器人的恐惧将支配公众的思想。越先进的机器人越危险。科幻小说和电影中的热门话题都是机器人反抗人类并控制人类。因此,人们在想到高级机器人和技术时,不仅会考虑到它的实用性和无可非议的优势,还会考虑如何保护自己。人类只有在恐怖异类——机器——身边能感到安全之后,才会接受人机共存的想法。
问题在于,可以用什么保护机制来确保人类在与机器人和人工智能技术共存时的安全?[64]科幻小说首次对该技术发出了警报,并提出了保护建议。建议的第一个保护圈聚焦于安全的道德领域。道德问题是针对这些实体的设计员和程序员,以确保内置软件可以防止任何不安全的技术活动。[65]艾萨克·阿西莫夫是众多试图创建机器人道德的先贤之一。
1950年,阿西莫夫在其九个科幻故事的作品合集《机械公敌》中,曾提出著名的“机器人三原则”:“(1)机器人不得伤害人类,或者是通过不行动让人类受到伤害;(2)机器人必须服从人类赋予它的指令,除非该指令和第一原则产生冲突;(3)在不违反第一原则和第二原则的前提下,机器人必须保护自身存在。”[66]在20世纪50年代时,这些原则被认为具有创新性,曾经恢复了恐惧公众的一些信心。毕竟,伤害人类是不被允许的。(www.xing528.com)
阿西莫夫的前两条原则表明,在处理人工智能机器人相关的安全问题时,应当以人类为中心。这两条原则还反映出一个普遍路径,即随着机器人逐渐在工业厂房之外承担着越来越密集和重复的工作,安全条例支持“人类高于机器人”的观念也变得越来越重要。[67]第三条原则跨越了以人类为中心和以机器为中心以确保安全之间的界限。机器人的功能性目的是满足人类的需求,因此,为了更好地完成这些任务,机器人应该保护好自己,并作为人类的财产发挥作用。
但是,正如阿西莫夫坦言,这些道德规定或原则仍然不够充分、有些模糊而且不够广泛。[68]例如,在警局工作的机器人试图保护被罪犯劫持的人质,罪犯企图对一名人质开枪。此时,机器人明白唯一能够避免无辜者受害的方法就是射杀罪犯。但是,第一原则既禁止机器人杀害或伤害罪犯(通过行动),又要求不能让罪犯杀害人质(通过不行动)。机器人除了遵守第一原则以外别无他选,此时我们期望机器人能怎么做?确实,我们又能期望一名人类的警察做什么呢?任何解决方案都违背了第一原则。
审查另外两条原则并不能改变结果。如果一位人类指挥官命令机器人射杀罪犯,机器人仍会违背第一原则。即使指挥官命悬一线,机器人仍不可能采取行动。而且,即使罪犯威胁要炸死50名人质,机器人也不得为了保护人质的生命而伤害罪犯。如果指挥官也是机器人的话,情况会变得更加复杂,但是结果不会有任何不同。如果机器人自己身处危险,第三原则也不会改变结果。
在一个人类和机器人共处的社会中,警局的机器人陷入进退两难境地的情况屡见不鲜。在这样的社会中,机器人和人工智能技术的任何活动都会遭遇这种困境。考虑一下,医疗服务型机器人为了挽救患者生命需要完成一项侵入式紧急外科手术,但是却遭到患者反对。机器人无论行动与否都会违背阿西莫夫第一原则,而上级的任何指令都不能解决该困境,因为行动指令会对患者造成伤害,而不行动指令则会造成患者死亡。
如果机器人可以选择不伤害人类,困境会更容易解决,但是这又会引发其他问题。在前面机器人作为监狱守卫的例子中,[69]如果囚犯试图逃跑而唯一的阻止方式就是伤害他,这时机器人又该怎么做?性爱机器人被要求施虐时,又该怎么做?如果答案是不行动,那么,问题是,既然机器人的目标行为将违反第一原则,那最初为什么要使用机器人呢?
如果人类确定人工智能机器人和其他人工智能实体的命运是在各种情形中服务人类、保护人类,这些实体本身就不免需要作出艰难决定。术语“损伤”(injury)和“伤害”(harm)的范畴可能比特定身体伤害更加广泛,而这些实体可能会用身体伤害以外的其他方式伤害人类。而且,在很多情况下,为了避免产生更大伤害,就必须造成某种伤害。在大多数情况下,这种决定会牵涉复杂的判断,超出简单教条的伦理准则的范畴。[70]
人们对阿西莫夫原则的争论引发了关于机器道德责任的探讨。[71]机器人、机器和人工智能实体的道德责任是对机械人无尽探索过程中的一部分。但是,机器人参与到工业环境和私人环境下人类的日常生活之中,不管它们是否受制于道德责任,它们确实会时不时地造成伤害。因此,伦理体系不适合解决这一问题。伦理包含道德责任、复杂的内部判断和不适用规则。那么问题是,什么可以解决机器人功能、人机关系和人机共存的问题呢?答案可能是刑法。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。