人是何等地巧夺天工!理性何等高贵,智能何等广大……行动是多么像天使,悟性是多么像神明。真是世界之美,万物之灵!但是,在我看来,这尘垢的精华又算得了什么?
事实是,这些理论都可以理解为信仰的飞跃。我想补充说明的是,凡论及意识,你就必须遵循这样的指导原则,即“你必须有信仰”——也就是说,在论及什么是有意识的、谁是有意识的,以及哪些生物具有意识这些问题时,每个人都要对此保持坚定的信念。否则,我们无法知道明天该怎么度过。就意识这一问题,信仰是最基本的要求,我们应该坦诚地对待这个问题,了解我的需要在信仰上做些什么转变以及信仰转变会设及的自我反思等基本需求。
不同的人会有不同的信仰飞跃,尽管给人留下的印象可能与此相反。关于意识的本质和来源,不同的人会有不同的哲学假设,因而就动物的权利和堕胎这些问题,也会产生分歧,并将导致未来就“机器的权利”这一问题引发更激烈的争论。从客观意义上来说,我个人预言未来的机器将拥有自我意识,当它们说出自己的感受时,人类会相信它们。它们将具备各种微妙的、类似的情感,会让我们欢笑与悲伤;如果我们告诉它们我们不相信它们是有意识的,它们会很生气。(它们很聪明,所以我们不希望发生这样的事情。)它们是有意识的“人”,我们最终会接受这一观点。我个人的信仰飞跃是这样的:当机器说出它们的感受和感知经验,而我们相信它们所说的是真的时,它们就真正成了有意识的人。通过这个思想实验,我也明确了自己的观点:试想一下,将来你可能会遇见这样一个实体(机器人或阿凡达),他的情绪反应完全真实可信。当你讲笑话时他会笑,也会带给你喜怒哀乐(但不只是通过搔痒让你发笑)。当他说到他的恐惧和渴望时,你会相信他。不管从哪个方面来说,他看上去都是有意识的,他看起来确实跟人没什么差别。你会接受这样一个有意识的人吗?
如果你的第一反应是要找出他的非生物性,而我们假设他是完全真实的有意识的人,那么你的想法显然跟这个假设不吻合。基于这样的假设,如果有人威胁要摧毁他,他会作出恐惧的反应。如果你看到有人也受到这样的威胁,你是不是会作出类似的举动呢?如果是我,我肯定会回答说“是”,而且我相信大多数人都会这样回答——虽然并不是所有人都会如此,不管他们现在对这个哲学辩论持有什么观点。再次重申一下,我所强调的是“完全真实”。
当然,就我们什么时候会遇到这种非生物体,甚至是我们是否会遇到这种非生物体,人们的观点肯定会有分歧。我个人的观点是,这种非生物体将首次出现在2029年,并于21世纪30年代成为常态。但是,不考虑这个时间框架,我相信,我们最终将承认这种实体是有意识的。回想一下,当我们在故事和电影中接触到这种非生物体时,我们是如何看待他们的:电影《星球大战》中的智能机器人R2D2,电影《人工智能》(A.I.)中的大卫和泰迪,电视连续剧《星际迷航:下一代》(Star Trek:TheNext Generation)中的机器人Data,电影《霹雳五号》(Short Circuit)中的霹雳五号(Johnny5),迪士尼电影《机器人瓦力》(Wall-E)中的瓦力(Wall-E),电影《终结者》第二部及之后出现的T-800系列机器人——终结者(好人),电影《银翼杀手》(Blade Runner)中的复制人瑞秋(Rachael,顺便提一下,她不知道自己不是人类),电影、电视剧和漫画系列《变形金刚》中的大黄蜂(Bumblebee),以及电影《我,机器人》(I,Robot)中的桑尼(Conny)。虽然我们知道这些角色都是非生物体,但还是对它们产生了情感共鸣。我们将它们视为有意识的人,正如我们对待作为生物体的人类一样。我们对它们感同身受,当它们陷入困境时,我们为它们担忧。如果我们现在是这样对待这些虚构的非生物角色的,那么将来我们也将以同样的态度来对待现实生活中的非生物体智能人。
如果你接受这样一种信仰飞跃,即非生物体就其感受性所作出的反应是有意识的,那么这也就意味着:意识是实体整体表现出来的涌现特质,而不是由其运行机制产生的。
科学和意识在概念上有很大差异,科学是客观规律,我们可依此得出结论,意识则是主观经验的代名词。很显然,我们绝对不会这样问一个实体:“你是有意识的吗?”如果我们想要通过查看它的“头部”(不管是生物体还是其他实体的)构造来确定它是否有意识,那么我们将不得不作出哲学假设,来确定我们想要发现什么。因此,判断一个实体是否有意识这一问题,本身就不科学。基于此,一些观察家又对意识本身是否有任何现实基础提出了质疑。英国作家和哲学家苏珊·布莱克摩尔(Susan Blackmore)曾这样说过:“意识的巨大幻觉。”她承认意识这一概念的存在——换句话说,作为一个概念,意识确实存在,而且还有许多大脑皮质结构在处理这种概念,更不用说,还有许多口头和书面语言也论及过这一概念。但目前尚不清楚它指的是不是真实的东西。布莱克摩尔解释说,她并不是否认意识的存在,而是在试图阐明我们在证实这个概念时遇到的各种困境。英国心理学家和作家斯图尔特·萨瑟兰(Stuart Sutherland)在《国际心理学大词典》(International Dictionary of Psychology)中写道:“意识是一种有趣而又难以捉摸的现象,你无法确定它是什么,它如何运作,或者它为什么会产生。”[173]
然而,我们最好还是不要轻易忽视这个概念,不应认为它只是哲学家之间进行的一场友好的辩论——顺便提一下,这种辩论可以追溯到2000年前的柏拉图对话。意识是道德体系的基础,这些道德信念反过来又构成了我们不甚严谨的法律制度。如果一个人摧毁了其他人的意识,如通过谋杀,我们就会认为这种行为是不道德的,但也会有例外,如犯了重罪被判处死刑的。这些例外情形也与意识有关,因为我们可能会通过警察或军队来杀死某些有意识的人,以保护其他有意识的人的利益。我们可以认为这些特例都是罪有应得,但其隐含的基本原则始终是真实可信的。
袭击他人、使他人经历痛苦,通常也被认为是不道德的和非法的。如果我毁坏我的个人财产,这种行为是可以接受的;但如果我未经你的许可破坏你的财产,这种行为就是不能接受的,不是因为我给你的财产造成了痛苦,而是给你——财产的所有者造成了痛苦。另一方面,如果我的财产中包括有意识的生物,如动物,那么即便我是动物的主人,但如果随意处置自己的动物,也不一定能免受道德和法律的制裁——立法中有禁止虐待动物的规定。
大多数道德和法律制度都是建立在保护意识体的生存和防止意识体受到不必要的伤害的基础之上的,为了作出负责任的评判,我们需要先回答这样一个问题:谁是有意识的?这可不仅仅是一个智力辩论的问题,答案也不像关于堕胎问题的争议那样显而易见。在这里我要指出,堕胎问题要比意识问题稍微严重一些,因为反堕胎支持者认为,潜在的胚胎最终会成长为有意识的人,这一理由足以说明应对其进行保护,正如昏迷的人也应享有这项权利一样。但是,这个问题的关键在于胎儿何时能产生意识。(www.xing528.com)
当出现争议时,对意识的看法往往也会影响我们的判断力。让我们再来看看堕胎这一问题。许多人在权衡这一问题时,会区别对待这两种措施:服用紧急避孕药和后期流产。人们在看法上会有差异,是因为后期的胎儿可能具有意识。很难说几天大的胚胎是有意识的,只有泛灵论者才会这么认为,但即使是这样,就意识而言,胚胎的意识还是比最低等的动物更弱。同样,在看到猿猴虐待昆虫时,我们也会产生非常不同的反应。如今,没有人会担心自己会给计算机软件带来什么疼痛和痛苦(虽然关于软件能给我们带来的痛苦,我们确实进行了广泛的讨论),但当未来的软件拥有生物人类的智力、情感、道德时,我们就会开始真正对此表示关注。
因此我的立场是,如果生物体在情绪反应上表现得完全像人类一样,并完全令人信服,对于这些非生物体,我会接受它们是有意识的实体,我预测这个社会也会达成共识,接受它们。请注意,这个定义超越可以通过图灵测试实体的范围——因为图灵测试至少需要掌握人的语言。但只要非生物体足够像人,我会接纳它们,我相信,社会中的大部分人也会如此,不过,我也会把那些具有人类一样的情感反应却不能通过图灵测试的实体包括进来,例如孩子。
这是否就能解决“谁是有意识的”这个哲学问题,至少是对我自己和其他接受这个特殊的信仰的飞跃的人们而言?答案是:不完全是。我们只涉及了其中一方面,即像人一样行事的实体。尽管我们正在讨论的是未来的非生物体,但我们所谈论的实体表现出令人信服的像人一样的反应,所以仍然是站在以人类为中心的立场。但那些拥有智力,形体却又跟人不一样的非生物体又是怎样的呢?我们可以想象它们有和人类的大脑一样复杂的智能,或者是要比人类的大脑复杂得多的智能,但情感和动机又完全不同。我们如何决定它们是否有意识呢?
我们可以从生物世界中那些拥有堪比人类大脑而行为却与人类大不相同的生物开始。英国哲学家大卫·科伯恩(David Cockburn)提到,他曾观看过一只巨大的鱿鱼受到攻击时的视频(至少鱿鱼认为那是一种攻击——科伯恩推测它可能是害怕人类的摄像机)。那只鱿鱼打了一个寒战,畏畏缩缩地,科伯恩写道:“它的反应方式激发了我,像极了恐惧的人的反应。这一连串的反应令我感到惊讶的是,我可以看到完全不同于人类的生物,它是如何体会到那种既含糊又明确的恐惧感的。”[174]他的结论是,动物感觉到了那种情感,而他只是表达了出来,大多数观看过那个视频的人都会得出同样结论的那种信念。如果我们接受科伯恩的描述和结论,那么在谈到有意识的实体时,我们就必须想到巨型鱿鱼。然而,这并没有给我们更多的启发,这种感情仍然是基于我们的移情反应,它仍然是一个以自我为中心或以人类为中心的观点。
如果我们跨出生物世界,就会发现非生物智能比生物世界的智能更加多样化。例如,一些实体在遇到致命的危险时,可能没有恐惧感,可能也不会需要人类或任何生物体所拥有的这种感情。它们仍可以通过图灵测试,或者它们可能甚至不会愿意去尝试这种测试。
事实上,我们如今确实发明了没有自我保护意识的机器人,以便它们在危险的环境中执行任务。它们不够聪明或也不够复杂,我们不必费心去考虑它们的感知能力,但我们可以想象,未来这种机器人将会和人类一样复杂。它们又是怎么一回事呢?
就个人而言,我会说如果我看到某个装置有着复杂且有意义的目标,而且还具备显著的决策力和执行力,用以执行其使命,这将给我留下深刻的印象。如果它被摧毁了,我很可能会感到不安。现在可能有点偏离主题,因为我是在阐释一种行为,这种行为不会包含许多的感情,而这正是许多人甚至是各种生物体所普遍具备的。但是,我也再次试图将这些属性同自己或他人联系起来。一个实体全情投入到一个崇高的目标,并将其实施或至少试图这样做,而不去考虑自己的幸福,这一理念对人类而言并不稀奇。这样来说,我们也正在为这样一个实体考虑,它致力于保护生物人类,或以某种方式推动我们的发展。
如果这个实体有自己的目标,而这个目标与人类的目标不同,而且其进行的活动在我们看来不是那么高尚,将会出现什么情况呢?我可能会尝试着看看我是否能以其他方式来欣赏并理解它的一些能力。如果它确实非常聪明——它可能擅长数学,也许我就可以针对这一主题与它进行谈话。也许它还能理解数学笑话呢。
但是,如果它没兴趣跟我沟通,我便无法获知其行为和内部机制,这是否就意味着它是无意识的呢?我认为那些不能让我相信其情绪反应的实体,或那些根本不屑于尝试跟我沟通的实体,并不一定是无意识的。在没有建立一定程度的共情沟通的情况下,很难确定这种实体是不是有意识,这种判断不仅反映了我考虑中的实体的局限性,也反映了我自己的局限性。因此,我们需要保持谦卑的态度。从他人的角度去思考对我们来说具有一定的挑战性,所以对于那些同我们具有完全不同的智能的实体来说,这样的任务更难完成。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。