一个不可避免的情况是,人工智能的道德问题将从一般性讨论转变为具体议题,而它们很可能引发具体争议。虽然我们不可能准确预测未来5年或10年人们将辩论什么,但我们可以从已经出现的问题中汲取真知灼见。
2018年,最先出现的一个争议涉及了人工智能在武器中的使用。正如公开辩论广而告之的那样,这个问题与“杀手机器人”有关,这个词会让人立刻联想到科幻小说中的形象。从系列电影《终结者》的表现来看,人们对这样一种叙事是很容易理解的。要知道,《终结者》自从在1984年上映之后,每个10年中都会推出至少一部续集,迄今已经连拍了5部续集。换句话说,如果你是一个十几岁的孩子或更年长的大人,你有很大的概率在大银幕上见识过自主武器的危险。
这场公共政策辩论首先带给我们的教训是,需要对涉及的技术类型有更精准的理解或分类。当我和世界各地的军事领导人交谈时,他们都持有一个共同的信念:没有人愿意在早上醒来时发现,机器已经在人类睡觉时发动了战争。战争与和平的决策需要留给人类来做出。
不过,这并不意味着全世界的军事官员们在其他所有方面也拥有共识。这就是争议所在之处。美国国防部前官员,现任职于一家智库的保罗·沙瑞尔在其著作《无人军队:自主武器与未来战争》中,提出了一个越来越接近本质的问题19。正如他所阐述的,核心的问题是,不仅仅要考虑在何时,而且要考虑以何种方式,赋予计算机在不经人类审核的情况下发射武器的权力。一方面,即使装备了计算机视觉和人脸识别系统的无人机在辨别地面上的恐怖分子时可能拥有超过人类的准确度,但这并不意味着军事长官需要或应该拒人和常识于决策流程之外。另一方面,如果某一支海军舰队遭到数十枚导弹的攻击,宙斯盾作战系统的反导弹防御系统还是需要依靠计算机的决策做出反应。即便如此,实际情况也会千差万别,武器系统的使用也应随机应变20。人类通常应该做出最初的发射决定,但他们没有时间批准对每个单独目标的攻击。
考虑到对自主武器的隐忧,一些人认为科技公司应该在人工智能技术领域拒绝与军方进行任何合作。例如,谷歌在经历员工抗议之后,撤销了与五角大楼的人工智能合同21。我们在微软也面临同样的问题,因为我们的一些员工也提出了类似的担忧。我们长期以来一直与美国及其他国家的军队合作,几年前,我曾在位于西雅图北部的华盛顿州的埃弗雷特母港参观了尼米兹号航空母舰,凸显了这一合作的广泛性。这艘航母上共有4000多台计算机正在运行我们的Windows服务器操作系统,支持着舰上的各种功能。
但是对于许多人来说,出于可以理解的原因,人工智能系统与上面所说的平台技术完全不同。我们认识到,新技术引发了新一代的复杂问题,在我们考虑一个为美军士兵提供增强现实技术和我们的HoloLens[2]装置的潜在合同时,我们全面讨论了我们应该做什么。
不同于谷歌,我们得出结论,我们必须继续向美国军方和其他盟国政府提供最好的技术,因为我们对民主进程和人权相关的基本敏感性充满信心。美国和北约的军事防御长期依赖尖端技术的支持。正如我们无论在私下还是在公开场合所说的那样:“我们相信美国强大的国防力量,我们希望那些保卫美国的人能够获得美国最好的技术,包括微软的技术。”22
同时我们也认识到,我们的一些员工对于为美国或其他军事组织的国防合同工作感到不舒服。他们中有些人是其他国家的公民,有些人有不同的道德观,或者是和平主义者,还有些人单纯地希望将精力投入技术的其他应用方面。我们尊重这些观点并迅速表示,我们将努力使这些人能够从事其他项目。考虑到微软的规模和多样化的技术组合,我们认为我们很有可能满足这些要求。
我们也认为,上述这些都不能免除我们必要的责任,使我们不再仔细思考将人工智能应用于武器所带来的复杂的道德伦理问题,并积极采取相应的行动。我在我们的最高管理层讨论这一问题时指出,从19世纪开始,道德问题就在武器发展中发挥了非常重要的作用,彼时空尖弹和炸药刚刚出现在战场上。萨提亚提醒我说,围绕战争的道德问题事实上可以追溯到罗马共和国时期西塞罗的著作。当天晚上,他给我发了一封邮件,说他母亲一定会因为他只记得西塞罗而忘记了印度教史诗《摩诃婆罗多》而不高兴(谢天谢地,他的邮件中附上了一个维基百科链接,以便我能对此多些了解23)。(www.xing528.com)
这类讨论使我们得出结论,我们需要作为积极的企业公民继续参与道德问题的讨论。我们相信,我们的参与有助于塑造新出现的公共政策问题。24正如我们告诉员工的那样,我们认为没有一家科技公司比我们更积极地解决新技术带来的政策问题,特别是政府监控和网络武器方面的问题。25我们认为,最好的办法同样是倡导负责任的政策和法律,以管理人工智能应用于军事的问题。
我们撸起袖子不断学习,不断修正我们的观点。这使我们重新审视我们的六大道德准则,并依照这些准则检视了人工智能应用于武器所适用的伦理道德问题。我们得出的结论是,有三个准则的相关性最高——可靠性和安全性、透明性,以及最重要的,问责性。只有解决了这三个问题,才能保证公众相信人工智能将以确保人类控制的方式得到部署。
我们还发现,这与我们在面临安全保障和国家级网络攻击时需要应对的问题有一些重要的相似之处。在那个领域,已针对新的技术形式(如致命的自主武器)制定了若干国内和国际规则。
许多其他方面的发展似乎也与涉及网络武器的安全问题有相似之处。联合国秘书长安东尼奥·古特雷斯在2018年呼吁禁止“杀手机器人”时并没有含糊其词,他说:“让我们实话实说吧,机器拥有夺走人类生命的自主权力的前景在道德上令人反感。”26但是,如同网络武器的情况一样,全球主要的军事力量一直抵制限制其科技发展的新的国际规则27。
因此,讨论主要集中在直指隐忧核心的具体场景,希望借此打破僵局。例如,人权观察组织呼吁各国政府“禁止能够在没有实质性人类控制的情况下选择和攻击目标的武器系统”28。虽然可能会有更多的细微差别需要解决,但这类国际宣传以“实质性人类控制”之类的具体术语为重点,已经成为新一代道德挑战中需要全世界加以应对的一个基本问题。
重要的是,这项工作必须建立在现有的伦理道德和人权传统之上。美国军方长期以来对道德决策的高度重视给我留下了深刻印象。这并没有使军队完全避免道德过失,有时甚至是巨大的错误,但是从高级将领到西点军校学员的许多军人都告诉过我,要想从美国的军事学院毕业,必须修完一门道德课。29与此相对的则是,许多美国大学的计算机科学专业学生并没有这种要求。
我们与其他国家的领导人讨论了这些问题以及一些类似的新兴问题,并且逐渐认识到,伦理道德观点最终建立在更广泛的人权和哲学基础之上。因此,必须将这些问题与对世界多元文化的理解,以及这种多样性所产生的各种法律和监管方法联系起来。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。