首页 理论教育 人工智能时代的风险规制路径优化

人工智能时代的风险规制路径优化

时间:2023-07-05 理论教育 版权反馈
【摘要】:人工智能时代技术研发与应用的风险属于能够推动技术进步和社会发展的被允许的社会风险。人工智能时代风险规制的路径是学界讨论的重点问题之一,但讨论得并不充分。人工智能对人类社会可能造成的威胁及其带来的人文和道德问题让专家学者、行业协会、大型网络平台公司、科研机构意识到通过伦理规则规制人工智能时代风险的重要性。

人工智能时代的风险规制路径优化

人工智能时代技术研发与应用的风险属于能够推动技术进步和社会发展的被允许的社会风险。人工智能时代风险规制的路径(regulatory approaches to AI)是学界讨论的重点问题之一,但讨论得并不充分。人工智能技术研发与应用的场景、范围等不单是技术上能不能的问题,也是政策、法律以及伦理上是否允许的问题。在风险规制的规则体系中,技术规则、法律规则和伦理规则相互区别又密切联系,共同作用于社会生活

(一)技术规则规制

人工智能时代,基于代码(code)的技术规则是社会规制的主要手段。技术规则通常以目标(objectives)控制风险,其规制难点主要包括:

1.意图与目标分离

人类在行为时会不断在意图与目标之间进行调试,而人工智能的意图具有凝固性特征。如果人工智能基于程序设计试图实现某一目标,则它会一直朝这个目标前进,即便付出的努力并不符合初始程序设计者的主观意愿。例如,程序设计者将最小化人类痛苦(minimize human suffering)设定为初始规则,人工智能系统便会作出毁灭人类的决策。因为没有人类,才会没有痛苦(no humans,no suffering)。

2.人类价值体系的模糊性

目标控制的技术规则需要将人类社会的价值体系转化为代码和程序,进而保证人工智能的输出结果即外在表现或行为符合人类的价值目标。但是,人类价值体系的构成、价值冲突的处理原则和方式等存在模糊性,这就使得通过目标(objectives)防范大规模公共风险的技术规则规制出现困难。

3.智能机器中立性对主观目的解释的漠视

人工智能对人类程序设计者的主观目的(subjective intent)保持机器中立(machine fundamental indifference)。人工智能设计者或使用者设定的功能效用与文字字面意思不相符时,人工智能存在对主观目的解释的漠视的问题。

4.智能主体反抗控制的风险

人工智能存在反抗人类控制的可能性。复杂的人工智能系统能够改变自己的硬件和程序进而获得远胜于人类制造者的认知能力。Nike Bostrom 用“超常智能”(superintelligence)概括智能机器的这一能力并对其进行定义。[46]

(二)伦理规则规制

“对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。”[47]科幻小说和影视作品传递或折射出人类对智能形态二元化场景中人机共处的伦理分析与反思。早在1942 年,美国科学家、科幻作家伊萨克·阿西莫夫(Isaac Asimov)就在短篇科幻小说《环舞》(Runaround)中提出对机器人进行伦理规制的三定律,作为智能工程的基本道德准则,保障机器人能够友善地对待人类。[48]在《机器人与帝国》一书中,阿西莫夫又提出机器人需要遵循的本初法则,强调保护人类整体(humanity)而非个体(a human being)的重要性,将其作为“第零定律”对“机器人三定律”加以补充。“阿西莫夫的机器人法则具有明显的人类中心主义色彩。”[49]它们是康德的“绝对律令伦理学”在人工智能领域的应用。

人工智能对人类社会可能造成的威胁及其带来的人文和道德问题让专家学者、行业协会、大型网络平台公司、科研机构意识到通过伦理规则规制人工智能时代风险的重要性。联合国欧盟英国等都出台了关于智能机器人伦理准则的报告。[50]谷歌公司、微软公司自发创建了人工智能伦理委员会。[51]英国标准协会(BSI)、电气电子工程师协会(IEEE)等发布了指导行业发展的人工智能伦理指南。[52]麻省理工学院媒体实验室与哈佛大学伯克曼·克莱因互联网与社会研究中心合作推出人工智能伦理研究计划。2017 年,在加利福尼亚召开了主题为“有益的人工智能”(benificial AI)的会议,近千名专家学者联合签署关于阿西洛马人工智能原则(Asilomar AI Principles)的文件。该原则包括三大类共23 条。[53]

1.伦理规则的主要内容及功能

(1)设置人工智能研发和应用的条件及范围

需要对智能科技的研发和应用保持高度警惕。[54]人工智能技术研发和应用需要以不危及人类安全为底线,研发者和制造者需要坚持保障人类利益、安全、透明、普惠等原则。“欧盟针对AI 科研人员和研究伦理委员会(REC)提出了一系列需要遵守的伦理准则,即人工智能伦理准则(‘机器人宪章’),诸如人类利益、不作恶、正义、基本权利、警惕性、包容性、可责性、安全型、可逆性、隐私等。”[55]

(2)为智能机器设置伦理规则,防范其出现道德风险,使之成为道德机器(moral machine)

这是机械伦理学(roboethics)研究的重心所在,在战争期间显得尤为重要。作为人类创造物的智能机器(人)在决策和行为方面需要符合人类社会既有道德规范,优先保护人类的人身利益。2017 年德国交通部部长任命的伦理委员会提出包括20 条指导意见的伦理法则报告,“其中第7 条要求:在被证明尽管采取了各种可能的预防措施仍然不可避免的危险情况下,保护人的生命在各种受法律保护的权益中享有更高的优先性”[56]

(3)价值理性具有为技术理性进行纠偏的功能

价值理性为技术理性朝有利于人类社会的方向发展提供保障。法律为技术研发和应用划定边界体现了价值理性对技术理性的约束力。正是由于20 世纪世界各国纷纷使用法律禁止克隆技术在人体上的实验,才有效地避免了人们在道德和伦理上的浩劫。[57]2018 年11 月,南方科技大学副教授贺建奎宣布由其进行基因编辑的婴儿“露露”和“娜娜”诞生。这一消息一经发布便引发轩然大波。人们并没有为基因技术取得突破性进展而欢呼雀跃,相反产生了深深的担忧,对贺建奎副教授违反技术伦理和学术规范要求的所谓技术创新口诛笔伐。这起“基因编辑婴儿事件”[58]最终在一片谴责声中以贺建奎的离职而告一段落。技术服务于人类,技术进步和发展应当对人类是无害甚至有益的。当技术进步危及人类整体利益或安全时,有必要通过技术伦理限制其研发或应用的边界。商业利益的驱使、人类探索未知的好奇心不能作为无限度地进行技术研发或应用的正当理由。置人类整体利益于不顾,为博眼球或攫取商业利益进行技术研发或应用需要受到限制。技术伦理要求技术研发者和应用者遵循技术伦理和学术规范,保持人类整体利益至上的初心。

2.人类伦理道德嵌入智能机器(人)面临的问题

人类存在一种对计算机技术的误解,即算法是基于方程的数学表达,相对客观,规则代码化意味着公平,算法决策不易受到偏见或主观情绪影响。《人类简史》的作者尤瓦尔·赫拉利膜拜数据宗教,认为基于大数据和算法的决策能够消除人类的偏见。弗莱德·本南森(Fred Benenson)提出了数学清洗(mathwashing)的概念,他认为通过机器学习和算法等方式塑造的现实世界会更为客观、真实。

“当将本该由人类负担的决策工作委托给人工智能系统时,算法能否做到不偏不倚?如何确保公平之实现?”[59]现实生活中算法歧视或机器偏见(bias)的现象并不鲜见。例如,谷歌公司和雅虎公司的图片识别软件曾误将黑人标记为“大猩猩”或“猿猴”。在谷歌搜索中,黑人与犯罪、男人与高薪之间存在高度关联。微软公司推出的智能聊天机器人泰(Tay)在与网民聊天的过程中被灌输了关于性别歧视和种族歧视的信息,成为误入歧途的“不良少女”。(www.xing528.com)

算法歧视的产生主要有三个方面的原因:①客观原因。公平被量化或形式化的可能性,即形而上的公平原则是否以及在何种程度上能够通过数字化的方式转换成具有操作性的算法。Matthew Joseph 等人在论文“罗尔斯式的公平之于机器学习”中基于罗尔斯的“公平的机会平等”理论,引入“歧视指数”的概念,提出了如何设计“公平的”算法的方法。[60]②主观原因。程序设计者是否会客观地将法律或道德规则转化成代码存在疑问。程序设计者在编程过程中总会带有一定的主观色彩,难免在算法中掺杂个人的主观意见。换言之,程序设计者的主观选择或判断往往因规则代码化而具有客观的外在表现形式,但事实上规则代码化的过程恰恰是程序设计者进行主观选择或判断的结果,而且规则代码化将放大程序设计者的主观选择或判断。③无意识的原因。算法歧视并非总是算法设计者有意识地选择的结果,部分算法歧视是算法的副产品。深度学习(deep learning)中算法决策具有“黑箱化”的秘密性特征,即便是程序设计者也可能并不知晓,算法中是否存在歧视以及该歧视产生的根源为何。

算法决策是向算法模型输入以往的数据而对未来作出预测。基于以往数据而对未来作出预测的算法决策会通过输出反馈的方式不断强化以往数据中隐含的歧视,出现固定甚至放大歧视的结果。“最终,算法决策不仅仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个‘自我实现的歧视性反馈循环’。”[61]

(1)伦理、道德规则代码化的可能性

伦理、道德规则代码化的可能性问题,即伦理、道德规则能否转化成计算机代码?法律规则具有相对确定性,而伦理道德规则相对模糊,具有不确定性。如何将模糊的伦理道德规则代码化并基于正当理由予以更新不无疑问。例如,如何理解人类整体利益并在此基础上进行伦理规则设计在人类社会尚未达成共识,遑论转化为机器语言。因此,算法不透明、算法歧视等问题随之产生。

(2)伦理、道德规则的选择性

伦理、道德规则的选择性问题,即将何种伦理和道德规则以何种方式嵌入人工智能机器(人)?人工智能的研发与应用存在“道德过载”(moral overlode)的伦理困境,即人工智能的系统如何协调多种伦理道德规则以及如何进行伦理道德价值排序。道德过载的伦理困境使得如何确认伦理道德规则体系以及如何将确认的体系内置于计算机结构中的问题凸显出来。例如,普世性价值与特定社群价值发生冲突时如何处理?效率价值与安全价值发生冲突时如何处理?能否为了多数人的利益而牺牲少数无辜者的利益甚至是生命?桑德尔教授曾举例说明了道德过载的伦理困境的问题,即在功利主义视角下,以多数人利益最大化为标准;而在绝对主义视角下,为了哪怕是多数人的利益或者生命也不能违背少数人的自由意志而伤害或牺牲其利益或生命。基于不同视角得出的结论截然相反。正因为如此,2017 年德国交通部部长任命的伦理委员会提出的报告“第8 条规定,诸如伤害一个人以避免对更多人的伤害这样的伦理难题不能通过事先编程来处理,系统必须被设定为出现这种情况下请求人工处理”[62]

(3)人的悖论:两难选择的不确定性

两难选择的道德困境并不是人工智能时代的特有现象。“这是人的悖论,不是机器的悖论。机器只是遵循规则而已,问题在于我们不知道应该为自动汽车选定什么样的规则。”[63]思维的局限性是人类固有的缺陷,无法避免也无法克服。追求完美的理性人总是希望能够考虑周全,但是绝对周全的考虑从不存在。百思不得其解才是回答哲学、伦理学问题的常态,人类事实上习惯于在信息不完全的情境中进行非完人标准的思考。进入人工智能时代导致人类的局限性暴露出来。“当人工智能成为人类的行为代理人,我们就需要为之设置一个‘周全的’行为程序,而这正是人类自己的局限性。”[64]

(4)机器悖论:人类价值与机器价值之间冲突的选择

人工智能技术的研发和应用与人的需要之间不匹配,存在价值对接的难题。有学者用迈达斯国王点石成金的故事描述人工智能与人类在价值对接上的不匹配。“一个消除人类痛苦的机器人可能发现人类在即使非常幸福的环境中,也可能找到使自己痛苦的方式,最终这个机器人可能合理地认为,消除人类痛苦的方式就是消除人类,这一假设在医疗机器人、养老机器人等方面具有现实的影响。”[65]

“所谓有轨电车悖论其实只是一个技术难题,它并非无‘解’,而是没有适合任何情况的一般‘解’,但有多种因情制宜‘解’……然而,自动智能驾驶悖论在伦理学上真的无‘解’。”[66]人工智能时代规则设计需要从利己主义转向利他主义。解决机器悖论的基本原则是:在人类利益与机器利益之间,优先选择人类利益;在人身利益与财产利益之间,在考虑比例原则的前提下优先选择人身利益。

(5)嵌入智能机器或系统的伦理道德规则如何更新并一直符合人类利益的需要

智能机器伦理路线设计的方案需要从义务型转向合作型。义务型机器伦理侧重智能机器服从或服务于抽象而模糊的人类整体利益;合作型机器伦理侧重智能机器在决策和行为过程中的自我调适。“机器伦理路线应该是更合作性、更自我一致的,而且更多地使用间接规范,这样就算系统一开始误解了或者编错了伦理规范,也能恢复过来,抵达一套合理的伦理准则。”[67]

3.伦理规制技术实现方式的设想

(1)人文主义道德程序设想:人类中心主义的投射

阿西莫夫的科幻小说体现了人文主义道德程序设想。它以人工智能“性本善”为出发点,为人工智能设置人类利益至上、关爱人类等道德程序。该设想具有浓厚的理想化色彩,是人类的美好愿望投射在人工智能领域的结果,但是否具有实际意义,存在争议。

图灵机为基础的人工智能时代,为人工智能设置人文主义的道德程序具有技术上的可行性。人文主义的道德程序设想表面上实现了利他主义的目标。但是,当我们考察人文主义的道德程序设想命题提出的初衷时不难发现,所谓的人文主义道德程序设想事实上并未实现。人文主义道德程序设想提出的初衷在于解决当智能机器(人)的利益与人类利益发生冲突时,利益选择或价值选择的问题。而以图灵机为基础的人工智能时代,人工智能本身就是人类程序设计的结果,本质上是执行人类程序的设计,无法创设或修改规则的人工智能并无独立的自主意识和利益可言,无所谓智能机器(人)与人类之间冲突性的价值选择或利益选择的问题。换言之,人文主义道德程序设想在以图灵机为基础的人工智能时代可行并有效,其原因在于智能机器(人)与人类之间的利益或价值冲突问题并不真实存在。这恰如“维特根斯坦式的现象:许多问题的解决并非有了答案,而是问题本身消失了”[68]

超图灵机为基础的人工智能时代,具有独立自主意志的人工智能有了自身存在的目的和意义。当智能机器(人)与人类在利益或价值选择方面发生冲突时,人文主义道德程序对于具有独立意志的人工智能而言是无益的。人类将人文主义道德程序强加给人工智能之后,人工智能是否会因考虑自身利益最大化而将该道德程序视为病毒予以排斥、修改或删除,不无疑问。

(2)技术主义设想:无法拆卸的自毁程序

“哥德尔程序炸弹”是指“只要人工智能对控制程序说出‘这个程序是多余的,加以删除’或与之等价的任何指令,这个指令本身就是不可逆的自毁指令”。[69]人工智能对自毁程序的无能为力被称为“阿喀琉斯之踵”。但“哥德尔程序炸弹”启动的后果是否在人类能够承受的范围之内?因技术依赖而产生的人的异化现象引发学者的担忧。有学者认为,即便有“哥德尔程序炸弹”的保障,人类社会仍然无法承受启动该程序后的后果。“而人类生活已经全方位高度依赖人工智能的技术支持和服务,那么人工智能的自毁也是人类无法承受的灾难,或许会使人类社会回到石器时代。”[70]

(三)法律规则规制

“与传统社会模式不同,风险社会中最为稀缺的价值需求即是对于确定性的追求,法律作为一种确定性的价值存在风险社会的运作中充当着最佳的调控模式。”[71]伦理道德规则的自律性决定其作用范围和影响是有限的,防范新型社会风险导致无序、混乱而造成损失需要法律参与。法律规则体系是人工智能时代调控风险手段的重要组成部分。

人工智能技术的研发与应用使得法律规制出现真空(regulatory vacuum)现象。传统的法律规制方法,如产品许可、研发监督和侵权责任,在调整与智能机器(人)相关的风险时表现出不适应性。[72]而在新型规则设计方面,立法者保持相对沉默的态度,以人工智能为规制对象的法律法规相对少见。“由于法治迄今为止被证明是保护弱者权益、使人避免落入弱肉强食的丛林法则支配的最有效机制,所以,当人工智能所带来的新风险被许多人感知到的时候,人们自然希望法律能够因应这种风险提供新的保障。”[73]为应对人工智能时代的新型社会风险,需要对既有法律规则体系进行调整。构建和完善人工智能时代法律规范体系将有利于智能技术相关产业的发展与社会的和谐稳定。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈