首页 理论教育 人工智能时代的风险特征分析

人工智能时代的风险特征分析

时间:2023-07-05 理论教育 版权反馈
【摘要】:人工智能时代的社会风险根源于智能技术的变革,主要表现为因技术创新、失误、故障或滥用而导致的风险。技术革命引发的社会风险被深深地打上技术的烙印,使得人工智能时代识别、预防、控制、消除风险的难度增加,该技术性特征是新型社会风险其他特征产生的基础。为化解人工智能时代的社会风险而设计民事法律责任规则体系不能忽视技术的作用。与其他公共风险来源比较而言,人工智能时代的风险更难以规制。

人工智能时代的风险特征分析

风险状态是人类社会的常态,人类社会总是会面临不同类型的风险。在社会发展进步的过程中,风险客观存在,机遇与风险并存。避免风险造成损失或灾难并不意味着需要消除一切风险。部分风险是社会所允许甚至欢迎的。乌尔里希·贝克在《风险社会》一书中指出,伴随现代技术发展,风险社会的核心由财富分配转向风险分配。[37]“我们在支持科学创新或者其他种类的变革中,可能应该表现得更为积极些,而不能过于谨慎。毕竟,‘风险’一词的词根在古葡萄牙语中的意思是‘敢于’。”[38]人工智能的自主性、技术性和不确定性使得人工智能时代的风险具有技术性、公共性、结构性和不可逆转性等特征。

(一)人工智能时代风险的技术性

人类在享受科技进步成果的同时,也营造了“技术知识的囚室”[39],制造了新型社会风险。它是计算机科学、认知科学发展与进步的结果,是人类文明产生的技术性风险。人工智能时代的社会风险根源于智能技术的变革,主要表现为因技术创新、失误、故障或滥用而导致的风险。具体而言,主要包括以下技术风险:①数据匿名化和反匿名化技术产生的信息泄露风险。②基于数据分析进行行为预测而产生的隐私风险和安全风险。③因算法黑箱导致算法歧视、责任主体隐形化的风险。④算法合谋导致的市场风险。⑤黑客入侵产生的安全风险。

技术革命引发的社会风险被深深地打上技术的烙印,使得人工智能时代识别、预防、控制、消除风险的难度增加,该技术性特征是新型社会风险其他特征产生的基础。为化解人工智能时代的社会风险而设计民事法律责任规则体系不能忽视技术的作用。当智能机器导致损失时如何确定过错以及因果关系、责任承担与人工智能技术研发与应用的关系如何、民事法律责任规则的功能如何定位等问题的解决不能单纯依靠价值分析,须经由技术路径实现。“法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”[40]

(二)人工智能时代风险源头的分散性与隐蔽性

人工智能研发是开启人类社会潘多拉魔盒之手,是人工智能时代风险产生的根源。具有物理可见特征(physical visibility)的公共风险,难以秘密(clandestinely)隐藏。核科技(nuclear technology)、批量生产消费品(massproduced consumer goods)、工业污染(industrial-scale pollution)、有毒物质产品(production of large quantities of toxic substance)等,都需要进行大规模基础设施建设、购买必要的设备和劳动力,在确定导致公共风险源头的主体方面相对容易。而与传统商品生产不同,人工智能的研发与应用具有分散性、不透明性。人工智能研发和应用主体的工作具有相对独立性,其在时间和场地选择方面相对自由,无需在特定时间聚集在特定场所共同完成。人工智能技术研发与应用的参与者处于离散状态,不需要属于同一个机构或存在合同关系。编写计算机代码无需大公司提供资源或设施,拥有现代计算机甚至手机和网络的人都可以参加人工智能的研发;研发地点也具有随意性,办公室、卧室、宿舍、车库、车站均可。这种相对独立、分散的工作方式使得风险的源头难于分辨,增加了对其进行监管的难度。[41]

(三)人工智能时代风险的公共性(www.xing528.com)

胡贝尔(Peter Huber)创造了公共风险(public risk)的概念用于描述对人类健康和安全造成的威胁。早期公共风险关注核工业环境污染、批量生产的实体产品。[42]人工智能研发与应用导致的风险不仅威胁人类的健康和安全,而且会影响人类作为类存在的可能性,属于公共风险。与其他公共风险来源比较而言,人工智能时代的风险更难以规制。[43]

(四)人工智能时代风险的结构性

与传统的社会风险比较而言,人工智能时代的社会风险具有结构化特征,风险的传导效应相对较弱。人工智能对社会生活的影响是整体性和全方位的,人工智能技术的应用会改变整个行业的工作方式和就业形势,造成传统行业的结构性崩塌。

(五)人工智能时代风险的不可逆转性

人工智能技术的研发与应用让人类走上了一条在技术引导下的道路。倘若人工智能可以与人类智能相媲美或优于人类智能,人类在社会生活中的主导地位便会遭到威胁,产生不可逆转的社会风险。人工智能丧失控制(loss of control)可以分为两种类型:①丧失局部控制(loss of local control),即人工智能系统不再被法律上负有责任(legally responsible)的操作者或监管者所控制。②丧失全面控制(loss of general control),即人工智能系统不再被任何人控制。[44]具有学习适应能力的人工智能一旦失去控制,就很难重新恢复。科幻电影,如《终结者》《黑客帝国》《西部世界》描绘了不受人类控制的人工智能可能危及人类安全的场景。伊隆·马斯克曾警告,不当地发展人工智能可能是在“召唤恶魔”。吉登斯认为:“为了避免严重而不可逆转的破坏,人们不得不面对的,不只是科技的外部影响,而是也包括限制科技发展的逻辑。”[45]

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈