欧盟的科技风险规制整体上遵循人本主义路径,兼顾科学主义路径。人本主义体现为科技风险规制中“非科学性”因素占较高地位,并在实践中表现为规制的“谨慎预防原则”。具体而言,现行欧盟调整科技风险议题设置的法律规则建构于对风险社会与科学双重复杂性认知之上,通过程序性建构为不同主体间的合作性议题设置提供制度路径。主要有以下特点。
(一)通过追求政治的合理性保障科技风险议题设置的民主性与规范性(正当性与合法性)之统一
有学者认为合作程序的确立旨在调适科技风险议题设置中科学与社会理性间的潜在冲突[34],科技风险议题设置应在科学因素之外依据其他非科学的合法性因素,如谨慎预防原则、科技的不确定性以及民众忧虑等。欧盟委员会的科技风险议题设置实践遵循了上述理念,以人工智能技术风险议题设置为例,2016年5月31日,欧洲议会法律事务委员会公布了关于机器人民事法律规则的报告草稿,并向欧洲联盟委员会提出了建议。[35]该法律规范虽主要关注于智能机器人侵权责任方面的问题,但也提及该技术的社会风险问题。与美国的《准备迎接人工智能未来》战略报告相比,欧盟的报告篇幅更短,更多地关注机器人,而不是人工智能,并立即关注自主车辆、无人驾驶飞机和医疗机器人,以及在这些领域可能需要制定具体规则的建议。欧盟报告中对人工智能的处理也反映了对该技术的不同理解。人工智能不是一种独立的技术,而是作为“智能自主机器人”的一个基本组件来实现的。因此,人工智能被认为是能够在其他技术系统中实现自主性的东西。然而,决定不列入未实现的人工智能技术使得该报告与之前出台的两个报告有所不同,并产生不同的政治和法律后果。报告强调,在现实社会生活中测试机器人对于识别和评估机器人可能带来的风险及其技术应用与发展至关重要。
(二)不断被强化的谨慎预防原则主导了欧盟科技风险议题设置之实践
欧盟里斯本条约第191条第2款指出,在考量不同地区差异性的基础上,欧盟的环境政策以高标准保障为目标,以预防原则为基础,并允许成员国在适当情形下采取临时性措施。[36]具体到科技风险议题设置中,欧盟当局基于谨慎预防原则之要求,在科技风险议题选择、优先次序设置与议题确定环节均采取积极的预防措施。以欧盟转基因技术风险规制为例,自20世纪80年代起,欧盟成员国中的奥地利、保加利亚、法国、德国、希腊、匈牙利、卢森堡等国家先后禁止转基因作物的商业化种植;2011年下半年,欧盟提出了一个“技术性解决方案”——“零阈值”政府——即对饲料种混杂的未批准转基因成分采取0.1%的阈值[37];2015年1月,欧洲议会通过了2001/18号令修正案,重申“除非为公共健康或环境安全之目的,欧盟所属成员国应限制或禁止转基因生物种植及其恶意环境释放”[38]。欧盟积极将转基因技术列入科技风险议题并采取切实的预防措施源于其科技风险规制法律体系确立的谨慎预防原则。欧盟科技风险议题设置的谨慎预防原则不可避免地带来一些负面结果,例如科技发明与应用的积极性受挫、成员国经济发展放缓等,但人本主义的科技风险议题设置路径形成于苏联切尔诺贝利核灾难发生后,其将保障公众生命健康权作为国家首要保护义务的做法值得借鉴。(www.xing528.com)
(三)科技风险议题设置过程的组织建构表现为去中心化的行政合作原则
欧盟的成立主要基于《欧洲联盟条约》等一系列条约,其中,《政治联盟条约》确立了欧盟委员会的科技风险议题设置权。为从根本上防止欧盟组织结构的单边行为,欧盟委员会、食品安全局、环境署等机构应严格依据法定程序框架履行各自职权并不得越权,这主要是为了防止欧盟的组织与成员国政府组织间的职能冲突问题。去中心化的行政合作原则表现为两个方面,即欧盟组织内部机构间的合作以及欧盟组织与成员国政府职能部门间的合作。例如,转基因作物规制中食品安全局负责风险评估、欧盟委员会负责风险管理[39],欧盟委员会、食品安全局也应当与成员国食品安全监管机关进行充分的交流与合作。
(四)合作原则与集中规制原则仅停留在法律规范层面,还未得以落实
以转基因风险规制为例,实践困境在于欧盟委员会风险管理的科学性与欧盟组织体系决策的政治性间的冲突,其根本在于如何由跨国间的合作转变到统一决策、管理与责任承担以保障权威的问题。[40]具体到科技风险议题设置中,谨慎预防原则内涵了透明性程序原则与协商性设置原则,直接结果是,多主体协商结果对科技风险议题设置具有重要影响。例如,公众对于核能技术的风险认知影响欧盟成员国的科技风险议题设置。德国核能法颁布实施后,核能的商业利用在德国社会一直处于政治与公法领域争论的风口浪尖,公众对核燃料、核反应堆等风险的恐慌迫使德国议会通过法案宣布2022年前逐步推出核能发电。[41]
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。