(一)科技风险管理中的权利保障原则
不同于科技风险规制的其他过程,科技风险管理活动直接影响公民、法人与其他组织的看得见的权益。例如,在核能技术风险规制中,无论是议题设置与标准制定,还是评估与沟通,受核能技术风险影响的群体并不会遭到直接的权利侵害,但只要行政机关决定核电技术项目的选址或建设,民众的权利将遭受直接损益。因此,行政机关科技风险管理权力能否严格遵循权利保障原则将直接影响科技风险管理活动的合法性与正当性。
1.权利保障原则的基本含义
“权利”一词指的是自然人或法人依法行使的权能与享受的利益。[30]行政法上的权利保障原则要求行政机关在行使公共权力时,应当保障公民、法人与其他组织依据宪法、法律所应享有的政治、经济与社会权利。根据我国宪法与其他法律法规规定,政府应当依法保障公民享有的基本政治、经济、社会与文化权利。权利保障原则要求行政机关在行使科技风险管理权时原则上不得损害公民、法人与其他组织的合法权利。
2.明确权利保障原则的必要性
为了切实、有效地应对科技风险,科技风险管理制度赋予行政机关较多的行政权力,与此同时,公民、法人与其他组织的权利相应被克减。行政机关科技风险管理权直接对应公民宪法权利,权利保障原则直接对应行政机关科技风险管理活动的合法性与合理性问题。一方面,合法行政要求行政机关在科技风险管理中遵循权利保障原则。权利保障原则是宪法、法律赋予行政机关的法定职责。风险社会中产生的对民主的新型挑战是,“包含了一种使预防危险的极权主义合法化的倾向,这种极权拥有预防最坏情况的权利,但以一种非常熟悉的方式产生了某些更坏的情况”[31],如何从法律层面破解这一挑战成为民主制政府的中心任务之一。作为回应,宪法、法律从国家责任与公民基本权利保障两个视角对行政机关行为的合法性提出新要求,即行政行为的合法性应当是兼具合法律性与正当性的合法。聚焦至科技风险管理制度的再造中,行政机关的科技风险管理行为不仅应当严格依照法律法规作出,而且需要遵循权利保障原则。
另一方面,合理行政要求行政机关的科技风险管理行为遵循权利保障原则。不同于传统社会事务管理,科技风险管理的特殊性表现为,诸多新兴科技领域的风险管理活动“无法可依”,甚至无法判断其风险转化为社会危害的可能性。以人工智能技术风险为例,人工智能技术风险几乎不可能被消除,反而会随着技术的不断发展与进步变得越来越多;人工智能技术风险在表现形式、影响范围、危害后果等方面的高度不确定性导致了很难从是否具有可接受性角度解读部分科技风险,规制机关难以从成本与收益角度预测规制成本,现有的行政资源也很难支撑对其的规制。因为,从现在看来,人工智能技术的发展是时代进步的表现,利大于弊。世界各国政府大力支持、激励人工智能技术发展体现了规制路径。然而,任何人都不能否认人工智能技术蕴含的包括系统性崩溃、争夺就业机会、引发人类毁灭等风险,政府如何在鼓励、支持人工智能技术发展的同时,履行宪法法律赋予的保障公民健康、安全等权利,成为人工智能技术法制建构的重点问题。我国政府也提出在大力抢抓人工智能发展的重大战略机遇的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。如何从行政法治角度回应这一挑战,就需要在科技风险管理制度建构中强化权利保障原则。
3.权利保障原则实现的重点问题
第一,权利保障原则应当贯穿于科技风险管理制度再造的全过程,实现权利保障与科技风险管理目标达成之间的恰当平衡。在科技风险管理的预防、监测、应对与恢复阶段中,行政权力均可能对公民、法人与其他组织的合法权益造成侵害。例如,核能技术风险预防中,为保障核能项目安全,行政机关采取的对选址周边一定区域内的房屋、建筑等的拆迁侵犯了民众合法的居住权、财产权等权利。因此,权利保障应贯穿于科技风险管理权行使的全过程,当行政机关为实现特定科技风险管理目标时,应当切实、有效保障与之对应的公民权利。
第二,依法行政原则中的信赖利益保护原则应当解释为权利保障原则要求行政机关对因“信赖利益”而受损的权利予以保障或补偿。行政法权利保障原则中的信赖利益保护要求政府对自己的行为或承诺应守信用,不得随意变更,不得反复无常,即使在相关法规范不存在或客观情况发生重大变化下,行政机关基于公共利益改变原有行为也应予以补偿或赔偿。[32]在科技风险管理中,行政机关可能基于公共利益改变原有行政决策与行为,但由于科技风险的高度不确定性、规制的极端困难性等特征,科技风险管理决策与行为的客观情况会经常发生变化,行政机关基于决策与行为的客观情况发生重大变化改变而原有决策与行为的情况将会增多,此时,信赖利益保护原则将更多被解释为权利保障的原则而非依法行政的原则。
第三,科技风险管理遵循的行政法基本原则应区分常态与紧急状态。科技风险管理包括常态管理与应急管理两部分,当科技风险的社会危害可能性未发生时,行政机关依据常态下的行政法规范与基本原则行使公共权力,但是,当科技风险的社会危害可能性爆发后,为了有效应对突发公共事件,行政机关依据《突发事件应对法》与其他法律法规管理科技风险,行政权力得到扩张,公民权利相应克减。此时,秩序行政下的行政法基本原则的意涵发生部分变化,依法行政原则所依据的法律规范变成应急法制;公民、法人与其他组织的部分宪法权利与自由被克减;科技风险管理的效率原则强化,程序要求被相对弱化,等等。
(二)多元主体参与原则
1.多元主体参与原则的基本含义
“自上世纪中后期以来西方蓬勃兴起了以私人参与、公私合作、公私协商、公私共治为基本特征的公共治理模式以及与这种公共治理模式相适应的新行政法。”[33]在发达国家,多元主体参与已经成为行政法的核心价值之一,而发展中国家也致力于此制度的引进、移植。多元主体参与科技风险管理已经成为世界许多国家的发展趋势。虽然科技风险管理属于传统行政法确立的行政机关的主要职责,但是,为了促进管理决策的可接受、管理过程的顺畅与管理结果的合理正当,行政法应当确立科技风险管理的多元主体参与原则。它的基本含义是,多元主体在科技风险规制措施的选择、评估、衡量、执行和监督与反馈等环节相互合作、相互监督和责任共担。这一原则隐含着由科技风险管理机关、专家、公众和其他利害关系人运用共同掌握的关于科技风险的知识、经验和信息共同管理科技风险的含义,即科技风险管理除依赖于以行政机关及其聘请的专家所有的技术或经济的知识之外,还应当考虑利害关系人和普通公众所具有的文化的、心理的、政治的和道德的因素。
2.多元主体参与原则的必要性
第一,有利于增强科技风险管理的合理性,增加科技风险管理的现实绩效。科技风险不仅仅是一种物质性的存在,它也会被公众或社会所建构,从而产生社会放大效应。公众对科技风险的直接感知容易被各种间接感知[34]取代,“个人比任何时候都更为依赖那些为它们提供风险信息的人的可信度与真实性”[35]。多元参与科技风险管理可以为科技风险管理增添新的行动指南,有利于科技风险管理机关及专家在制定科技风险管理方案或选择具体措施时,除了考虑技术的和经济的理性之外,还能够全面考虑利害关系人和普通公众所具有的文化的、心理的、政治的和道德的因素,以增进科技风险管理方案和措施的合理性,提高管理绩效。
第二,科技风险管理过程的价值衡量性要求多元主体参与。与科技风险评估相比,科技风险管理具有更加浓厚的政策的衡量与选择的特色。科技风险管理者要考虑规制方案和措施能在多大程度上消减或消除特定的科技风险,会给行政相对人和公众的利益造成怎样的影响,会带来怎样的附加成本,执行起来会遭遇怎样的困难等问题。该过程需要综合考虑普通公众和利害关系人的心理、道德、文化和政治因素,并且有时不得不给予这些价值因素单纯的科学方法和技术更高的权重。所以,科技风险管理是一个涉及众多价值判断的过程,而非价值中立的过程,这就为多元主体参与提供了客观基础。
第三,科技风险管理机关及专家决策的有限理性需要引入多元主体参与来加以整合以增强科技风险管理的科学性。在现代科技风险管理领域引入专家制度显然是行政机关希望借助专家理性来提升自己理性决策的能力。但是,行政机关及其聘请的专家也并不能得出“确定无疑”的结论,制定“完美无瑕”的方案,选择“万无一失”的措施,专家理性的不可靠性和局限性日益凸显:就客观而言,科技风险知识本身具有不确定性和有限性,相对科学技术的不断发展和科学知识的不断增进,参与科技风险管理的行政机关及专家的专业知识总有一定的局限性,其所作的结论也就会存在某种不足或者可以说是在有限理性的情况下所做出来的,与现实情况总会出现一定的差距,可能会出现失语或意见纷争;从专家们的视角来看,专家知识可能过于自信或被俘虏,被利益集团左右;从公众的视角来看,专家知识面临公众知识的挑战;从行政机关的视角来看,决策主体价值选择上具有主观不确定性,例如,决策者在决策时,需要在不同的科技风险认知和评价之间、不同的利益需求之间、客观安全和主观安全之间寻求平衡,每一种选择都与其法律、习俗、态度、伦理、价值观和偏好等有近亲关系,决策人员由于其背后的文化价值、利益集团等原因容易导致决策和执行的非理性,等等。[36]为了克服行政机关及专家决策的有限理性,摆脱专家依赖型模式的弊端,缩小普通公众期望与科技风险管理现实效果之间的差距,多元主体参与科技风险管理是必要的。这有助于减少科技风险管理过程和结果受到利益集团或者行政机关的操纵,整合专家的风险判断与多元主体的科技风险认知,提升行政机关科技风险管理方案和决策的正确性和科学性。
第四,从世界其他国家科技风险管理经验来看也需要多元主体参与。在全球领域方兴未艾的科技风险管理研究中,不少国家政府提出与发展了科技风险管理的合作共治向度,例如,德国联邦议院1998年5月1日颁布的公司法第91条第二款明确规定了风险管理体系在公共事业企业中的适用性,各级政府的公共事业企业都要建立健全风险管理体制机制,其中董事会是公司风险管理的直接责任人。[37]社会组织、企业与公众作用的发挥已经成为全球领域科技风险管理的法制研究中促进管理提质增效的新领域。我国拥有众多的社会组织、企业与庞大的基层群众自治组织,因而拥有科技风险管理多元参与的土壤。因此,无论是理论证成、现实要求与域外实践,科技风险管理法律制度的重构中均应纳入多元参与原则。[38]
3.多元主体参与原则的实现方式
第一,国内多元主体参与科技风险管理过程的模式选择。科技风险管理制度应当为社会组织、私人企业、科研机构与公众等多元主体参与科技风险管理设定具体的渠道、方式与路径。笔者认为,多元主体参与可以通过科技风险规制协商委员会这一体制建构来实现。科技风险规制协商委员会制度之建构可以吸纳多元主体参与,保障多元主体的自由表达意见权,协调科技风险管理中不同主体间的权利冲突,促进合意达成。因此,为保障多元主体参与的渠道畅通,科技风险管理制度应当明确科技风险规制协商委员会的法律地位并赋予相应的组织、召集与协调等职权。使其成为多元主体参与科技风险管理的合法平台。
第二,多元参与原则不仅指国家内部不同主体共同参与科技风险管理,还包括全球范围内国家与国家、国家与地区、国家与跨国组织、国家与他国组织等主体间共同参与特定科技风险的管理过程。这是因为,在经济全球化时代下,科学技术的发展的国际化、全球化趋势显著。以网络技术风险为例,2017年盛行的“勒索”病毒攻击了全球多个国家与地区,其中有报道“在北美已发生约2000次攻击,受害者主要集中在乌克兰和俄罗斯”[39],单一国家或区域很难规制发生在他国的危险行为。此时,国家、区域与跨过组织等之间可能通过国际条约、协定等规范确立多元主体共同参与的科技风险管理制度,确立参与范围、参与内容与协作机制。(www.xing528.com)
(三)科技风险管理中的预防性原则
1.预防性原则的基本含义
作为科技风险规制中的基础性原则,行政法学界对预防性原则在科技风险管理中的适用路径、边界等问题仍处于讨论之中,但普遍公认的是,预防性原则拥有特定的、相对明晰的内外部界限。有学者提出风险管理中的“强预防”与“弱预防”原则并分析其意义及适用,认为科技风险管理中适用强预防原则的合理性[40]。笔者认同这一观点,面对灾难后果高度不确定的科技风险,确立必要的“安全边界”[41]应当是行政机关实施管理的最重要任务,而不是通过成本效益分析或政治考虑后作出决策。预防性原则蕴含了这样一项内核,即要求行政机关在科学技术不确定性之中采取干预行动。从公法角度看来,立法确立预防性原则实质上是一种授权,即“立法者授权政府在国民面临不确定的威胁时,不顾科学上的不确定性而采取保护国民的行动”[42]。对于行政机关采取行动的标准——因为这关涉到后续可能导致的司法活动中行政机关举证问题——有学者主张,对于引发风险预防原则的证据标准应当既考虑某项活动或者物质事实上的威胁性,又要考虑国家的文化、公众对特定风险的反应等社会因素。[43]在科技风险管理中,行政机关采取行为所能依据的具体性法规范很少,需要自我创制或自主地决定采取何种行为,然而,如何保障行政机关的预防性活动真正是为了预防科技风险就需要通过行政法的参与式行政改革、引入“软法之治”、程序性改革与具体内容设计来实现。
2.科技风险管理中预防性原则的适用路径
对于科技风险管理中的预防性原则,行政机关应当从以下方面展开:
第一,以参与式行政回应对预防性原则的抨击。预防原则的适用必然导致行政机关科技风险管理权力的扩张。多数情况下,公众可能愿意面对扩张后的行政权力,也不认可行政机关内部决策后采取的预防行为,此时,以行政公开为前提,以多元主体共同参与科技风险管理决策并发挥实质影响为样貌的参与式行政能够增加决策的透明度、增强结果的社会认同,缓解行政行为单方行为的正当性质疑。
第二,通过软法促进预防性原则的实现。预防性旨在要求行政机关采取各种行为规避风险,行政权的行使可能对私主体的经济、社会权利产生损益。软法之治无须动用国家强制力,而是通过多元主体之间基于公益利他精神,出于共同遵守的软法规范实施沟通、协商,最终实现与行政机关强制力行为同样的目的。软法之治既可以极大缓解行政机关科技风险管理行为与行政法治正当性的紧张关系,又可以提高科技风险管理行为的可接受性。
第三,以强化行政决策与行为的程序法治回应预防性原则的法治化。即使对风险预防原则批评最为激烈的学者,例如美国学者孙斯坦也承认,“风险预防原则也许并不是真的拒绝权衡,它也完全可以要求平衡各种因素,只是这种平衡要更加强调规避风险。”[44]面对无法实现的平衡,行政机关唯有通过强化科技风险管理行为的程序性规范并严格遵守,才能在回应各方质疑的同时有效落实科技风险管理预防性原则。以德国基因技术法领域确立的预防性原则的程序性标准为例,德国政府在基因技术管理中确立了一套系统性的基因技术风险预防准则,其主要依据为具体基因项目是否可控、危害人类健康的可能性等因素。第一类是“在封闭的设施中研发此类转基因生物,且获得许可”,而这一等级又可以分为四个危险等级,包括对环境和健康没有任何风险忧虑、较小的风险、中度风险、高度风险;第二类是“在优先的领域开放此类生物”,但开放必须在可控范围内;第三类为“转基因生物的流通”,第三方成为风险的责任人;第四类为概括性条款,即在存在疑问时,为了预防的目的,适用较高的危险预防等级。[45]行政机关的科技风险管理行为被拘束在相对确立的程序标准之内可以在确保其积极履行科技风险管理预防原则的同时,有效防止权力恣意行使。
第四,通过内容设计丰富预防原则的适用条件、范围与责任。科技风险管理中预防原则适用的具体内容设计可以参考欧盟行政法中的风险预防原则,该原则的主要内容由触发因素、行政措施、行动原则、举证责任等组成。[46]在科技风险管理中,当遇到科学证据不足或无法完全证明的潜在风险时,规制机关应当在科技风险评估的基础上按照风险预防原则作出是否决定的行政决策,行政决策所要求的透明、公众参与、比例性、程序等基本原则必须被遵守。此外,科技风险管理中的多数举证责任仍由规制主体承担,但关于科技风险是否安全的举证责任被转移至直接相对人一方,即科技发明与应用的直接利益人必须承担证明其对具体科技发明、应用与市场化的行为现在乃至未来特定时间段内不会对环境、社会与公众产生危害的直接证明。为了使科技风险管理制度与科技发展保持同步完善,依据实质等同原则,当行政机关遇到新兴科技风险时无须要求立法机关出台新的法律制度,其可以在原有法律制度机构下通过制定规范性文件的方式加强科技风险管理行为与法律制度的匹配,即具有较大相似性的科技风险可以在同一法律制度框架内进行管理。例如,行政机关在管理人工智能技术中自动驾驶技术风险与机器人技术风险时,可以在立法机关制定人工智能技术风险管理的法律规范后,通过行政立法方式确立具体科技风险的管理手段、方式与内容。
(四)必要的强制性原则
1.必要的强制性原则之含义
行政目标的实现与行政权力的实施离不开必要的强制措施。在科技风险管理中,行政主体的行为或多或少会损害私人企业、公民等的权益,同时,为了保障国家利益与公共安全,他们不得不强制地保障科技风险管理措施的实施。2007年颁布实施的《突发事件应对法》规定了突发公共事件应对中行政机关的强制性行政权力的类型、范围等问题。从严格意义上讲,科技风险管理的对象包括但不限于突发公共事件,在某种情形下,行政机关必须通过强制性措施保障管理目标的实现。因此,科技风险管理法制应当确立必要的强制性原则。
2.必要的强制性原则之理据
必要的强制性原则适用于需要行政机关禁止或尽最大可能予以消灭与应当采取管理措施抑制与减轻其社会危害的科技风险。科技风险管理制度确立必要的强制性原则之理据可以从历史与法规范两个视角予以论证。
一方面,从历史视角而言,政府介入风险控制管理自古有之,如各朝代治理黄河以防洪水风险。进入风险社会,国家的安全保障职责从将关心现状、保护或重建一个不受干扰的状态,发展到以未来为目标全面形塑社会。[47]进入21世纪后,以科技风险为主要面向的高风险社会已经到来。面对高度不确定的科技风险,承担更多的科技风险管理与安全保障职责,对科技发明、应用与市场化活动进行审慎规划已经成为政府保护责任的重要内容。
另一方面,从法规范学的视角而言,宪法、法律明确赋予行政机关在管理国家事务中的必要的强制性权力。2011年6月30日经全国人大常委会表决通过的《中华人民共和国行政强制法》赋予行政机关采取行政强制措施与行政强制执行的权力。2007年11月1日起施行的《突发事件应对法》第49-51条也明确赋予行政机关在突发事件应对中的诸多强制性权力,包括强制隔离、控制水电气供应、封锁场所、禁止使用相关设施设备及采取其他强制性措施。此外,《核安全法》《食品安全法》等法律也通过授权行政机关制定应急预案的形式赋予其设立强制性措施的权力。因此,必要的强制性原则应当成为整个科技风险管理制度的基本原则之一。
3.必要的强制性原则之基本内容
第一,必要的强制性原则确立的前提问题。我国科技风险管理中必要的强制性原则确立的前提是,行政机关应当厘清科技风险管理中的三个主要问题,一是高度不确定的科技风险与强制措施指向对象的法益大小问题;二是高度复杂的科技风险与设定具体强制措施间的冲突问题;三是危害后果的极端性要求行政机关采取更多事前强制措施的要求与现行行政法确定的更多事后强制措施之间的失配问题。
第二,厘清必要的强制性原则的范围与类型。在厘清必要的强制性原则的范围与类型时,可以借鉴域外的先行做法,2017年9月,德国联邦交通部自动驾驶伦理委员会率先研究提交了世界上第一份自动驾驶指导原则,对自动驾驶汽车的使用持谨慎乐观态度。该伦理委员会由14名来自伦理、法律与技术界的科学家与专家构成,其中包括:交通专家、法学家、信息学研究者、工程师、哲学家、神学家以及消费者保护协会和企业界的代表。德国交通部长表示,在数字化和机器学习的时代,人机交互带来新的伦理问题。自动与互联驾驶是全面应用人际交互的创新领域。这份指导原则同意给予自动驾驶系统的准入,但其中含有部分部门强制性条款,包括对安全、人类尊严、个人决策自由以及数字独立方面提出了强制性要求。这份报告共包括20条意见,核心要点包括只有当自动驾驶系统的事故发生率低于人类司机时,自动驾驶技术方允许被适用;人类生命的最高优先权,即危险情形时人身保障应优先于财物;适用自动驾驶技术汽车中的平等原则,智能系统不能根据行车者的个人特征作出不一致的判断;明确自动驾驶与人类驾驶中的责任问题,这要求智能系统应对自动驾驶情况明确记录;自决权,司机拥有自主决定是否选择自动驾驶的权利。[48]对自动驾驶技术应用可能危及人身安全时,行政机关可以依据上述意见,采取强制性管理措施。
第三,明确必要的强制性原则所指强制性措施的种类。此外,巴西针对转基因生物技术风险管理提出了一系列强制性措施,作为专门调整转基因生物技术(遗传工程技术)的《巴西生物安全法》,该法对违法行为的处罚措施除传统行政处罚中的警告、罚款、查扣转基因生物及其副产品、勒令中止转基因生物相关活动、中止或吊销注册、许可或授权(吊销许可证)、部分或全部废除已授权进行转基因相关工作的设施等外,还包括取消或削减政府给予的税收优惠及补助;取消或中止在官方信贷机构的信贷额度、禁止在5年内与公共管理机关签订任何协议等间接处罚措施。[49]
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。