首页 理论教育 紧急避险与正当防卫的正当化抗辩

紧急避险与正当防卫的正当化抗辩

时间:2023-07-31 理论教育 版权反馈
【摘要】:紧急避险是与正当防卫同种类型的正当化抗辩。个体出于紧急避险而采取行动,在他看来是两害相权取其轻。紧急避险的受害者是无辜的,无需为任何事情承担责任,但是紧急避险行为仍然被视为是正当的。在要求紧急避险行为的情形中,可以认为追究刑事责任所需的个体过错失去效力。在紧急避险案件中,避险人必须两害相权取其轻,其中一种选择会损坏外部利益,而这可能是与危险无关的无辜之人。

紧急避险与正当防卫的正当化抗辩

刑法背景下,能够认为人工智能系统会出于紧急避险而采取行动吗?紧急避险是与正当防卫同种类型的正当化抗辩。正如上文所述,两者都是为了降低社会对权力的绝对垄断。[439]紧急避险和正当防卫的主要差异在于,反应行为对象的身份不同。在正当防卫中,防卫人是针对攻击人作出反应,而在紧急避险中,避险人则是针对无辜对象(无辜的人、财产等)作出反应。无辜对象并不一定与反应行为的原因有关。

例如,两个人在公海上航行。船舶撞击冰山后沉没。两个人靠临时的木筏幸存下来,但是没有水和食物。几天之后,其中一人为了生存,吃了另一人。[440]受害者没有攻击吃人者,对撞船事故也不负责,他完全是无辜的。攻击人也是无辜的,因为他知道,如果不吃另一人,他注定会死亡。如果吃人者因谋杀罪被起诉,他可以主张紧急避险(正当防卫和此案无关,因为受害者没有威胁攻击人)。

紧急避险抗辩的传统方法是在特定情况下证明犯罪合理:紧要之需,则无法律(quod necessitas non habet legem)。[441]传统上,该抗辩的正当化理由是,刑法理解人性的弱点。个体出于紧急避险而采取行动,在他看来是两害相权取其轻。[442]在上述事例中,如果攻击人选择不吃另一人,那么他们都会死亡;如果他选择吃另一人,那么只有一个人会死亡。两种情况都很不幸,但是一人幸存稍微好一些。紧急避险的受害者是无辜的,无需为任何事情承担责任,但是紧急避险行为仍然被视为是正当的。[443]

鉴于紧急避险的行为由个体在政府当局无法到场时实施,所以紧急避险的一般抗辩会部分削弱一般概念的适用性。如上文所述,根据该一般概念,只有社会(国家)才能享有垄断权。在要求紧急避险行为的情形中,可以认为追究刑事责任所需的个体过错失去效力。从古代起,这一概念就为全世界的法律体系所接受。最终,该抗辩也变得更加宽泛、更加精确。[444]其现代形式允许个体保护合法利益而实施避险行为。

适用该一般抗辩必须满足以下几个条件:(1)受保护的利益必须合法,合法利益指生命、自由、身体和自己或他人的财产。不要求受威胁之人与避险人事先具有联系。[445](2)受保护的利益必须处于明确且即将发生的危险之中。[446](3)紧急避险行为必须指向外部的、无辜的利益。[447](4)紧急避险行为必须是为了消除危险,必须和危险具有相当性,[448]而且必须是即时的。[449](5)避险人无法控制危险或控制危险发生的条件(原因自由行为)。

如果这些条件全都满足,那么就认为个体是出于紧急避险采取行动,不必为所犯罪行承担刑事责任。可是,并不是所有为了消除危险对无辜利益造成损害的行为都是紧急避险,只有完全满足上述所有条件才是紧急避险。问题在于,紧急避险的一般抗辩是否适用于人工智能系统。答案取决于,在相关情形下,人工智能系统具备满足上述条件的能力。(www.xing528.com)

上述条件中第1、2、4和第5个条件与正当防卫(已作必要修正)抗辩的条件相同,不同之处在于,正当防卫是合法利益受到攻击,而紧急避险则是合法利益面临危险。正当防卫和紧急避险的主要不同之处在于,其中的一个条件不同。正当防卫中的行为指向攻击人,而紧急避险中的行为指向外部的或无辜的利益。在紧急避险案件中,避险人必须两害相权取其轻,其中一种选择会损坏外部利益,而这可能是与危险无关的无辜之人。在这种情况下,有关人工智能系统的问题便是,它们是否有能力进行“两害相权取其轻”。例如,一辆基于人工智能技术火车搭载着20名乘客到达两条铁路的汇合处。第一条铁路上有一个小孩在玩耍,而第二条铁路则通往悬崖。如果系统选择第一条铁路,儿童必定死亡,但是,20名乘客会幸存。如果系统选择第二条铁路,小孩会活下来。但是,根据火车的速度以及其与悬崖之间的距离,火车肯定会掉落悬崖,乘客将无一幸免。

如果人类驾驶员驾驶火车,选择了第一条铁路并且杀死了小孩,他可以凭借紧急避险的一般抗辩免于承担刑事责任。人工智能系统可以计算每个选择的概率,并作出伤亡人数最少的选择。强人工智能系统已经被用来预测复杂事件(例如,气象模式),而且,计算前文事例中的概率则要简单得多。人工智能系统分析概率时面临的两种选择与人类驾驶员需要考虑的两种选择完全相同。

如果基于编程或者相关机器学习软件的人工智能系统考虑到可能的伤亡率,它可能会选择牺牲那个小孩。人工智能系统的这一选择完全符合紧急避险的所有条件,所以如果它是自然人,它可以通过紧急避险的一般抗辩免于承担刑事责任。那么应该对人工智能系统区别对待吗?而且,如果人工智能系统改变选择并导致更加不幸的结果,我们很可能会以与人类驾驶员完全相同的方式来追究相关主体的刑事责任(编程人员、用户或者人工智能系统)。

固然,这些选择和决定会涉及一些道德难题,例如,让人工智能系统在人类生命的问题上作决定是否合法,人工智能系统造成人类死亡或者重伤是否合法。但是,这些难题和上述正当防卫的道德难题并无不同。[450]而且,关于刑事责任的问题并不会将道德问题纳入考量范围。所以,似乎紧急避险的一般抗辩与正当防卫类似,也适用于人工智能系统。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈