自动驾驶汽车的普遍应用必须建立在特定的道德法则之上。这将决定这些车以后如何发挥作用。这样的道德法则到底有多大必要性呢?让我们来设想这样一个场景:一辆自动驾驶汽车因为柏油路上的油渍而突然失控,正迅速滑向一个过马路的女人。控制车辆的计算机有两种选择,继续向前,撞向那个女人,或者转向左边车道,同时碾过一个无辜的路人。
这种情况下,怎样才算更符合道德标准呢?是撞到路上的女士,还是站在人行道上的无辜路人?如果路人碰巧是一位80岁的老人,该怎样抉择?如果这位女士还推着婴儿车,汽车又该何去何从?路人站在人行道上或者正在乱穿马路,会影响汽车的决策吗?
这些问题都能在伦理和道德法则中找到答案。这些规则,还有那些学术象牙塔中的教授们制定的规则,在社会中并没有被严格遵循。答案有时候会让人难以接受。即使经过逻辑分析和冷静思考,我们可能还是觉得道义上难以接受。在这种情况下,自动驾驶汽车也许只能基于这些考虑来做决定,不考虑其他因素。我们很有可能对最终结果不满意。但是这样做可能会比人类更好地处理类似的危急情况。
“如果一个人意识到事故马上就要发生,就必须在几分之一秒内做出反应。那么不管怎样都很难确保道德上的万无一失。”贝霍尔为自动驾驶汽车辩护道。“冰冷而确凿的数据不断告诫我们,在极端情况下,人类司机常会做出错误判断。比如说,一辆车下坡时刹车失灵,其实司机应该做的是放弃故障制动,让车翻过去。这样,可能只是车上的人受伤。这是正确的、理性的决定。但是,人类不会考虑故意翻车。相反,车掉下悬崖,一家人都遇难了。”
问题在于,理性的决定有时会被认为是冷漠无情。如果一辆自动驾驶汽车为了拯救乘客的生命而自己翻车,新闻媒体肯定立即横加指责。新闻媒体不会想到要是不这样做可能造成的后果。因此,在这种情况下,汽车制造商很有可能决定不让车辆完全自主,并对车辆进行编程,避免车辆因为变道而造成人员受伤。这样,只有汽车发生故障的时候才可能发生事故。车辆将继续沿着原有路线疾驶,也有可能在某些情况下撞到偶然出现的路人。这样的程序设计可能会导致本来可以避免的死亡,但立法者可能会认为这是不幸的副产品,因为总不能让车辆因为编程的“良心”而去碾压路人。(www.xing528.com)
迟早有一些国家会根据现有的成文和不成文的规定,来赋予自动驾驶汽车一些权利,让它们去做一些道德层面的决定。这些决定可能拯救许多人的生命,但在某些情况下可能会产生骇人听闻的影响,尤其是因为各个国家的道德准则会有不同,有时候甚至会因种族而异。自动驾驶汽车可能要做出艰难的抉择:碾过一个罪犯是不是要比碾过一个守法公民要好一些?那么癌症患者和健康人呢?我们真的想把这些决定留给自动驾驶汽车来做吗?我们还有选择的余地吗?
所以说,在那个我们正努力奔向的未来,也许机器人和计算机会有权决定是否有必要夺走人的生命。确实,必须是在特定条件下,而且要有严格的限制。不过,不管赋予计算机自主性是好是坏,它都是一个新的前沿。人类会因此受到威胁吗?人工智能会不会对人类产生敌意,会不会用我们赋予它们的自动驾驶系统来伤害我们?
答案可能非常简单——自动驾驶汽车既不需要也不会试图反抗我们来伤害人类。它们的存在可能就对我们不利。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。