首页 理论教育 机器自主学习作为免责事由的正当性探讨

机器自主学习作为免责事由的正当性探讨

时间:2023-07-05 理论教育 版权反馈
【摘要】:生产者作为技术风险的控制者对技术缺陷承担责任具有正当理由。机器自主学习会导致智能机器(人)的行为或决策偏离人类预期的目的,能否将机器自主学习作为免责事由?智能机器(人)的智能等级分为初始等级和教育等级。这就有必要区分生产者可预见的自主行为或决策和生产者不可预见的自主行为或决策并以此确定免责事由。生产者需要就其对不可预见的智能机器(人)的自主行为或决策举证,司法裁判中需要辅以专家证人制度。

机器自主学习作为免责事由的正当性探讨

生产者作为技术风险的控制者对技术缺陷承担责任具有正当理由。智能系统基于程序设计自主作出的决策或行为并不违背设计者的初衷,难谓技术缺陷,由此导致的损害由生产者承担责任存在疑问。机器自主学习会导致智能机器(人)的行为或决策偏离人类预期的目的,能否将机器自主学习作为免责事由?

第一,人工智能系统作出偏离人类预期的行为或决策具有可能性。人工智能系统离不开程序员的计算机编程设计。但是,人工智能系统的行为和决策并不必然是程序员设计的结果。人工智能系统区别于传统机器设备之处在于,人工智能系统的算法不完全依赖于程序员的分步编程。机器学习(machine learning)中,算法(algorithm)和模型(model)能够基于数据自主生成新的运行规则,无需程序员的介入或参与。

智能机器(人)的智能等级分为初始等级和教育等级。同一批次研发或制造的人工智能初始等级相同,但是,在投入流通环节后,智能等级因数据训练不同产生差异。换言之,离开模拟测试环境的人工智能系统能根据社会环境获取新的数据进行训练并形成不同的智能等级。高度自主性的人工智能系统会基于习得的算法设计新的规则,进行自主行为和决策。而这种自主行为和决策往往超出了人脑的认知和反应能力,与人为设计的结果存在偏差。“已经有证据表明高度‘智能’的自主机器可以学习‘打破’规则以保护其自身的生存。”[18]换言之,人工智能系统根据社会环境自主设定规则,进行自我调试的功能使其行为与决策在一定程度上存在不可预测性。(www.xing528.com)

第二,人工智能系统偏离人类预设的必要性。人工智能系统虽然是由人类研发、制造和生产的,但是人类并不奢望能够预见人工智能系统未来所有的行为或决策。人类与人工智能系统在解决问题的方案设计方面存在差异。人类的计算力极为有限且受到预先设置的“前见”或“前理解”的限制,如经验、习惯、陈规、传统智慧等。因而,人类在方案设计方面具有一定的局限性。以算法和模型为基础的人工智能依靠计算机的超强算力往往能考虑得更为全面,能够选择人类没有考虑到的问题解决方案。人工智能系统的行为或决策的不可预见性在一定的情况下正是设计者所期望的。如在智能驾驶的场景中,测试环境并不能穷尽所有的现实可能性,当异常情况(novel situation)出现时,自动驾驶汽车必须在缺乏预先设定的规则的情况下,依据自己创建的规则,真正独立自主地作出决策。[19]

若产品投入流通领域之前,在测试环境下人工智能并不存在产品缺陷;产品投入流通领域之后,在新的社会环境中出现偏离人类预期目的的行为或决策,生产者能否以《产品质量法》第41 条第2 款第2 项主张免责?“究竟是算法自身缺陷引起了侵害?还是人工智能系统基于算法而自主实施了侵害?这两类事实将产生迥然不同的法律后果,前者导致生产者对算法缺陷承担严格责任,后者则使生产者摆脱了责任。”[20]值得注意的是,由于人工智能技术的复杂性使得人工智能产品生产者相对于普通产品生产者更容易证明智能机器(人)行为的自主性。这就有必要区分生产者可预见的自主行为或决策和生产者不可预见的自主行为或决策并以此确定免责事由。生产者需要就其对不可预见的智能机器(人)的自主行为或决策举证,司法裁判中需要辅以专家证人制度。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈