【摘要】:“事故不可解释”使缺陷本身以及缺陷产生的时间是投入流通之前还是之后等问题难以判断,生产者能否基于《产品质量法》第41 条第2 款第2 项主张免责不无疑问。首先,基于“事故不可解释”免责需要以智能机器(人)行为或决策的透明性为前提。其次,“事故不可解释”并不意味着免除了人工智能产品生产者解释算法的义务。[21]通过解释算法证明算法是在被合理应用的情况下仍然发生了不可解释的事故,生产者方能依“事故不可解释”免责。
机器深度学习(deep learning)将创建规则的权力从人类程序员转移至学习算法(learning algorithm)。学习算法在数据训练的基础上创设规则,形成模型。算法是确定的、可被理解的,但是模型的决策逻辑未必具有确定性和可被理解性。人工智能系统生产者能否以“事故不可解释”为由主张免责?事故具有可解释性(interpretability)是合理划分责任的前提。“事故不可解释”使缺陷本身以及缺陷产生的时间是投入流通之前还是之后等问题难以判断,生产者能否基于《产品质量法》第41 条第2 款第2 项主张免责不无疑问。
首先,基于“事故不可解释”免责需要以智能机器(人)行为或决策的透明性为前提。决策的可追溯性要求其过程透明,英国下议院科学和技术委员会发布的报告《机器人与人工智能》(Robotics and Artificial Intelligence)强调人工智能决策透明化与安全价值之间的关系。该报告认为,人工智能决策透明化有利于对其进行管控,尤其是在关系到人类生命安全的领域,决策透明化显得尤为重要。(www.xing528.com)
其次,“事故不可解释”并不意味着免除了人工智能产品生产者解释算法的义务。解密算法需要专业知识并耗费一定的成本,通过设定义务和责任推定规则的方式将该义务或责任施加给人工智能产品的生产者具有合理性。“在发生可疑后果的时候要求程序员用自然语言来解释算法的设计原理,并且追究其相关责任,这显然是一种治本之法。”[21]通过解释算法证明算法是在被合理应用的情况下仍然发生了不可解释的事故,生产者方能依“事故不可解释”免责。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。