人工智能技术的研发及其在交通运输、家居、诊疗、城市管理等场景的应用深刻地影响和改变着社会生活,需要从政策和法律层面对规范体系进行重新设计。2015 年前后,科技发达的国家或地区纷纷开始关注人工智能的研发与应用,将人工智能层面上升至国家层面并进行顶层设计。部分国家或地区就人工智能相关民事法律责任规则设计进行尝试,开拓人工智能时代法律规范体系设计的新征程。欧盟、美国、英国、韩国、日本等国家或组织尝试制定相应的法律或法律草案。梳理并比较不同国家或地区关于人工智能的政策和法律(含草案),有助于明晰人工智能时代民事法律责任规则设计的基础、重点以及未来趋势,为我国设计适应时代发展需要的民事法律责任规则提供借鉴。
(一)典型国家
1.美国
人工智能发展战略是美国国家战略的重要组成部分,具有明确性、战略性和全局性。美国将人工智能规划提升至新阿波罗登月计划的高度,在全球范围内首次将其列为国家战略,试图在人工智能时代继续保持互联网时代的强势地位和领军态势。
2013 年,美国启动了“通过推动创新型神经技术开展大脑研究”计划。[74]2014 年,美国与欧盟合作开展“人脑计划”(human brain project)。2016 年10 月,隶属于美国国家科学委员会的“机器学习与人工智能分委员会”指定“人工智能研究组”制定了被奥巴马称为新阿波罗登月计划的《国家人工智能发展与研究战略计划》(The National Artificial Intelligence Research and Development Strategic Plan)。美国白宫发布该计划,首次将人工智能发展战略计划提升至国家层面。该战略计划侧重技术维度,分三个部分论述了美国人工智能发展的目的、愿景、战略重点、核心建议等内容。[75]这一计划为世界各国或地区制定人工智能发展战略提供了可借鉴的蓝本。美国总统行政办公室与国家科学技术委员会联合发布名为《为人工智能的未来做好准备》(Preparing for the Future of the Artificial Intelligence)的报告。该报告提出了实施人工智能战略的23 条建议或措施。它侧重治理维度,分别就“公共物品与人工智能”“人工智能在联邦政府的应用”“加强对人工智能的监控”“联邦政府对人工智能研究的支持”“全球的视角和安全”等主题进行分析。[76]2016年10 月31 日,150 多名专家学者完成了《2016 美国机器人发展路线图:从互联网到机器人》。2017 年,约翰·德莱尼(John Delaney)向众议院提交了《人工智能的未来法案》。
2.俄罗斯
俄罗斯专家学者起草了首部机器人法草案,即《在完善机器人领域关系法律调整部分修改俄罗斯联邦民法典的联邦法律》(又称《格里申法案》),描述了人类与人工智能以及机器人之间的关系,探索了对机器人领域系统立法的路径,实现了从机器人法则到机器人法的重大转变。[77]《格里申法案》“提出了机器人作为类似动物的财产、作为准主体和作为高度危险来源,在不同法律关系中和不同发展阶段的不同定位,界定了不同定位之下的民事法律规范的适用”[78]。
3.英国
2013 年,英国将“机器人与自动化系统”(Robotics and Autonomous Sys⁃tems)列入“八项伟大的科技”计划之中,试图在全球范围内引领第四次工业革命。[79]2016 年6 月,英国政府科学办公室(Government's Office of Science)发布报告《人工智能:未来决策制定的机遇与影响》,分析人工智能技术对社会的影响,呼吁建立专门的机器人技术与自动化系统委员会。[80] 同年10 月,英国下议院发布了一份关于智能系统和机器人技术的报告,将自己定位为全球人工智能伦理标准研究领域的领导者,呼吁政府对人工智能进行监管。2017年,由创新英国(Innovate UK)项目支持的“特殊利益团体”(Special Interest Group)发布了关于智能机器的2020 年国家发展战略(RAS 2020 National Strategy)。
4.日本
为应对人口老龄化、出生率下降、育龄人口缩减等社会问题,日本一直积极探索人工智能的研发与应用。作为机器人超级大国,日本在智能机器(人)用户、制造商、服务商的数量上处于领先地位。2014 年6 月,日本内阁通过“日本振兴战略”。此后,日本政府对该战略进行修订,提出推动“机器人驱动的新工业革命”。2014 年9 月,日本政府成立了由专家组成的“机器人革命实现委员会”,推进技术标准全球化。2015 年1 月,日本经济产业省汇总“机器人革命实现委员会”发布的成果并编制了《日本机器人战略:愿景、战略、行动计划》。
5.中国
我国人工智能战略规划的启动相对较晚,且偏重于技术和应用,在伦理和法律制度建设、人才培养以及教育、投资等方面有较大的提升空间。直到1978 年,智能模拟才被纳入国家计划进行研究。1986 年,国家高技术研究“863”计划将智能信息处理、智能计算系统等重大项目列入其中。1997 年,国家重大基础研究“973”计划将智能信息处理以及智能控制等项目列入其中。《国家中长期科学和技术发展规划纲要(2006-2020 年)》将“脑科学与认知科学”作为八大科学前沿之一。2017 年3 月,全国“两会”中首次将人工智能写入政府工作报告,人工智能成为国家战略之一。2017 年7 月8 日,国务院发布《新一代人工智能发展规划》,对我国人工智能的未来发展进行前瞻性布局并强调研究人工智能相关政策、法律和伦理问题的重要性。该规划标志着我国人工智能战略被上升到国家战略层面。这一顶层设计有助于我国人工智能技术研发与应用进程的稳步推进,防范结构性崩塌和整体性破坏。2017 年12 月13 日,工业和信息化部发布《促进新一代人工智能产业发展三年行动计划(2018-2020 年)》。习近平总书记在十九大报告中明确指出要“推动互联网、大数据、人工智能和实体经济深度融合”。推进人工智能技术创新和产业融合是实现从制造大国到制造强国,从中国制造向中国创造转变的关键。中共中央印发的《法治中国建设规范(2020—2025)》明确要求,及时跟进人工智能相关法律制度,抓紧补齐短板。
(二)国际组织
1.联合国
2016 年8 月,联合国下属的“科学知识和科技伦理世界委员会”(COMEST)发布《机器人伦理初步报告草案》,“认为机器人不仅需要尊重人类社会的伦理规范,而且需要将特定伦理准则编写进机器人中”[81]。
2.欧盟[82]
2013 年,欧盟“提出为期10 年的‘人脑计划’,是目前全球范围内最重要的人脑研究项目,旨在通过计算机技术模拟大脑,建立全新的、革命性的生成、分析、整合、模拟数据的信息通信技术平台,以促进相应研究成果的应用性转化”[83]。2014 年,欧盟委员会与欧洲机器人协会(EuRobotics)通过PPP 模式合作开展全球最大的民间投资机器人创新计划“欧盟机器人研发计划”(SPARC)。
2015 年1 月,欧盟议会法律事务委员会(JURI)决定成立与人工智能和智能机器人相关的法律问题工作小组。2016 年5 月,欧盟议会法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Rob⁃ertics)。其中,50(f)对电子人(electronic persons)和电子人格(electronic personality)进行了规定。2016 年10 月,欧盟议会法律事务委员会发布《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)。2017 年2 月16 日,欧盟议会通过了关于机器人和人工智能立法提案的决议,人工智能立法成为欧盟立法议程中的核心。欧盟议会关于机器人“法律人格”的设计是为顺应社会发展和技术进步的潮流提出的框架性建议,但系统性规则建议方案尚未出现,有虎头蛇尾之嫌。如何理顺法律人格与民事行为能力和责任能力的关系需要进一步研究和思考。
(三)社会组织
1.电气和电子工程师协会
2016 年12 月,电气和电子工程师协会(IEEE)发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》。
2.生命未来研究院
2017 年1 月,生命未来研究院(Future of Life Institute)组织召开2017 阿西洛马会议(2017 Asilomar Conference)。在该会议上形成的23 条原则,成为人工智能研发和利用的基础。
3.人工智能联盟
亚马逊、谷歌、Facebook、IBM 和微软等硅谷巨头共同发起创立了非营利组织——人工智能联盟(Partnership on AI)。此后,苹果公司加入了该联盟。
(四)比较研究的思考
第一,人工智能的未来发展是关乎国家地位和命运的战略事件。人类文明史表明,技术革新是社会变革的源动力,在新技术革新中占据制高点的国家往往能够脱颖而出,成为世界强国。
第二,在人工智能未来发展中政府、社会、市场三者的关系尚不明朗,正处于形成的过程中。主流观点强调人工智能在促进经济和社会发展方面的积极作用,对未来市场发展充满信心,但对人工智能持续、健康发展的整体性战略思考不足。
第三,人工智能的未来发展需要以服务经济和社会为导向。纯粹服务于政治的人工智能国家战略存在过度依赖国家和政府而缺乏持久社会动力的弊端;与经济和社会发展密切关联的人工智能国家战略具有强大的市场和社会基础。
第四,需要通过政策引导与市场激励结合的方式促进人工智能发展。国家和政府在人工智能未来发展的定位、方向、限度方面起到重要作用。但是,国家和政府作用的实现不能单纯依赖行政手段。在回应型社会模式中,国家和政府更多地扮演引路人的角色,通过先导性开发与应用、政府补贴、资金支持等方式激发市场产生活力。
第五,国家安全和社会稳定是人工智能技术创新和产品创新的底线。人工智能技术和产品创新促进了经济繁荣与社会发展,但是,也蕴含社会风险,影响国家安全和社会稳定。过度发展会产生不确定的社会风险,而过度抑制会阻碍经济发展甚至影响国家安全和社会稳定。这就需要平衡人工智能技术研发和应用与其可能导致的负面影响之间的关系。为保障人工智能技术和产品创新不危害国家安全和社会稳定,制定人工智能政策和法律时需要强调政府责任、政府与企业合作、企业的道德自律等内容。
【注释】
[1]蔡自兴、徐光祐:《人工智能及其应用》,清华大学出版社2010 年版,第3 页。
[2]吕超:“科幻文学中的人工智能伦理”,载《文化纵横》2017 年第4 期。
[3]参见腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第4 页。
[4]参见史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第5~12 页。
[5]参见倪楠:“人工智能发展过程中的法律规制问题研究”,载《人文杂志》2018 年第4 期。
[6]史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第5 页。
[7]参见[英]玛格丽特·博登:《AI:人工智能的本质与未来》,孙诗惠译,中国人民大学出版社2017 年版,第9 页。
[8]“马者,所以命形也;白者,所以命色也。命色者,非命形也,故曰白马非马。”
[9]董军:《人工智能哲学》,科学出版社2011 年版,第6 页。哥德尔于1934 年引入一般递归函数的概念。
[10]这就是著名的“邱奇—图灵论题”(The Church-Turing thesis),即“凡是可计算的函数都是一般递归函数,都可以用一台图灵机来计算”。
[11]布莱兹·帕斯卡尔在《思想录》一书中认为:“算数机器产生的效能比所有其他动物的行为都更接近思维。”
[12]参见史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第6 页。
[13]董军:《人工智能哲学》,科学出版社2011 年版,第10 页。
[14]史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第6 页。
[15]20 世纪末,IBM 公司研发的“深蓝”实现了智能机器战胜国际象棋世界冠军的目标。
[16]史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第7 页。
[17]刘凤岐编著:《人工智能》,机械工业出版社2011 年版,第10 页。
[18]史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第9 页。
[19]史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第9 页。
[20]史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第9 页。
[21]刘凤岐编著:《人工智能》,机械工业出版社2011 年版,第11 页。
[22]史忠植、王文杰编著:《人工智能》,国防工业出版社2007 年版,第11 页。
[23]程显毅等:“大数据时代的人工智能范式”,载《江苏大学学报(自然科学版)》2017 年第4 期。
[24]董军:《人工智能哲学》,科学出版社2011 年版,第6 页。
[25]参见曹建峰:“人工智能:机器歧视及应对之策”,载《信息安全与通信保密》2016 年第12 期。
[26]董军:《人工智能哲学》,科学出版社2011 年版,第39 页。(www.xing528.com)
[27]吴汉东:“人工智能时代的制度安排与法律规制”,载《法律科学(西北政法大学学报)》2017 年第5 期。
[28]《德国道路交通法》修订案新增1a 条第2 款。参见张韬略、蒋瑶瑶:“德国智能汽车立法及《道路交通法》修订之评介”,载《德国研究》2017 年第3 期。
[29]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第78 页。
[30]参见郑志峰:“自动驾驶汽车的交通事故侵权责任”,载《法学》2018 年第4 期。
[31]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第142 页。
[32]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第142 页。
[33]参见易继明:“人工智能创作物是作品吗?”,载《法律科学(西北政法大学学报)》2017年第5 期。
[34]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第255 页。
[35]参见熊琦:“人工智能生成内容的著作权认定”,载《知识产权》2017 年第3 期。
[36][英]霍斯特·艾丹米勒:“机器人的崛起与人类的法律”,李飞、敦小匣译,载《法治现代化研究》2017 年第4 期。
[37]参见[德]乌尔里希·贝克:《风险社会》,何博闻译,译林出版社2004 年版,第36 页。
[38][英]安东尼·吉登斯:《失控的世界》,周红云译,江西人民出版社2001 年版,第32 页。
[39][德]乌尔里希·贝克、[英]安东尼·吉登斯、[英]斯科特·拉什:《自反性现代化——现代社会秩序中的政治、传统与美学》,赵文书译,商务印书馆2001 年版,第74 页。
[40]李彦宏等,《智能革命:迎接人工智能时代的社会、经济与文化变革》,中信出版社2017 年版,第312 页。
[41]谢勒(Mattew U.Scherer)认为人工智能研发(research and development)具有以下特征:①谨慎(discreetness)是指人工智能的研发工作能够通过有限可见的基础设施进行。②扩散(diffuseness)是指工作于人工智能系统单一元素的个体之间相隔遥远。③离散(discreteness)是指各自独立的人工智能系统的构成元素可以在不同地点不同时间在无意识协调的情况下设计。④不透明(opacity)意涵人工智能系统内在工作机制保密不易被反向工程解密的可能性。信息化时代,科技研发工作在不同程度分享以上特征,但是在人工智能背景下有独特挑战。See Mattew U.Scherer,“Regulating Intelligence Systems:Risks,Challenges,Competence,and Strategies”,Harvard Journal Law & Technology,Vol.29,2016 Spring p.369.
[42]See Peter Huber,“Safety and Second Best:The Hazards of Public Risk Management in the Courts”,Columbia Law Review,pp.277-337.
[43]See Mattew U.Scherer,“Regulating Intelligence Systems:Risks,Challenges,Competence,and Strategies”,Harvard Journal Law & Technology,Vol.29,2016,Spring p.362.
[44]See Mattew U.Scherer,“Regulating Intelligence Systems:Risks,Challenges,Competence,and Strategies”,Harvard Journal Law & Technology,Vol.29,2016,Spring,p.367.
[45][英]安东尼·吉登斯:《现代性的后果》,田禾译,译林出版社2000 年版,第149 页。
[46]See Bostrom N,“How Long Before Superintelligence?,”Linguistic and Philosophical Investigations,Vol.5,2006,pp.11-30.
[47]吴汉东:“人工智能时代的制度安排与法律规制”,载《法律科学(西北政法大学学报)》2017 年第5 期。
[48]“第一,一个机器人不得伤害人类,也不能因为不作为而允许一个人类被伤害;第二,一个机器人必须遵守人类施加给它的规则,除非这些规则与第一律法相冲突;第三,一个机器必须保护自己的生存,只要这种自我保护不与第一或第二律法相冲突。但机器人发现自己无法同时遵守第二和第三条律法,因此它陷入了不断重复自己先前行为的循环。”参见郑戈:“人工智能与法律的未来”,载《探索与争鸣》2017 年第10 期。
[49]杜严勇:“人工智能安全问题及其解决进路”,载《哲学动态》2016 年第9 期。
[50]世界科学知识与技术伦理委员会出台了《关于机器人伦理的初步草案报告》,英国出台了《机器人技术和人工智能》,欧盟出台了《机器人宪章》,韩国出台了《机器人伦理宪章》。
[51]2014 年,谷歌收购英国的人工智能创业公司DeepMind,谷歌需要创建AI 伦理委员会是其中一项交易条件;2016 年,微软创建了AI 伦理委员会——Aether。
[52]2016 年,英国标准协会发布了《机器人和机器系统的伦理设计和应用指南》;同年,电气和电子工程师协会(IEEE)提出全球人工智能和自主性系统伦理问题提案,发布了《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》。
[53]“阿西洛马人工智能原则对人工智能长期安全的担忧可以看作是对过去60 多年公共话语的一个总结,也表明这一问题并非无中生有,杞人忧天,而具有现实可能性。这也表明,人工智能的发展及其应用需要必要的‘军规’和‘紧箍咒’,以防人类做出傻事,或者人工智能会对人类有所企图。”参见腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第306 页。
[54]参见杜严勇:“人工智能安全问题及其解决进路”,载《哲学动态》2016 年第9 期。
[55]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第303 页。
[56]郑戈:“人工智能与法律的未来”,载《探索与争鸣》2017 年第10 期。
[57]参见倪楠:“人工智能发展过程中的法律规制问题研究”,载《人文杂志》2018 年第4 期。
[58]参见邹瑞雪:“基因编辑婴儿事件:别让‘超级人类’担忧成真”,载http:/ /www.bjnews.com.cn/opinion/2018/11/28/525524.html,最后访问日期:2018 年11 月28 日。
[59]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第195 页。
[60]参见腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第249 页。
[61]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第245 页。
[62]郑戈:“人工智能与法律的未来”,载《探索与争鸣》2017 年第10 期。
[63]赵汀阳:“人工智能‘革命’的‘近忧’和‘远虑’——一种伦理学和存在论的分析”,载《哲学动态》2018 年第4 期。
[64]赵汀阳:“人工智能‘革命’的‘近忧’和‘远虑’——一种伦理学和存在论的分析”,载《哲学动态》2018 年第4 期。
[65]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第296 页。
[66]赵汀阳:“人工智能‘革命’的‘近忧’和‘远虑’——一种伦理学和存在论的分析”,载《哲学动态》2018 年第4 期。
[67]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第302 页。
[68]赵汀阳:“人工智能‘革命’的‘近忧’和‘远虑’——一种伦理学和存在论的分析”,载《哲学动态》2018 年第4 期。
[69]赵汀阳:“人工智能‘革命’的‘近忧’和‘远虑’——一种伦理学和存在论的分析”,载《哲学动态》2018 年第4 期。
[70]赵汀阳:“人工智能‘革命’的‘近忧’和‘远虑’——一种伦理学和存在论的分析”,载《哲学动态》2018 年第4 期。
[71]杨春福:“风险社会的法理解读”,载《法制与社会发展》2011 年第6 期。
[72]See Mattew U.Scherer:“Regulating Intelligence Systems:Risks,Challenges,Competence,and Strategies”,Harvard Journal Law & Technology,Vol.29,2016 Spring,p.356.
[73]郑戈:“人工智能与法律的未来”,载《探索与争鸣》2017 年第10 期。
[74]参见腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第174 页。
[75]参见何哲:“通向人工智能时代——兼论美国人工智能战略方向及对中国人工智能战略的借鉴”,载《电子政务》2016 年第12 期。
[76]参见何哲:“通向人工智能时代:兼论美国人工智能战略方向及对中国人工智能战略的借鉴”,载《电子政务》2016 年第12 期。
[77]参见张建文:“格里申法案的贡献与局限——俄罗斯首部机器人法草案述评”,载《华东政法大学学报》2018 年2 期。
[78]张清、张蓉:“论类型化人工智能法律责任体系的构建”,载《中国高校社会科学》2018 年第4 期。
[79]参见腾讯研究院等:“人工智能》,中国人民大学出版社2017 年版,第177 页。
[80]参见腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第193 页。
[81]曹建峰:“10 大建议! 看欧盟如何预测AI 立法新趋势”,载《机器人产业》2017 年第2 期。
[82]参见曹建峰:“10 大建议! 看欧盟如何预测AI 立法新趋势”,载《机器人产业》2017 年第2 期。
[83]腾讯研究院等:《人工智能》,中国人民大学出版社2017 年版,第175 页。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。