首页 理论教育 国内外人工智能治理经验:人与智能化社会

国内外人工智能治理经验:人与智能化社会

时间:2023-10-19 理论教育 版权反馈
【摘要】:为了更好地应对人工智能给人类社会带来的潜在风险,谷歌、微软等一些国际科技公司都成立了人工智能伦理委员会。这进一步凸显出人工智能伦理规范的困境。这是我国第一次在国家层面发布的有关人工智能治理的原则,全文仅一千余字,却意义重大。

国内外人工智能治理经验:人与智能化社会

人工智能经济社会发展与社会治理的利器,但它同时也向人类提出了一个新的问题,即如何致力于人工智能的治理。就前文提及的无人驾驶技术而言,近年来全球范围内无人驾驶技术造成了多起交通事故,但并没有法律有针对性地就“谁应该就此负责”做出明确界定和规定。毫无疑问,致力于人工智能治理的根本目标是使人工智能在人类的使用过程中变得更加安全可靠,最终更好地服务人们的日常生活和人类社会的发展。目前,一些国家不仅已经先知先觉地意识到了这一问题,还采取了一系列行动致力于这一问题的解决。

(一)美国的人工智能治理经验

2016年10月,在美国国家科学技术委员会和美国网络和信息技术研发小组委员会颁布的《国家人工智能研究与发展战略计划》中提出了“确保人工智能系统的安全可靠”的发展主张和理念,并制定了若干项具有一定可操作性的措施。例如,在“战略四:确保人工智能系统的安全可靠”中提出了“实现长期的人工智能安全和优化”:

AI系统可能最终能“循环自我改进”,当中大量软件修改会由软件自身进行,而非由人类程序员进行。为了确保自我修改系统的安全性,需要进行额外研究来进行开发:自我监测架构通过人类设计者的原始目标来检查用于行为一致性的系统;限制策略用于防止系统在接受评估期间进行释放;在价值学习中,用户值、目标或意图可以由系统进行推断;并且可证明价值架构能抵抗自我修改。

同在2016年,美国白宫还发布了《为人工智能的未来做好准备》和《人工智能、自动化与经济报告》,从不同方面提出了人工智能的应对之策和长期规划。

就无人驾驶领域而言,美国目前实行“渐进式”监管策略,在无人驾驶的研发和应用方面制定了一系列过渡性监管规则。例如,2014年,谷歌、大众、戴姆勒三家公司顺利获得了美国加州车辆管理局颁发的无人驾驶汽车公共道路测试许可证,但美国加州车辆管理局并不是无条件地将许可证颁发给这三家企业的,而是以“驾驶人员有能力随时接管无人驾驶状态下的汽车”为前置条件。为保证安全,2015年,美国加州车辆管理局不仅要求所有的无人驾驶汽车行驶时必须配有一名拥有当地驾驶执照的司机坐在驾驶室,还要求所有无人驾驶汽车必须具备油门、刹车、方向盘等必要的装置。

为了更好地应对人工智能给人类社会带来的潜在风险,谷歌、微软等一些国际科技公司都成立了人工智能伦理委员会。然而,耐人寻味的是,谷歌成立于2019年3月底的人工智能伦理委员会囿于种种原因,在4月初就面临即将解散的境地。这进一步凸显出人工智能伦理规范的困境。虽然如此,但这是一个无法逃避的问题,人们还在为此积极努力。2016年6月,谷歌和OpenAI在一篇论文中联合为人工智能制定了五条行为规范,这被人们称为“AI五定律”,即“避免负面影响”“避免对奖励条件的非法解读”“可扩展的监管”“环境探索的安全性”“分配转变的鲁莽性”。

(二)英国的人工智能治理经验

2016年,英国政府在《人工智能:未来决策制定的机遇与影响》中敏锐地提出要有意识地规避由人工智能算法偏差可能导致的偏见。目前,虽然英国成立了国家层面的有关人工智能的研究、管理机构(政府AI办公室、数据伦理和创新中心),但是,英国比较缺乏国家层面的有关人工智能的伦理规范。2018年英国政府发布的《英国人工智能发展的计划、能力与志向》提出,在目前阶段,由于人工智能技术飞速发展等因素,对人工智能可能潜在的风险实施统一的监管是不现实的,更不可能通过寻求立法展开简单粗暴的监管。基于这样的认识,英国提出了分阶段的路径,并初步提出了五条人工智能准则:开发人工智能应当为了共同利益和人类福祉;人工智能的运行应符合可理解原则和公平原则;不应利用人工智能来削弱数据权利或隐私;所有公民都有权获得教育,以便享有人工智能带来的好处;伤害、毁灭或欺骗人类的自主权力绝不应委托给人工智能。

(三)中国的人工智能治理经验

中国政府不仅已从国家层面将人工智能视为经济社会发展的重要方向,还敏锐地意识到了其可能潜在的风险。2017年,国家相继发布《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018—2020年)》,从国家战略的高度统筹人工智能的发展。其中,《新一代人工智能发展规划》指出,预计到2025年,我国将“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”,而到2030年,则“建成更加完善的人工智能法律法规、伦理规范和政策体系”。

2019年5月25日,北京智源人工智能研究院联合北京大学清华大学、中国科学院计算技术研究所、中国科学院自动化研究所等机构共同发布了《人工智能北京共识》,从研发、使用、治理三个层面提出了人工智能有关参与者应该遵守的15条原则。概而言之,对研发者而言,应遵守造福、服务于人、负责、控制风险、合乎伦理、多样与包容、开放共享等原则;对使用者而言,在使用过程中应遵守善用与慎用、知情与同意、教育与培训等原则;而人工智能的治理应遵守优化就业和谐与合作、适应与适度、细化与落实、长远规划等原则。(www.xing528.com)

2019年3月,我国在国家层面成立了新一代人工智能治理专业委员会(隶属科技部新一代人工智能发展规划推进办公室),该委员会的成员阵容极其高端,目前不仅包括来自企业界的李开复(创新工场董事长兼CEO)、周伯文(京东副总裁)、印奇(被称为“全球机器视觉人工智能行业领跑者”的旷视科技的创始人兼CEO),还包括学术界的薛澜(清华大学苏世民书院院长,任该委员会主任)、李仁涵(上海大学战略研究院特聘院长)、黄铁军(信息科技大学计算机科学与技术系主任)、高奇琦(华东政法大学政治学研究院院长)。

2019年6月17日,国家新一代人工智能治理专业委员会对外发布了《新一代人工智能治理原则——发展负责任的人工智能》,其中针对人工智能研发者、使用者以及相关方提出了人工智能发展过程中应注意的八项原则:和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理。这是我国第一次在国家层面发布的有关人工智能治理的原则,全文仅一千余字,却意义重大。全文如下:

全球人工智能发展进入新阶段,呈现出跨界融合、人机协同、群智开放等新特征,正在深刻改变人类社会生活、改变世界。为促进新一代人工智能健康发展,更好协调发展与治理的关系,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展,共建人类命运共同体,人工智能发展相关各方应遵循以下原则:

一、和谐友好。人工智能发展应以增进人类共同福祉为目标;应符合人类的价值观伦理道德,促进人机和谐,服务人类文明进步;应以保障社会安全、尊重人类权益为前提,避免误用,禁止滥用、恶用。

二、公平公正。人工智能发展应促进公平公正,保障利益相关者的权益,促进机会均等。通过持续提高技术水平、改善管理方式,在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。

三、包容共享。人工智能应促进绿色发展,符合环境友好、资源节约的要求;应促进协调发展,推动各行各业转型升级,缩小区域差距;应促进包容发展,加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟;应促进共享发展,避免数据与平台垄断,鼓励开放有序竞争。

四、尊重隐私。人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。在个人信息的收集、存储、处理、使用等各环节应设置边界,建立规范。完善个人数据授权撤销机制,反对任何窃取、篡改、泄露和其他非法收集利用个人信息的行为。

五、安全可控。人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。高度关注人工智能系统的安全,提高人工智能鲁棒性及抗干扰性,形成人工智能安全评估和管控能力。

六、共担责任。人工智能研发者、使用者及其他相关方应具有高度的社会责任感和自律意识,严格遵守法律法规、伦理道德和标准规范。建立人工智能问责机制,明确研发者、使用者和受用者等的责任。人工智能应用过程中应确保人类知情权,告知可能产生的风险和影响。防范利用人工智能进行非法活动。

七、开放协作。鼓励跨学科、跨领域、跨地区、跨国界的交流合作,推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动。开展国际对话与合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。

八、敏捷治理。尊重人工智能发展规律,在推动人工智能创新发展、有序发展的同时,及时发现和解决可能引发的风险。不断提升智能化技术手段,优化管理机制,完善治理体系,推动治理原则贯穿人工智能产品和服务的全生命周期。对未来更高级人工智能的潜在风险持续开展研究和预判,确保人工智能始终朝着有利于社会的方向发展。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈