到2018年,处于人工智能领域最前线的公司,如微软和谷歌等,开始直面这一新的挑战。我们与学术界和其他领域的专家都认识到,我们需要一套道德准则来指导人工智能的发展。在微软,我们最终确定了这一领域的6项道德准则。
第一个准则要求我们满足公平性的需要,即消除偏见的问题。随后是有关两个在公众已达成部分共识的领域,即对可靠性和安全性的重视以及对强有力的隐私和保障的需要。在一些重要的方面,这些概念是为了应对以前的科技革命,以法律法规的形式不断发展起来的。铁路和汽车出现后,产品责任和相关法律针对其制定了可靠性与安全标准。同样,为了响应通信和信息技术革命,逐步引入了隐私和安保规范。虽然人工智能在这些领域提出了新的挑战,但我们可以在既有的法律概念的基础上不断推进。
我们的第四项准则所应对的,是自2014年萨提亚担任微软首席执行官以来,我们的员工一直支持的一个问题。这就是重视开发包容性技术,以满足残障人士的需求。公司对包容性技术的重视自然也将包括人工智能。毕竟,不难设想,如果电脑能够看到图像,将会给盲人带来巨大的便利,而如果电脑能听到声音,也将是聋人的福音。我们不一定需要发明和发布全新的设备来寻求这样的机会。人们已经带着智能手机四处走动,而智能手机上有可以看到物体的摄像头和可以听到声音的麦克风。随着将包容性作为第四个道德准则,在该领域的进步之路已经隐隐浮现。
虽然上述4项准则每一项都很重要,但我们意识到,它们都是基于另外两项准则,而最后的这两项准则将成为其他准则成功的基础。首先是透明性。对我们来说,这意味着确保人工智能系统决策机制相关的信息是公开和可以理解的。毕竟,如果人工智能的内部工作机制完全处于暗箱之中,公众怎么可能会对人工智能有信心,同时未来的监管机构又怎么来评估对前4条准则的遵守情况?
有些人坚持认为人工智能的开发者应该公布他们使用的算法,但我们自己的结论是,在大多数情况下,这样做未必真正具有启发性,还有可能泄露有价值的商业秘密,并因此危害技术领域的竞争。我们已经开始与学术界和其他科技公司就人工智能进行合作,以开发出更好的方法。最新的关注点是让人工智能变得可以解释,比如描述用于决策的关键元素。
有关人工智能的最后一个道德准则将是其他一切的基石,那就是问责性。世界会创造一个计算机对人类负责,而设计这些机器的人对其他人负责的未来吗?这可能是我们这一代人需要面对的一个决定性问题。(www.xing528.com)
这一最终准则要求人类应保留在人工智能的决策机制中,以免基于人工智能的系统在没有人类审查、判断和干预的情况下作恶。换言之,基于人工智能的决策如果会严重影响人类的权利,就需要继续接受严格的人类审查和控制。这就需要接受过培训的人员来评估人工智能做出的决策。
我们认为,这也意味着更广泛的治理流程至关重要。每个开发或使用人工智能的机构都需要制定新的政策、流程、培训计划、合规系统和人员,以便针对人工智能系统的开发和部署进行审核并提供建议。
我们于2018年1月公布了我们的准则,并很快意识到我们引起了极大的共鸣18。客户不仅要求了解我们的人工智能技术,还要求了解我们应对道德问题的方法和具体实践。这非常合理。微软公司的整体战略是“人工智能普及化”,即通过让客户能够获取人工智能技术的基本要素,如视觉和语音识别工具及机器学习工具,从而使其能够创建自己的定制人工智能服务。这意味着像技术本身一样,我们需要开发和广泛共享一套复杂的人工智能道德方法。
人工智能的广泛传播还意味着对人工智能技术的特定监管不仅成为可能,而且是必不可少的。对人工智能道德的普遍认识有助于鼓励有道德的人以道德的方式行事。但对那些对遵循道德准则不感兴趣的人又该如何呢?要确保所有人工智能系统按照特定道德标准工作,唯一的方法是要求它们这样做。这意味着以法律和法规的力量来支持社会普遍接受的道德标准。
监管领域的推进速度显然很快,甚至要快于我2017年在达沃斯预测的5年的时间框架。我在2018年4月清楚地看到了这一点。当时我们正在新加坡会见负责人工智能问题的政府官员。“这些问题不能再等了,我们需要比科技先行一步,”他们告诉我们,“我们希望在几个月内,而非几年内,公布第一份提案。”
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。