2017年7月,特斯拉时任首席执行官在美国洲长协会上忧心忡忡地提出,政府部门亟须加强对人工智能的监管,他认为,人工智能是“人类文明面临的最大风险”。
“机器人杀手”不是人工智能最大的风险和威胁,潜在的信息操控行为才是人工智能最大的风险,这甚至有可能引发战争。
毫无疑问,在智能化社会中,计算机或机器正在凭借一系列算法逐步帮助人类决策。然而,一个不可忽视的事实是,计算机的这一行为并不是透明的,也并不被社会上的大多数人所掌握,而是被掌握在少数科技企业和少数科技精英手中,这是需要警惕的。鉴于这样的情况,越来越多的人提出,设立第三方监管机构,监督人工智能的行为,将其可能存在的风险降低,乃至清除。
2017年,哈佛大学的伯克曼克莱恩互联网及社会研究中心和麻省理工学院媒体实验室共同成立“人工智能伦理和监管基金”的管理机构,监管基金已经达到2700万美元,它将被用来致力于解决人工智能可能会对人类带来的潜在挑战和威胁,以及衍生出来的伦理道德问题。(www.xing528.com)
目前,对于人工智能的监管,主要有三种策略和原则。一是透明性策略,这一策略要求人工智能企业秉持“公开透明”的原则,公开自己的源代码。然而,对人工智能企业来说,这是很难实现的。因此,这一策略的现实操作性较弱。二是可解释性策略和原则,也就是说,人工智能企业有责任和义务向用户解释其所使用的算法。三是建立有关人工智能的第三方监管机构。
正如前文所述,之所以对人工智能实施监管,一个重要的原因便是人工智能的发展可能会对人类社会造成威胁。著名物理学家霍金、微软创始人比尔·盖茨以及特斯拉的首席执行官马斯克是这一观点的明确支持者。例如,霍金就曾在一次演讲中说,未来人工智能有可能是人类文明的终结者。然而,也有一些人认为,目前,我们讨论人工智能可能会对人类产生的威胁还为时尚早。2017年7月,国务院印发的《新一代人工智能发展规划》中指出,不仅要制定促进人工智能发展的法律法规和伦理规范,还要“建立人工智能安全监管和评估体系”。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。