首页 理论教育 23条人工智能军规,你做到了吗?

23条人工智能军规,你做到了吗?

时间:2023-06-23 理论教育 版权反馈
【摘要】:《阿西洛马人工智能23条原则》的全部内容:1.研究目标人工智能研究目标不能不受约束,必须发展有益的人工智能。

23条人工智能军规,你做到了吗?

随着人工智能的迅猛发展,机器在未来几十年内可能会达到人类的智能水平,已被许多科学家认为是不可避免的趋势。一旦达到这一点,机器人就可以改造自己,并创建其他同类,甚至制造出被称为超级智能的更强大AI。如何确保机器人为人类利益服务,而不是像电影终结者》里一样,将人类文明终结,已经不再是科幻作品里的纸上谈兵,而是必须纳入议事日程的重要课题。

著名科幻作家阿西莫夫在其作品中为机器人制定了三大法则,已经超越科幻成为人们心目中机器人应该遵守的不二法则。

阿西莫夫的机器人三大法则:第一法则,机器人不得伤害人类,或因不作为使人类受到伤害;第二法则,除非违背第一法则,机器人必须服从人类的命令;第三法则,在不违背第一及第二法则下,机器人必须保护自己。

2017年1月,在加利福尼亚州阿西洛马举行的Beneficial AI会议上,特斯拉CEO埃隆·马斯克、DeepMind创始人戴米斯·哈萨比斯及近千名人工智能和机器人领域的专家联合签署了《阿西洛马人工智能23条原则》(Asilomar A.I.Principles),这些专家包括机器人学家、物理学家经济学家、哲学家,他们对人工智能在安全、经济和道德等领域产生的影响展开了激烈辩论。要让这套原则最终获得通过,必须获得多达90%的与会专家认可。共有892名人工智能或机器人研究人员及另外1 445名专家在这份原则上签字,包括著名物理学家霍金(图6-11)。会议呼吁全世界在发展人工智能的同时严格遵守这些原则,确保拥有自主意识的机器保持安全,并以人类的最佳利益行事,共同保障人类未来的利益和安全。

其中一些原则(例如透明度和共享研究成果)实现的可能性较低。即便这些原则无法得到全面落实,但这23条原则仍然可以改进人工智能开发过程,确保这些技术符合道德标准,避免邪恶势力崛起。

阿西洛马AI原则分为三大类23条。第一类为科研问题,共5条,包括研究目标、经费、政策、文化及竞争等;第二类为伦理价值,共13条,包括AI开发中的安全、责任、价值观等;第三类为长期问题,共5条,旨在应对AI造成的灾难性风险。

《阿西洛马人工智能23条原则》的全部内容:

1.研究目标

人工智能研究目标不能不受约束,必须发展有益的人工智能。

2.研究资金

人工智能投资应该附带一部分专项研究基金,确保其得到有益的使用,解决计算机科学、经济、法律伦理道德社会研究方面的棘手问题:

——如何确保未来的人工智能系统健康发展,使之符合我们的意愿,避免发生故障或遭到黑客入侵?

——如何通过自动化实现繁荣,同时保护人类的资源,落实人类的目标?

——如何更新法律制度,使之更加公平、效率更高,从而跟上人工智能的发展步伐,控制与人工智能有关的风险?

——人工智能应该符合哪些价值观?还应该具备哪些法律和道德地位?

3.科学政策联系

人工智能研究人员应该与政策制定者展开有建设性的良性交流。

4.研究文化

人工智能研究人员和开发者之间应该形成合作、互信、透明的文化。

5.避免竞赛

人工智能系统开发团队应该主动合作,避免在安全标准上出现妥协。

图6-11 特斯拉CEO埃隆·马斯克与著名物理学家霍金

6.安全性

人工智能系统应当在整个生命周期内确保安全性,还要针对这项技术的可行性及适用的领域进行验证。

7.故障透明度

如果人工智能系统引发破坏,应该可以确定原因。

8.司法透明度

在司法决策系统中使用任何形式的自动化系统,都应该提供令人满意的解释,而且需要由有能力的人员进行审查。

9.责任

对于先进的人工智能系统在使用、滥用和应用过程中蕴含的道德意义,设计者和开发者都是利益相关者,他们有责任也有机会消除由此产生的影响。

10.价值观一致性(www.xing528.com)

需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动,都符合人类的价值观。

11.人类价值观

人工智能系统的设计和运行都必须符合人类的尊严、权利、自由及文化多样性。

12.个人隐私

人类应该有权使用、管理和控制自己生成的数据,为人工智能赋予数据的分析权和使用权。

13.自由和隐私

人工智能在个人数据上的应用决不能不合理地限制人类拥有或理应拥有的自由。

14.共享利益

人工智能技术应当让尽可能多的人使用和获益。

15.共享繁荣

人工智能创造的经济繁荣应当广泛共享,为全人类造福。

16.由人类控制

人类应当有权选择是否及如何由人工智能系统制定决策,以便完成人类选择的目标。

17.非破坏性

通过控制高度先进的人工智能系统获得的权力,应当尊重和提升一个健康的社会赖以维继的社会和公民进程,而不是破坏这些进程。

18.人工智能军备竞赛

应该避免在自动化致命武器上开展军备竞赛。

19.能力警告

目前还没有达成共识,我们应该避免对未来人工智能技术的能力上限做出强假定。

20.重要性

先进的人工智能代表了地球生命历史上的一次深远变革,应当以与之相称的认真态度和充足资源对其进行规划和管理。

21.风险

必须针对人工智能系统的风险尤其是灾难性风险和存在主义风险的预期影响制定相应的规划和缓解措施。

22.不断自我完善

对于能够通过自我完善或自我复制的方式,快速提升质量或增加数量的人工智能系统,必须辅以严格的安全和控制措施。

23.共同利益

超级人工智能只能服务于普世价值,应该考虑全人类的利益,而不是一个国家或一个组织的利益。

可以发现,虽然《阿西洛马人工智能23原则》没有阿西莫夫机器人三大法则简洁明了,但它是人类进入人工智能时代的重要宣言,是指导人类开发安全人工智能的重要指南,受到了人工智能行业和公共知识分子的广泛支持。

但危机仍然存在,未来仍不确定,特斯拉CEO埃隆·马斯克在会议发言中说,我们正在走向超级智能,也有可能终结人类文明。当计算机开始自己做决定时,我们如何才能确保它们与人类的价值观相一致?此前我们已经看到了机器在学习中的偏见,微软的聊天机器人曾发表种族言论,特斯拉的汽车AI曾造成致命事故。墨菲定律说,任何一个事件,只要具有大于零的概率,它就必定会发生。我们或许也可以说,一个受控制的系统,不管如何控制,最终会崩溃。人工智能会是这样吗?天网已经启动了吗?文明终将面临最后的裁决,胜,则荣,败,则灭!在卡达尔肖夫的宇宙文明等级理论中,人类一旦发展到Ⅱ类文明,就没有任何灾难能造成文明的灭绝,希望我们可以通过《阿西洛马人工智能23原则》,迎来人类文明发展的终极胜利。

请思考:

你觉得《阿西洛马人工智能23条原则》是否完善?是否足以应对未来的人工智能道德问题?

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈