1.Accenture,“Could Al Be Society's Secret Weapon for Growth?-WEF 2017 Panel Discussion,”World Economic Forum.Davos.Switzerland,YouTube Video,32∶03,March 15,2017,https://www.youtube.com/watch?v=6i_4y4ISC5M.
2.阿西莫夫提出了机器人学三大定律。第一,“机器人不得伤害人类,或因不作为而使人类受到伤害”。第二,“机器人必须服从人类给予它的任何命令,除非这些命令与定律一冲突”。第三,“机器人必须保护自己的生存,除非这样的保护与第一或第二定律冲突”。Isaac Asimov,“Runaround,”in I,Robot(NewYork:Doubleday,1950)。
3.1984—1987年,“专家系统”的进展及其在医学、工程和科学领域的应用成为世人关注的焦点,甚至还出现了专门为人工智能制造的特殊电脑。接下来就是崩溃以及持续数年的所谓“人工智能冬天”,一直持续到20世纪90年代中期。
4.W.Xiong,J.Droppo,X.Huang,F.Seide,M.Seltzer,A.Stolcke,D.Yu,and G.Zweing,Achieving Human Parity in Conversational Speech Recognition:Microsoft Research Technical Report MSR-TR-2016-71,February 2017,https://arxiv.org/pdf/1610.05256.pdf.
5.Terrence J.Sejnowski,The Deep Learning Revolution(Cambridge,MA:MIT Press,2018),31;1986年,埃里克·霍维茨与人合著了一篇具有领先意义的论文,认为专家系统不可扩展。D.E.Heckerman and E.J.Horvitz,“The Myth of Modularity in Rule-Based Systems for Reasoning with Uncertainty,”Conference on Uncertainty in Artificial Intelligence,Philadelphia,1986年7月;https://dI.acm.org/citation.cfm?id=3023728。
6.同上。
7.Charu C.Aggarwal,Neural Networks and Deep Learning:A Textbook(Cham,Switzerland:Springer,2018),1。有关最近10年由这些发展所引起和影响的知识学科的趋同,请参见S.J.Gershman,E.J.Horvitz,and J.B.Tenenbaum,Science 349,273-78(2015)。
8.Aggarwal,Neural Networks and Deep Learning,1.
9.同上,17-30。
10.请参阅Sejnowski,全面了解过去20年来引领神经网络进步的科技发展历史。
11.Dom Galeon,“Microsoft's Speech Recognition Tech Is Officially as Accurate as Humans,”Futurism,October 20,2016,https://futurism.com/microsoftsspeech-recognition-tech-is-officially-as-accurate-as-humans/;Xuedong Huang,“Microsoft Researchers Achieve New Conversational Speech Recognition Milestone,”Microsoft Research Blog,Microsoft,August 20,2017,https://www.microsoft.com/en-us/research/blog/microsoft-researchersachieve-new-conversational-speech-recognition-milestone/.
12.超智能的兴起首先由英国数学家古德提出。第二次世界大战期间,古德曾在布莱切利公园参加密码破译工作,他以同事艾伦·图灵的初步工作为基础,推演出“智能爆炸”理论,认为这样的爆炸将使“超智能机器”能够设计出更加智能的机器。I.J.Good,“Speculations Concerning the First Ultraintelligent Machine,”Advances in Computers 6,31-88(January 1965)。古德旁务甚多,他曾为斯坦利·库布里克的电影《2001:太空漫游》提供科学指导,这部电影的主角就是那台著名的失控电脑哈尔。
计算机科学领域的其他人,包括微软研究院的人,一直对人工智能系统设计出更智能的自我版本或依靠它们自身的思维过程逃避人类控制的前景持怀疑态度。托马斯·迪特里奇和埃里克·霍维茨表示:“这样的过程与我们目前的理解,即学习和推理的算法受到计算复杂性的限制背道而驰。”他们指出:“不过,自我设计和优化的过程可能仍然会导致能力的飞跃。”T.G.Dietterich and E.J.Horvitz,“Rise of Concerns about Al:Reflections and Directions,”Communications of the ACM,vol.58,no.10,38-40(2015 年 10月),http://erichorvitz.com/CACM_Oct_2015-VP.pdf。
牛津大学教授尼克·博斯特罗姆在他最近出版的著作中对这些问题进行了更加广泛的探讨。Nick Bostrom,Superintelligence:Paths,Dangers,Strategies(Oxford:Oxford University Press,2014)。
在计算机科学领域,有些人用“奇点”一词来描述计算能力。这种能力增长如此之快,以至于无法预测未来。
13.Julia Angwin,Jeff Larson,Surya Mattu,and Lauren Kirchner,“Machine Bias,”ProPublica,May 23,2016,https://www.propublica.org/article/machine-biasrisk-assessments-in-criminal-sentencing.
14.这篇文章引发了一场关于偏见的定义以及如何在人工智能算法中评估其风险的激烈辩论。参见Matthias Spielkamp,“Inspecting Algorithms for Bias,”MIT Technology Review,2017年6月12日,https://www.technologyreview.com/s/607955/inspecting-algorithms-for-bias/。
15.Joy Buolamwini,“Gender Shades,”Civic Media,MIT Media Lab,accessed November 15,2018,https://www.media.mit.edu/projects/gender-shades/overview/.(www.xing528.com)
16.Thomas G.Dietterich and Eric J.Horvitz,“Rise of Concerns About Al:Reflection and Directions,”Communications of the ACM 58,no.10(2015),http://erichorvitz.com/CACM_Oct_2015-VP.pdf.
17.Satya Nadella,“The Partnership of the Future,”Slate,June 28,2016,http://www.slate.com/articles/technology/future_tense/2016/06/microsoft_ceo_satya_nadella_humans_and_a_i_can_work_together_to_solve_society.html.
18.Microsoft,The Future Computed:Artificial Intelligence and Its Role in Society(Redmond,WA:Microsoft Corporation,2018),53-76.
19.Paul Scharre,Army of None:Autonomous Weapons and the Future of War(New York:W.W.Norton,2018).
20.同上,163-69。
21.Drew Harrell,“Google to Drop Pentagon Al Contract After Employee Objections to the‘Business of War,’”Washington Post,June 1,2018,https://www.washingtonpost.com/news/the-switch/wp/2018/06/01/googleto-drop-pentagon-ai-contract-after-employees-called-it-the-business-ofwar/?utm_term=.86860b0f5a33.
22.Brad Smith,“Technology and the US Military,”Microsoft on the Issues(blog),Microsoft,October 26,2018,https://blogs.microsoft.com/on-theissues/2018/10/26/technology-and-the-US-military/.
23.https://en.m.wikipedia.org/wiki/Just_war_theory;https://en.m.wikipedia.org/wiki/Mahabharata.
24.正如我们所说:“退出这个市场,就是减少我们参与有关如何让新技术以负责任的方式得到最佳使用的公众辩论的机会。我们不会对未来的发展袖手旁观,无所作为。相反,我们要以最积极的方式,努力帮助塑造未来。”Smith,“Technology and the US Military”。
25.同上。
26.Adam Satariano,“Will There Be a Ban on Killer Robots?”New York Times,October 19,2018,https://www.nytimes.com/2018/10/19/technology/artificialimtelligence-weapons.html.
27.Swisslnfo,“Killer Robots:‘Do Something’or‘Do Nothing’?”EurAsia Review,March 31,2019,http://www.eurasiareview.com/31032019-killerrobots-do-something-or-do-nothing/.
28.Mary Wareham,“Statement to the Convention on Conventional Weapons Groupof Governmental Experts on Lethal Autonomous Weapons Systems,Geneva,”Human Rights Watch,March 29,2019,https://www.hrw.org/news/2019/03/27/statement-convention-conventional-weapons-groupgovernmental-experts-lethal.
29.现任布鲁金斯学会主席,美国海军陆战队前将军约翰·艾伦,雄辩地阐述了一些关键的道德挑战。他写道:“从最早的时候起,人类就试图约束自己的本能,例如在使用武力的过程中控制它们,限制武力的破坏性,特别是它对无辜者的残酷影响。随着时间的推移,这些限制已经编纂成为一整套国际法和职业军事行为体系,旨在指导和限制武力和暴力的使用。但这里面存在一个悖论,当我们需要在战争中对敌人施加暴力和毁灭时,我们必须以一种节制的态度使用它,一方面承认它的必要性,一方面又要提供种种办法,对参与其中的人加以区分,同时告诫我们自己要运用好比例原则。”John Allen,foreword to Military Ethics:What Everyone Needs to Know(Oxford:Oxford University Press,2016),xvi。另外参见Deane-Peter Baker,ed.,Key Concepts in Military Ethics(Sydney:University of New South Wales,2015)
30.Brad Smith and Harry Shum,foreword to The Future Computed,8.
31.Oren Etzioni,“A Hippocratic Oath for Artificial Intelligence Practitioners,”Tech Crunch,March 14,2018,https://techcrunch.com/2018/03/14/a-hippocratic-oath-for-artificial-intelligence-practitioners/.
32.Cameron Addis,“Cold War,1945-53,”History Hub,accessed February 27,2019,http://sites.austincc.edu/caddis/cold-war-1945-53/.
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。