首页 理论教育 无人机简史:与人工智能改变社会生活

无人机简史:与人工智能改变社会生活

时间:2023-07-30 理论教育 版权反馈
【摘要】:但作为人工智能的一种载体形式,人们对于无人机的关注,与其说在于技术性,倒不如说是在于社会性。人们惊呼人工智能时代到来了,热议人工智能超越人类带来的诸多思考。在无人机乃至人工智能将如何改变人类社会生活的问题上,战争无疑是最具说服力的领域。影响了战争也就意味着深度介入了人类的社会生活。

无人机简史:与人工智能改变社会生活

马克思有一句名言:“人的本质并不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”也正因为如此,或许从餐馆的上菜工,到盲人的导航犬,未来智能化的无人机将在我们的生活中无处不在—至少未来科学家们所描述的场景中是这样,也为人们所深信不疑。但作为人工智能的一种载体形式,人们对于无人机的关注,与其说在于技术性,倒不如说是在于社会性。技术是人类的创造物,它必然要承载着人类的这个根本属性。这就意味着我们的思维在维度上要大大地拓展了。2016年初春,谷歌的“阿尔法狗”与围棋高手李世石的人机大战,引发了一阵人工智能的热潮。人们惊呼人工智能时代到来了,热议人工智能超越人类带来的诸多思考。联想范围很快从人形机器人在服务领域的大肆扩展、工业机器人在生产线上替代工人工作,在文化、艺术、媒体领域出现的计算机创作,一直延展到了人类社会生活的永恒话题—战争。不可否认,今天的军事领域早已显现了无人化军备竞赛的种种征兆。这使人们不禁要问:一个彻底改变人类社会生活的空前巨变时代是否已经来临?人类应当怎样应对?又该如何理性思考?人类将何去何从?

在无人机乃至人工智能将如何改变人类社会生活的问题上,战争无疑是最具说服力的领域。至于这其中的原因并不复杂。战争是人类社会生活不可割裂的部分,甚至“要比和平发达得早”(马克思语)。影响了战争也就意味着深度介入了人类的社会生活。同时战争的规则虽然简单,但又很少得到遵守。也正因为如此,倘若人工智能发展到足以代替人类操控武器的程度,人们一定会毫不犹豫地将其送上战场,既然“消灭敌

迪士尼公司几年前就投资了一系列小型无人机创业公司,并获得了大量的专利成果。图为迪士尼公司申请的专利,利用小型无人机系统操作运动的木偶。或许不久的将来,我们带着自己家的小朋友就能在迪士尼乐园里看到这种有趣的表演

迪士尼公司几年前就投资了一系列小型无人机创业公司,并获得了大量的专利成果。图为迪士尼公司申请的专利,利用小型无人机系统操作运动的木偶。或许不久的将来,我们带着自己家的小朋友就能在迪士尼乐园里看到这种有趣的表演

迪士尼公司几年前就投资了一系列小型无人机创业公司,并获得了大量的专利成果。图为迪士尼公司申请的专利,利用小型无人机系统操作运动的木偶。或许不久的将来,我们带着自己家的小朋友就能在迪士尼乐园里看到这种有趣的表演

若按加速回报定律的线性增长计算,人类科技进步越来越快,这似乎意味着不久的未来会很有趣

人保存自己”是最高级的战争艺术,人们没有理由不这样去做,正如人们对待飞机、履带式装甲战斗车辆和武装舰艇的态度,其出发点不会有什么两样。这实际上意味着从社会学的角度来讲,战争将比和平更好地拥抱无人机技术的前沿。不过,尽管社会科学技术是在人类社会生活实践基础上产生的,又反过来影响着人类社会,科学技术的发展与人类社会发展早已融为一体,那么人工智能参与社会生活将是自然而然的历史性趋势,但作为人类社会生活的一部分,战争还要多久才能踏入人工智能时代的门槛?这无疑是一个有意思的话题。

若按加速回报定律的线性增长计算,人类科技进步越来越快,这似乎意味着不久的未来会很有趣

人保存自己”是最高级的战争艺术,人们没有理由不这样去做,正如人们对待飞机、履带式装甲战斗车辆和武装舰艇的态度,其出发点不会有什么两样。这实际上意味着从社会学的角度来讲,战争将比和平更好地拥抱无人机技术的前沿。不过,尽管社会科学技术是在人类社会生活实践基础上产生的,又反过来影响着人类社会,科学技术的发展与人类社会发展早已融为一体,那么人工智能参与社会生活将是自然而然的历史性趋势,但作为人类社会生活的一部分,战争还要多久才能踏入人工智能时代的门槛?这无疑是一个有意思的话题。

若按加速回报定律的线性增长计算,人类科技进步越来越快,这似乎意味着不久的未来会很有趣

人保存自己”是最高级的战争艺术,人们没有理由不这样去做,正如人们对待飞机、履带式装甲战斗车辆和武装舰艇的态度,其出发点不会有什么两样。这实际上意味着从社会学的角度来讲,战争将比和平更好地拥抱无人机技术的前沿。不过,尽管社会科学技术是在人类社会生活实践基础上产生的,又反过来影响着人类社会,科学技术的发展与人类社会发展早已融为一体,那么人工智能参与社会生活将是自然而然的历史性趋势,但作为人类社会生活的一部分,战争还要多久才能踏入人工智能时代的门槛?这无疑是一个有意思的话题。

一种观点认为:“快了!。”其理论依据在于未来学家雷·库兹韦尔提出的“加速回报定律”。该定律认为,人类社会科技的发展并非是匀速的,而是加速的。特别是在信息时代更是如此。信息科技的发展按照指数规模爆炸,将导致存储能力、计算能力、芯片规模、宽带规模暴涨。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快,这本就是更加发达的一个标准。19世纪的人们比15世纪的人们懂得更多,所以19世纪的人类科技发展起来的速度自然比15世纪更快。即使放到更小的时间规模上,这个定律依然有效。著名电影《回到未来》中,生活在1985年的主角回到了1955年。当主角回到1955年的时候,他被电视刚出现时的新颖、便宜的物价、没人喜欢电吉他、俚语的不同而震惊。但是如果这部电影发生在2015年,回到30年前的主角的震惊程度要比这大得多。一个2000年左右出生的人,回到一个没有个人计算机互联网手机的1985年,会比从1985年回到1955年的主角看到更大的区别。这同样是因为加速回报定律。1985年-2015年的平均发展速度,要比1955年-1985年的平均发展速度快,因为1985年的世界比1955年的更发达,起点更高,所以过去30年的变化要大过之前30年的变化。进步越来越快,也就是说我们不久的未来会很有趣,由人工智能替代人类的战争当然是触手可及的场景之一,而且很可能就在“明天”。

一种观点认为:“快了!。”其理论依据在于未来学家雷·库兹韦尔提出的“加速回报定律”。该定律认为,人类社会科技的发展并非是匀速的,而是加速的。特别是在信息时代更是如此。信息科技的发展按照指数规模爆炸,将导致存储能力、计算能力、芯片规模、宽带规模暴涨。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快,这本就是更加发达的一个标准。19世纪的人们比15世纪的人们懂得更多,所以19世纪的人类科技发展起来的速度自然比15世纪更快。即使放到更小的时间规模上,这个定律依然有效。著名电影《回到未来》中,生活在1985年的主角回到了1955年。当主角回到1955年的时候,他被电视刚出现时的新颖、便宜的物价、没人喜欢电吉他、俚语的不同而震惊。但是如果这部电影发生在2015年,回到30年前的主角的震惊程度要比这大得多。一个2000年左右出生的人,回到一个没有个人计算机、互联网、手机的1985年,会比从1985年回到1955年的主角看到更大的区别。这同样是因为加速回报定律。1985年-2015年的平均发展速度,要比1955年-1985年的平均发展速度快,因为1985年的世界比1955年的更发达,起点更高,所以过去30年的变化要大过之前30年的变化。进步越来越快,也就是说我们不久的未来会很有趣,由人工智能替代人类的战争当然是触手可及的场景之一,而且很可能就在“明天”。

一种观点认为:“快了!。”其理论依据在于未来学家雷·库兹韦尔提出的“加速回报定律”。该定律认为,人类社会科技的发展并非是匀速的,而是加速的。特别是在信息时代更是如此。信息科技的发展按照指数规模爆炸,将导致存储能力、计算能力、芯片规模、宽带规模暴涨。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快,这本就是更加发达的一个标准。19世纪的人们比15世纪的人们懂得更多,所以19世纪的人类科技发展起来的速度自然比15世纪更快。即使放到更小的时间规模上,这个定律依然有效。著名电影《回到未来》中,生活在1985年的主角回到了1955年。当主角回到1955年的时候,他被电视刚出现时的新颖、便宜的物价、没人喜欢电吉他、俚语的不同而震惊。但是如果这部电影发生在2015年,回到30年前的主角的震惊程度要比这大得多。一个2000年左右出生的人,回到一个没有个人计算机、互联网、手机的1985年,会比从1985年回到1955年的主角看到更大的区别。这同样是因为加速回报定律。1985年-2015年的平均发展速度,要比1955年-1985年的平均发展速度快,因为1985年的世界比1955年的更发达,起点更高,所以过去30年的变化要大过之前30年的变化。进步越来越快,也就是说我们不久的未来会很有趣,由人工智能替代人类的战争当然是触手可及的场景之一,而且很可能就在“明天”。

从社会学的角度来讲,战争将比和平更好地拥抱无人机技术的前沿

从社会学的角度来讲,战争将比和平更好地拥抱无人机技术的前沿

从社会学的角度来讲,战争将比和平更好地拥抱无人机技术的前沿

无人机毋庸置疑正在向高度智能化的方向上发展,或许“空中机器人”才是对它们更为恰当的称呼

无人机毋庸置疑正在向高度智能化的方向上发展,或许“空中机器人”才是对它们更为恰当的称呼

无人机毋庸置疑正在向高度智能化的方向上发展,或许“空中机器人”才是对它们更为恰当的称呼

事实上,雷·库兹韦尔认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成,2000年的发展速度是20世纪平均发展速度的5倍。他认为自2000年开始,只要花14年就能达成整个20世纪100年的进步,而之后2014年开始只要花7年(2021年),就能达到又一个20世纪100年的进步。几十年之后,我们每年都能达成好几次相当于整个20世纪的发展,再往后,说不定每个月都能达成一次。按照加速回报定律,雷·库兹韦尔等人认为人类在21世纪的进步将是20世纪的1000倍。如果雷·库兹韦尔的想法是正确的,那2030年的世界可能就能把我们“吓傻”了。以智能化无人机为代表的智能设备是否会全面影响人类的社会生活,我们还缺少信心,但人工智能全面参与战争几乎是肯定的,而2050年的世界则会变得更加面目全非。然而,也有一些人认为:人工智能代替人类参与战争“差得还远!”。有意思的是,这种观点很大程度上正是来自于对“加速回报定律”的嘲讽。在这里,仅举一个与航空密切相关的例子便可一目了然。1903年莱特兄弟驾机最长飞行59秒;1931年里斯和布罗西驾机不用空中加油,最长飞行84小时32分钟。28年5158倍!若按加速回报定律的线性增长计算,1931年到2015年将增长15474倍,不加油将能持续飞行149年!但技术发展又通常是指数级的!这意味着早在2015年,人类的航空技术不用空中加油就能一口气飞2000年!然而,在现实世界中,2015年的航空技术又是怎样?显然,无情的嘲讽似乎一边将雷·库兹韦尔和他的加速回报定律扫入了垃圾堆,一边也为“在一代人的时间里迈入战争的人工智能时代”画上了一个大大的十字叉。

事实上,雷·库兹韦尔认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成,2000年的发展速度是20世纪平均发展速度的5倍。他认为自2000年开始,只要花14年就能达成整个20世纪100年的进步,而之后2014年开始只要花7年(2021年),就能达到又一个20世纪100年的进步。几十年之后,我们每年都能达成好几次相当于整个20世纪的发展,再往后,说不定每个月都能达成一次。按照加速回报定律,雷·库兹韦尔等人认为人类在21世纪的进步将是20世纪的1000倍。如果雷·库兹韦尔的想法是正确的,那2030年的世界可能就能把我们“吓傻”了。以智能化无人机为代表的智能设备是否会全面影响人类的社会生活,我们还缺少信心,但人工智能全面参与战争几乎是肯定的,而2050年的世界则会变得更加面目全非。然而,也有一些人认为:人工智能代替人类参与战争“差得还远!”。有意思的是,这种观点很大程度上正是来自于对“加速回报定律”的嘲讽。在这里,仅举一个与航空密切相关的例子便可一目了然。1903年莱特兄弟驾机最长飞行59秒;1931年里斯和布罗西驾机不用空中加油,最长飞行84小时32分钟。28年5158倍!若按加速回报定律的线性增长计算,1931年到2015年将增长15474倍,不加油将能持续飞行149年!但技术发展又通常是指数级的!这意味着早在2015年,人类的航空技术不用空中加油就能一口气飞2000年!然而,在现实世界中,2015年的航空技术又是怎样?显然,无情的嘲讽似乎一边将雷·库兹韦尔和他的加速回报定律扫入了垃圾堆,一边也为“在一代人的时间里迈入战争的人工智能时代”画上了一个大大的十字叉。

事实上,雷·库兹韦尔认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成,2000年的发展速度是20世纪平均发展速度的5倍。他认为自2000年开始,只要花14年就能达成整个20世纪100年的进步,而之后2014年开始只要花7年(2021年),就能达到又一个20世纪100年的进步。几十年之后,我们每年都能达成好几次相当于整个20世纪的发展,再往后,说不定每个月都能达成一次。按照加速回报定律,雷·库兹韦尔等人认为人类在21世纪的进步将是20世纪的1000倍。如果雷·库兹韦尔的想法是正确的,那2030年的世界可能就能把我们“吓傻”了。以智能化无人机为代表的智能设备是否会全面影响人类的社会生活,我们还缺少信心,但人工智能全面参与战争几乎是肯定的,而2050年的世界则会变得更加面目全非。然而,也有一些人认为:人工智能代替人类参与战争“差得还远!”。有意思的是,这种观点很大程度上正是来自于对“加速回报定律”的嘲讽。在这里,仅举一个与航空密切相关的例子便可一目了然。1903年莱特兄弟驾机最长飞行59秒;1931年里斯和布罗西驾机不用空中加油,最长飞行84小时32分钟。28年5158倍!若按加速回报定律的线性增长计算,1931年到2015年将增长15474倍,不加油将能持续飞行149年!但技术发展又通常是指数级的!这意味着早在2015年,人类的航空技术不用空中加油就能一口气飞2000年!然而,在现实世界中,2015年的航空技术又是怎样?显然,无情的嘲讽似乎一边将雷·库兹韦尔和他的加速回报定律扫入了垃圾堆,一边也为“在一代人的时间里迈入战争的人工智能时代”画上了一个大大的十字叉。

不过,或许雷·库兹韦尔及其拥护者们的想法过于乐观,而反对者们的嘲讽又过于刻薄,但事情的真相倒可能是这样的。战争的人工智时代的到来,可能既没有想象中那么快,也没有想象中那么远。要知道,人工智能的概念非常宽泛,所以人工智能也分很多种,“弱人工智能”就是其中之一。所谓的“弱人工智能”是指擅长于单个方面的人工智能。比如汽车上有很多的弱人工智能系统,从控制防抱死系统的计算机,到控制汽油注入参数的计算机。谷歌正在测试的无人驾驶车,就包括了很多弱人工智能,这些弱人工智能能够感知周围环境并做出反应。我们的手机也充满了弱人工智能系统。当你用地图软件导航,接受音乐电台推荐,查询明天的天气,和Siri聊天,以及其他很多应用,其实都是弱人工智能。谷歌翻译也是一种经典的人工智能,非常擅长单个领域。声音识别也是一种。很多软件利用这两种智能的合作,使得你能对着手机说中文,手机直接帮你翻译成英文。世界最强的跳棋象棋、拼字棋、双陆棋和黑白棋选手都是弱人工智能。风靡全球的飞行相机—“大疆”无人机更是一种时髦的弱人工智能工具。显然,我们今天早已处在了一个充满了弱人工智能的世界。这些还只是消费级产品的例子。更为现实的情况是,不仅制造、金融(高频算法交易占到了美国股票交易的一半)等领域在广泛运用着各种复杂的弱人工智能,军事领域也早已为初级的“弱人工智能”所渗透。

不过,或许雷·库兹韦尔及其拥护者们的想法过于乐观,而反对者们的嘲讽又过于刻薄,但事情的真相倒可能是这样的。战争的人工智时代的到来,可能既没有想象中那么快,也没有想象中那么远。要知道,人工智能的概念非常宽泛,所以人工智能也分很多种,“弱人工智能”就是其中之一。所谓的“弱人工智能”是指擅长于单个方面的人工智能。比如汽车上有很多的弱人工智能系统,从控制防抱死系统的计算机,到控制汽油注入参数的计算机。谷歌正在测试的无人驾驶车,就包括了很多弱人工智能,这些弱人工智能能够感知周围环境并做出反应。我们的手机也充满了弱人工智能系统。当你用地图软件导航,接受音乐电台推荐,查询明天的天气,和Siri聊天,以及其他很多应用,其实都是弱人工智能。谷歌翻译也是一种经典的人工智能,非常擅长单个领域。声音识别也是一种。很多软件利用这两种智能的合作,使得你能对着手机说中文,手机直接帮你翻译成英文。世界最强的跳棋、象棋、拼字棋、双陆棋和黑白棋选手都是弱人工智能。风靡全球的飞行相机—“大疆”无人机更是一种时髦的弱人工智能工具。显然,我们今天早已处在了一个充满了弱人工智能的世界。这些还只是消费级产品的例子。更为现实的情况是,不仅制造、金融(高频算法交易占到了美国股票交易的一半)等领域在广泛运用着各种复杂的弱人工智能,军事领域也早已为初级的“弱人工智能”所渗透。

不过,或许雷·库兹韦尔及其拥护者们的想法过于乐观,而反对者们的嘲讽又过于刻薄,但事情的真相倒可能是这样的。战争的人工智时代的到来,可能既没有想象中那么快,也没有想象中那么远。要知道,人工智能的概念非常宽泛,所以人工智能也分很多种,“弱人工智能”就是其中之一。所谓的“弱人工智能”是指擅长于单个方面的人工智能。比如汽车上有很多的弱人工智能系统,从控制防抱死系统的计算机,到控制汽油注入参数的计算机。谷歌正在测试的无人驾驶车,就包括了很多弱人工智能,这些弱人工智能能够感知周围环境并做出反应。我们的手机也充满了弱人工智能系统。当你用地图软件导航,接受音乐电台推荐,查询明天的天气,和Siri聊天,以及其他很多应用,其实都是弱人工智能。谷歌翻译也是一种经典的人工智能,非常擅长单个领域。声音识别也是一种。很多软件利用这两种智能的合作,使得你能对着手机说中文,手机直接帮你翻译成英文。世界最强的跳棋、象棋、拼字棋、双陆棋和黑白棋选手都是弱人工智能。风靡全球的飞行相机—“大疆”无人机更是一种时髦的弱人工智能工具。显然,我们今天早已处在了一个充满了弱人工智能的世界。这些还只是消费级产品的例子。更为现实的情况是,不仅制造、金融(高频算法交易占到了美国股票交易的一半)等领域在广泛运用着各种复杂的弱人工智能,军事领域也早已为初级的“弱人工智能”所渗透。

倘若人工智能发展到足以代替人类操控武器的程度,人们一定会毫不犹豫地将其送上战场

倘若人工智能发展到足以代替人类操控武器的程度,人们一定会毫不犹豫地将其送上战场

倘若人工智能发展到足以代替人类操控武器的程度,人们一定会毫不犹豫地将其送上战场

不可否认,过去20年里消灭了大量制造业和办公室岗位的自动化浪潮如今正席卷各国军队。越来越自动化的海军舰艇就是一个很恰当的例子。20年前要有效运作一艘排水量接近10000吨级的阿利·伯克级驱逐舰大约需要337-380人,但今天一艘排水量14500万吨的DDG1000驱逐舰却只需要不到150名舰员即可操作自如,而后者的综合战斗效能却至少是前者的3倍,自动化技术的进步是显而易见的(尽管按照雷·库兹韦尔及其拥护者们的想法还不够快)。与军舰的自动化程度情况相对应,重型战斗机后座飞行员的消失也是如此。如果不算俄罗斯给印度人定制的“特别版本”,今天几乎所有的“四代机”都只有单座型号,“消失”的后座显然被高度自动化的人工智能设备取代了。另外,从以色列的“快骡”载人无人机、波士顿动力的“大狗”四足机器人,再到各种各样的机器人。弱人工智能在军事后勤等非直接战斗领域的应用同样是一个热点趋势。各国军方显然都在寻求着可降低后方部门成本的自动化技术,这些技术的应用还有助于将士兵从一些非作战部署中撤下,因为他们在运输等流动战场上可能面临敌方的威胁。而在可预见到的时间里,弱人工智能在这些领域的存在感还将大大拓展。在民用领域可能令出租车火车和卡车司机面临失业的无人驾驶汽车可能也会消除陆军中许多作战支持岗位;将货物运到货车上的仓库机器人也可以完成空军的军械部门和供应部门的类似工作;蛙人也可能不再需要到水下进行人工排雷了,机器人可以完成这个工作。对此,正如宾夕法尼亚大学教授、全球知名武器化机器人专家迈克尔·霍罗威茨所说:“正如在民用经济中一样,自动化可能会对后勤部门的军事机构产生重大影响”。

不可否认,过去20年里消灭了大量制造业和办公室岗位的自动化浪潮如今正席卷各国军队。越来越自动化的海军舰艇就是一个很恰当的例子。20年前要有效运作一艘排水量接近10000吨级的阿利·伯克级驱逐舰大约需要337-380人,但今天一艘排水量14500万吨的DDG1000驱逐舰却只需要不到150名舰员即可操作自如,而后者的综合战斗效能却至少是前者的3倍,自动化技术的进步是显而易见的(尽管按照雷·库兹韦尔及其拥护者们的想法还不够快)。与军舰的自动化程度情况相对应,重型战斗机后座飞行员的消失也是如此。如果不算俄罗斯给印度人定制的“特别版本”,今天几乎所有的“四代机”都只有单座型号,“消失”的后座显然被高度自动化的人工智能设备取代了。另外,从以色列的“快骡”载人无人机、波士顿动力的“大狗”四足机器人,再到各种各样的机器人。弱人工智能在军事后勤等非直接战斗领域的应用同样是一个热点趋势。各国军方显然都在寻求着可降低后方部门成本的自动化技术,这些技术的应用还有助于将士兵从一些非作战部署中撤下,因为他们在运输等流动战场上可能面临敌方的威胁。而在可预见到的时间里,弱人工智能在这些领域的存在感还将大大拓展。在民用领域可能令出租车、火车和卡车司机面临失业的无人驾驶汽车可能也会消除陆军中许多作战支持岗位;将货物运到货车上的仓库机器人也可以完成空军的军械部门和供应部门的类似工作;蛙人也可能不再需要到水下进行人工排雷了,机器人可以完成这个工作。对此,正如宾夕法尼亚大学教授、全球知名武器化机器人专家迈克尔·霍罗威茨所说:“正如在民用经济中一样,自动化可能会对后勤部门的军事机构产生重大影响”。

不可否认,过去20年里消灭了大量制造业和办公室岗位的自动化浪潮如今正席卷各国军队。越来越自动化的海军舰艇就是一个很恰当的例子。20年前要有效运作一艘排水量接近10000吨级的阿利·伯克级驱逐舰大约需要337-380人,但今天一艘排水量14500万吨的DDG1000驱逐舰却只需要不到150名舰员即可操作自如,而后者的综合战斗效能却至少是前者的3倍,自动化技术的进步是显而易见的(尽管按照雷·库兹韦尔及其拥护者们的想法还不够快)。与军舰的自动化程度情况相对应,重型战斗机后座飞行员的消失也是如此。如果不算俄罗斯给印度人定制的“特别版本”,今天几乎所有的“四代机”都只有单座型号,“消失”的后座显然被高度自动化的人工智能设备取代了。另外,从以色列的“快骡”载人无人机、波士顿动力的“大狗”四足机器人,再到各种各样的机器人。弱人工智能在军事后勤等非直接战斗领域的应用同样是一个热点趋势。各国军方显然都在寻求着可降低后方部门成本的自动化技术,这些技术的应用还有助于将士兵从一些非作战部署中撤下,因为他们在运输等流动战场上可能面临敌方的威胁。而在可预见到的时间里,弱人工智能在这些领域的存在感还将大大拓展。在民用领域可能令出租车、火车和卡车司机面临失业的无人驾驶汽车可能也会消除陆军中许多作战支持岗位;将货物运到货车上的仓库机器人也可以完成空军的军械部门和供应部门的类似工作;蛙人也可能不再需要到水下进行人工排雷了,机器人可以完成这个工作。对此,正如宾夕法尼亚大学教授、全球知名武器化机器人专家迈克尔·霍罗威茨所说:“正如在民用经济中一样,自动化可能会对后勤部门的军事机构产生重大影响”。

早已投入使用多年的美国MQ-9“死神”察打一体无人机。战争的人工智能时代的到来,可能既没有想象中那么快,也没有想象中那么远(www.xing528.com)

早已投入使用多年的美国MQ-9“死神”察打一体无人机。战争的人工智能时代的到来,可能既没有想象中那么快,也没有想象中那么远

早已投入使用多年的美国MQ-9“死神”察打一体无人机。战争的人工智能时代的到来,可能既没有想象中那么快,也没有想象中那么远

正在测试中的以色列“快骡”载人无人机

不过,真正值得思索的问题在于。如果说在人类的社会生活领域,人工智能革命是从弱人工智能,到强人工智能,即人类级别的人工智能),最终到达超人工智能的旅途,即超越人类级别的人工智能)。那么人工智能自然不可能满足于一直以“弱人工智能”的面目存在于军事领域,由“弱”到“强”,继续向前进化是肯定的,而且其范畴也必将从非战斗领域延展到直接的战斗领域。“从人工干预最多的有限自主到完全的无限自主”。目前战斗用人工智能研究正是沿着这样的一个方向在前进。这样一种智能化的战斗机器人无疑将是自动化技术的巅峰之作,理论上能够把人类从繁重、危险的战争环境中解脱出来,因此成了高效、精确、可靠的代名词。对此一个极好的例子是关于空中战场的。2011年2月4日,诺斯罗普·格鲁曼公司为美国海军研制的X-47B隐身无人驾驶飞行器在加利福尼亚州爱德华兹空军基地首次升空,顺利完成了29分钟的测试飞行,飞行高度达到了1500米。全程观看新机试飞的军方代表加梅·恩达尔宣称:“今天,我们第一次见证了未来。”事实上,尽管这是一架海军的“盐水机”,但联想到此前美国海军、空军、国防部高官在不同的场合、不同的时间都表示过F-22、F-35将是最后一代有人驾驶战斗机,而美军又一贯在装备论证研究方面表现出了异乎寻常的前瞻性和创造性,大量预研、论证型号的出现从来就是不间断的,再加上这句意味深长的“我们第一次见证了未来”,这使人们不得不正视具有自主任务能力的“强人工智能”代替人类飞行员,直接参与战斗的现实性可能,以及由此引起的对于“机器人战争”合法性的质疑。

正在测试中的以色列“快骡”载人无人机

不过,真正值得思索的问题在于。如果说在人类的社会生活领域,人工智能革命是从弱人工智能,到强人工智能,即人类级别的人工智能),最终到达超人工智能的旅途,即超越人类级别的人工智能)。那么人工智能自然不可能满足于一直以“弱人工智能”的面目存在于军事领域,由“弱”到“强”,继续向前进化是肯定的,而且其范畴也必将从非战斗领域延展到直接的战斗领域。“从人工干预最多的有限自主到完全的无限自主”。目前战斗用人工智能研究正是沿着这样的一个方向在前进。这样一种智能化的战斗机器人无疑将是自动化技术的巅峰之作,理论上能够把人类从繁重、危险的战争环境中解脱出来,因此成了高效、精确、可靠的代名词。对此一个极好的例子是关于空中战场的。2011年2月4日,诺斯罗普·格鲁曼公司为美国海军研制的X-47B隐身无人驾驶飞行器在加利福尼亚州爱德华兹空军基地首次升空,顺利完成了29分钟的测试飞行,飞行高度达到了1500米。全程观看新机试飞的军方代表加梅·恩达尔宣称:“今天,我们第一次见证了未来。”事实上,尽管这是一架海军的“盐水机”,但联想到此前美国海军、空军、国防部高官在不同的场合、不同的时间都表示过F-22、F-35将是最后一代有人驾驶战斗机,而美军又一贯在装备论证研究方面表现出了异乎寻常的前瞻性和创造性,大量预研、论证型号的出现从来就是不间断的,再加上这句意味深长的“我们第一次见证了未来”,这使人们不得不正视具有自主任务能力的“强人工智能”代替人类飞行员,直接参与战斗的现实性可能,以及由此引起的对于“机器人战争”合法性的质疑。

正在测试中的以色列“快骡”载人无人机

不过,真正值得思索的问题在于。如果说在人类的社会生活领域,人工智能革命是从弱人工智能,到强人工智能,即人类级别的人工智能),最终到达超人工智能的旅途,即超越人类级别的人工智能)。那么人工智能自然不可能满足于一直以“弱人工智能”的面目存在于军事领域,由“弱”到“强”,继续向前进化是肯定的,而且其范畴也必将从非战斗领域延展到直接的战斗领域。“从人工干预最多的有限自主到完全的无限自主”。目前战斗用人工智能研究正是沿着这样的一个方向在前进。这样一种智能化的战斗机器人无疑将是自动化技术的巅峰之作,理论上能够把人类从繁重、危险的战争环境中解脱出来,因此成了高效、精确、可靠的代名词。对此一个极好的例子是关于空中战场的。2011年2月4日,诺斯罗普·格鲁曼公司为美国海军研制的X-47B隐身无人驾驶飞行器在加利福尼亚州爱德华兹空军基地首次升空,顺利完成了29分钟的测试飞行,飞行高度达到了1500米。全程观看新机试飞的军方代表加梅·恩达尔宣称:“今天,我们第一次见证了未来。”事实上,尽管这是一架海军的“盐水机”,但联想到此前美国海军、空军、国防部高官在不同的场合、不同的时间都表示过F-22、F-35将是最后一代有人驾驶战斗机,而美军又一贯在装备论证研究方面表现出了异乎寻常的前瞻性和创造性,大量预研、论证型号的出现从来就是不间断的,再加上这句意味深长的“我们第一次见证了未来”,这使人们不得不正视具有自主任务能力的“强人工智能”代替人类飞行员,直接参与战斗的现实性可能,以及由此引起的对于“机器人战争”合法性的质疑。

在人类的社会生活领域,人工智能革命是从弱人工智能,到强人工智能即人类级别的人工智能),最终到达超人工智能的旅途

在人类的社会生活领域,人工智能革命是从弱人工智能,到强人工智能即人类级别的人工智能),最终到达超人工智能的旅途

在人类的社会生活领域,人工智能革命是从弱人工智能,到强人工智能即人类级别的人工智能),最终到达超人工智能的旅途

对“坏机器人”的担忧来自于人类内心的恐惧

对“坏机器人”的担忧来自于人类内心的恐惧

对“坏机器人”的担忧来自于人类内心的恐惧

动画电影《钢铁巨人》很好地将人类对人工智能的恐惧心理进行了注释

长远的技术角度考虑,正在成长中的人工智能不可能永远只有在人类监控下作战,它们迟早会自主决定武器使用。几年前就已试飞的X-47B隐身无人驾驶飞行器及正在不断涌现的类似系统,已经初步向人们展示出了这种能力。《控制自主机器人杀人行为》一书的作者罗纳德·阿尔金就宣称,“授予机器人杀人自主权不可避免”。但问题的关键在于机器人武器是否具有分辨能力,不安全的机器人杀手可能会出现很多差错,这些差错对人类来说是致命的。2008年,3台美军的“剑”式地面作战机器人被部署到了伊拉克,但是这种具有有限智能,能够在一定程度内自主执行任务的遥控机器人小队还未开一枪就很快被从战场撤回,因为它们做了可怕的事情:将枪口对向它们的人类战友。当然,美国陆军地面部队项目执行官凯文·法黑的回答比较含糊,除了证明它们的确是“还没有参加作战就被召回”之外,未给出详细的原因,而武器承包商方面的答复也一样(法黑只是在后来含含糊糊地承认这些机器人的“枪管在操作者未发指令的时候自己移动”,也就是说,“剑”式地面作战机器人工作时转向了错误的方向,所幸它的插头很快被拔掉)。尽管这起意外未造成人员受伤,但类似的问题却引起了人们的本能恐惧,以至法律和战争伦理上的障碍成了一道难以逾越的门槛,必须认真加以考虑。

动画电影《钢铁巨人》很好地将人类对人工智能的恐惧心理进行了注释

从长远的技术角度考虑,正在成长中的人工智能不可能永远只有在人类监控下作战,它们迟早会自主决定武器使用。几年前就已试飞的X-47B隐身无人驾驶飞行器及正在不断涌现的类似系统,已经初步向人们展示出了这种能力。《控制自主机器人杀人行为》一书的作者罗纳德·阿尔金就宣称,“授予机器人杀人自主权不可避免”。但问题的关键在于机器人武器是否具有分辨能力,不安全的机器人杀手可能会出现很多差错,这些差错对人类来说是致命的。2008年,3台美军的“剑”式地面作战机器人被部署到了伊拉克,但是这种具有有限智能,能够在一定程度内自主执行任务的遥控机器人小队还未开一枪就很快被从战场撤回,因为它们做了可怕的事情:将枪口对向它们的人类战友。当然,美国陆军地面部队项目执行官凯文·法黑的回答比较含糊,除了证明它们的确是“还没有参加作战就被召回”之外,未给出详细的原因,而武器承包商方面的答复也一样(法黑只是在后来含含糊糊地承认这些机器人的“枪管在操作者未发指令的时候自己移动”,也就是说,“剑”式地面作战机器人工作时转向了错误的方向,所幸它的插头很快被拔掉)。尽管这起意外未造成人员受伤,但类似的问题却引起了人们的本能恐惧,以至法律和战争伦理上的障碍成了一道难以逾越的门槛,必须认真加以考虑。

动画电影《钢铁巨人》很好地将人类对人工智能的恐惧心理进行了注释

从长远的技术角度考虑,正在成长中的人工智能不可能永远只有在人类监控下作战,它们迟早会自主决定武器使用。几年前就已试飞的X-47B隐身无人驾驶飞行器及正在不断涌现的类似系统,已经初步向人们展示出了这种能力。《控制自主机器人杀人行为》一书的作者罗纳德·阿尔金就宣称,“授予机器人杀人自主权不可避免”。但问题的关键在于机器人武器是否具有分辨能力,不安全的机器人杀手可能会出现很多差错,这些差错对人类来说是致命的。2008年,3台美军的“剑”式地面作战机器人被部署到了伊拉克,但是这种具有有限智能,能够在一定程度内自主执行任务的遥控机器人小队还未开一枪就很快被从战场撤回,因为它们做了可怕的事情:将枪口对向它们的人类战友。当然,美国陆军地面部队项目执行官凯文·法黑的回答比较含糊,除了证明它们的确是“还没有参加作战就被召回”之外,未给出详细的原因,而武器承包商方面的答复也一样(法黑只是在后来含含糊糊地承认这些机器人的“枪管在操作者未发指令的时候自己移动”,也就是说,“剑”式地面作战机器人工作时转向了错误的方向,所幸它的插头很快被拔掉)。尽管这起意外未造成人员受伤,但类似的问题却引起了人们的本能恐惧,以至法律和战争伦理上的障碍成了一道难以逾越的门槛,必须认真加以考虑。

“从人工干预最多的有限自主到完全的无限自主”,目前战斗用人工智能研究正是沿着这样的一个方向在前进。图为几年前就已经开始试飞的诺斯罗普X-47B隐身无人驾驶飞行器,该机具有有限的自主任务能力

“从人工干预最多的有限自主到完全的无限自主”,目前战斗用人工智能研究正是沿着这样的一个方向在前进。图为几年前就已经开始试飞的诺斯罗普X-47B隐身无人驾驶飞行器,该机具有有限的自主任务能力

“从人工干预最多的有限自主到完全的无限自主”,目前战斗用人工智能研究正是沿着这样的一个方向在前进。图为几年前就已经开始试飞的诺斯罗普X-47B隐身无人驾驶飞行器,该机具有有限的自主任务能力

人工智能自然不可能满足于一直以“弱人工智能”的面目存在于军事领域,由“弱”到“强”,继续向前进化是肯定的,而且其范畴也必将从非战斗领域延展到直接的战斗领域。图为几年前就已经开始试飞的诺斯罗普X-47B隐身无人驾驶飞行器

正如前文反复强调的那样,战争是人类社会生活的一部分,也是政治的一种延伸手段,政治目的既是衡量所使用军事手段应达到何种目标的尺度,又成为衡量应使用多少力量的尺度。但是政治目的不能单独地成为这种尺度,毕竟所发生的是实际事物,而不是纯粹的概念。这意味着或许在一些拥有这类技术的国家的普通民众看来,尽管损失的自动化无人机或许同样价值不菲,但却绝对无法与损失飞行员相提并论,其政府也因此深受鼓舞。然而,这实际上是一种极为自私而危险的利己主义思想。人工智能无人机的滥用将损害到战争法的根基,同时战争的门槛被大大降低了。也正因为如此,早在2010年,一些机器人工程师、哲学家和人权活动人士就共同成立了“国际机器人武器控制委员会”,并指出使用此类人工智能机器人武器的国家可能会认为战争可以不那么血腥,而更容易和其他国家发生冲突。更何况,人工智能领域向来存在极大的道德争议,一些人怀有对机器人与生俱来的恐惧,因此强烈反对AI(人工智能)方面的研究。对于AI研究领域的现实进展如何,我们或许可以不置可否,但对于“强人工智能”,AI参与直接战斗的问题,早在世界上还没有机器人,更没有机器人学的1941年,著名科幻作家阿西莫夫就以一篇短篇科幻小说《推理》,提出了约束机器人道德的“三定律”:(1)机器人不得伤害人,也不得见人受到伤害而袖手旁观;(2)机器人应服从人的一切命令,但不得违反第一定律;(3)机器人应保护自身的安全,但不得违反第一、第二定律。长久以来,这三条原则一直被奉为机器人研发的根本宗旨,即便是对于担当侦察、勘探或爆破任务的弱人工智能军用机器人也没什么不妥,然而,当人类决定再往前迈出一步,研制能够自主决定在什么时候,以及向谁动用致命武力的强人工智能战斗机器人时,麻烦就来了,这实际上意味着“机器人道德底线”的突破。

当然,为了解决这个问题,也有人曾就此提出了第0定律,并企图将之凌驾于其他三定律之上,即“机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害”。但问题的关键在于,如何判断是否有利于所谓“人类整体”,这一点连人类自己也无法做到,更何况战争的存在本身就是对这种说法的一种讽刺。也正因为如此,相当多的机器人学家认为,突破机器人三定律,也就意味着给予了武装起来的战斗机器人大开杀戒的权利,而不要奢望机器人自己能够将杀戮控制在“道德”或是“合理”的范畴内。类似“剑”式地面战斗机器人这种“指向错误”,也许是第一次,但绝对不是最后一次。事实上,战争从来就是人类自进入文明社会以来面对的最大、最复杂的逻辑和伦理难题,连人类都解决不了战争所带来的伦理困惑,你能奢望机器人去理解战争吗?要知道,在人类的本性中,恐惧是一种最普遍的心理因素,野蛮人与文明人在这一点上是毫无区别的,这在三个月的婴孩身上都能得到证明。在部落时代,人们最害怕的是灭种,今天,这仍是人们的思想中一个可怕的问题。那么如此一来,作为人类正在兴致勃勃发展的一种军事技术手段,由越来越强大的人工智能与军械结合起来的武器系统,究竟会不会符合人类社会生活的长期利益?我们给出的答案是:可能,也许,未必……总之,无人机毋庸置疑正在向高度智能化的方向上发展,“空中机器人”才是对它们更为恰当的称呼。而一旦涉及这个字眼,那么无人机所蕴含的社会学属性就必然要对人类的内心世界造成剧烈冲击。人类对于人工智能设备、特别是无人机参与战争的矛盾心态充分表明了这一点。

人工智能自然不可能满足于一直以“弱人工智能”的面目存在于军事领域,由“弱”到“强”,继续向前进化是肯定的,而且其范畴也必将从非战斗领域延展到直接的战斗领域。图为几年前就已经开始试飞的诺斯罗普X-47B隐身无人驾驶飞行器

正如前文反复强调的那样,战争是人类社会生活的一部分,也是政治的一种延伸手段,政治目的既是衡量所使用军事手段应达到何种目标的尺度,又成为衡量应使用多少力量的尺度。但是政治目的不能单独地成为这种尺度,毕竟所发生的是实际事物,而不是纯粹的概念。这意味着或许在一些拥有这类技术的国家的普通民众看来,尽管损失的自动化无人机或许同样价值不菲,但却绝对无法与损失飞行员相提并论,其政府也因此深受鼓舞。然而,这实际上是一种极为自私而危险的利己主义思想。人工智能无人机的滥用将损害到战争法的根基,同时战争的门槛被大大降低了。也正因为如此,早在2010年,一些机器人工程师、哲学家和人权活动人士就共同成立了“国际机器人武器控制委员会”,并指出使用此类人工智能机器人武器的国家可能会认为战争可以不那么血腥,而更容易和其他国家发生冲突。更何况,人工智能领域向来存在极大的道德争议,一些人怀有对机器人与生俱来的恐惧,因此强烈反对AI(人工智能)方面的研究。对于AI研究领域的现实进展如何,我们或许可以不置可否,但对于“强人工智能”,AI参与直接战斗的问题,早在世界上还没有机器人,更没有机器人学的1941年,著名科幻作家阿西莫夫就以一篇短篇科幻小说《推理》,提出了约束机器人道德的“三定律”:(1)机器人不得伤害人,也不得见人受到伤害而袖手旁观;(2)机器人应服从人的一切命令,但不得违反第一定律;(3)机器人应保护自身的安全,但不得违反第一、第二定律。长久以来,这三条原则一直被奉为机器人研发的根本宗旨,即便是对于担当侦察、勘探或爆破任务的弱人工智能军用机器人也没什么不妥,然而,当人类决定再往前迈出一步,研制能够自主决定在什么时候,以及向谁动用致命武力的强人工智能战斗机器人时,麻烦就来了,这实际上意味着“机器人道德底线”的突破。

当然,为了解决这个问题,也有人曾就此提出了第0定律,并企图将之凌驾于其他三定律之上,即“机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害”。但问题的关键在于,如何判断是否有利于所谓“人类整体”,这一点连人类自己也无法做到,更何况战争的存在本身就是对这种说法的一种讽刺。也正因为如此,相当多的机器人学家认为,突破机器人三定律,也就意味着给予了武装起来的战斗机器人大开杀戒的权利,而不要奢望机器人自己能够将杀戮控制在“道德”或是“合理”的范畴内。类似“剑”式地面战斗机器人这种“指向错误”,也许是第一次,但绝对不是最后一次。事实上,战争从来就是人类自进入文明社会以来面对的最大、最复杂的逻辑和伦理难题,连人类都解决不了战争所带来的伦理困惑,你能奢望机器人去理解战争吗?要知道,在人类的本性中,恐惧是一种最普遍的心理因素,野蛮人与文明人在这一点上是毫无区别的,这在三个月的婴孩身上都能得到证明。在部落时代,人们最害怕的是灭种,今天,这仍是人们的思想中一个可怕的问题。那么如此一来,作为人类正在兴致勃勃发展的一种军事技术手段,由越来越强大的人工智能与军械结合起来的武器系统,究竟会不会符合人类社会生活的长期利益?我们给出的答案是:可能,也许,未必……总之,无人机毋庸置疑正在向高度智能化的方向上发展,“空中机器人”才是对它们更为恰当的称呼。而一旦涉及这个字眼,那么无人机所蕴含的社会学属性就必然要对人类的内心世界造成剧烈冲击。人类对于人工智能设备、特别是无人机参与战争的矛盾心态充分表明了这一点。

人工智能自然不可能满足于一直以“弱人工智能”的面目存在于军事领域,由“弱”到“强”,继续向前进化是肯定的,而且其范畴也必将从非战斗领域延展到直接的战斗领域。图为几年前就已经开始试飞的诺斯罗普X-47B隐身无人驾驶飞行器

正如前文反复强调的那样,战争是人类社会生活的一部分,也是政治的一种延伸手段,政治目的既是衡量所使用军事手段应达到何种目标的尺度,又成为衡量应使用多少力量的尺度。但是政治目的不能单独地成为这种尺度,毕竟所发生的是实际事物,而不是纯粹的概念。这意味着或许在一些拥有这类技术的国家的普通民众看来,尽管损失的自动化无人机或许同样价值不菲,但却绝对无法与损失飞行员相提并论,其政府也因此深受鼓舞。然而,这实际上是一种极为自私而危险的利己主义思想。人工智能无人机的滥用将损害到战争法的根基,同时战争的门槛被大大降低了。也正因为如此,早在2010年,一些机器人工程师、哲学家和人权活动人士就共同成立了“国际机器人武器控制委员会”,并指出使用此类人工智能机器人武器的国家可能会认为战争可以不那么血腥,而更容易和其他国家发生冲突。更何况,人工智能领域向来存在极大的道德争议,一些人怀有对机器人与生俱来的恐惧,因此强烈反对AI(人工智能)方面的研究。对于AI研究领域的现实进展如何,我们或许可以不置可否,但对于“强人工智能”,AI参与直接战斗的问题,早在世界上还没有机器人,更没有机器人学的1941年,著名科幻作家阿西莫夫就以一篇短篇科幻小说《推理》,提出了约束机器人道德的“三定律”:(1)机器人不得伤害人,也不得见人受到伤害而袖手旁观;(2)机器人应服从人的一切命令,但不得违反第一定律;(3)机器人应保护自身的安全,但不得违反第一、第二定律。长久以来,这三条原则一直被奉为机器人研发的根本宗旨,即便是对于担当侦察、勘探或爆破任务的弱人工智能军用机器人也没什么不妥,然而,当人类决定再往前迈出一步,研制能够自主决定在什么时候,以及向谁动用致命武力的强人工智能战斗机器人时,麻烦就来了,这实际上意味着“机器人道德底线”的突破。

当然,为了解决这个问题,也有人曾就此提出了第0定律,并企图将之凌驾于其他三定律之上,即“机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害”。但问题的关键在于,如何判断是否有利于所谓“人类整体”,这一点连人类自己也无法做到,更何况战争的存在本身就是对这种说法的一种讽刺。也正因为如此,相当多的机器人学家认为,突破机器人三定律,也就意味着给予了武装起来的战斗机器人大开杀戒的权利,而不要奢望机器人自己能够将杀戮控制在“道德”或是“合理”的范畴内。类似“剑”式地面战斗机器人这种“指向错误”,也许是第一次,但绝对不是最后一次。事实上,战争从来就是人类自进入文明社会以来面对的最大、最复杂的逻辑和伦理难题,连人类都解决不了战争所带来的伦理困惑,你能奢望机器人去理解战争吗?要知道,在人类的本性中,恐惧是一种最普遍的心理因素,野蛮人与文明人在这一点上是毫无区别的,这在三个月的婴孩身上都能得到证明。在部落时代,人们最害怕的是灭种,今天,这仍是人们的思想中一个可怕的问题。那么如此一来,作为人类正在兴致勃勃发展的一种军事技术手段,由越来越强大的人工智能与军械结合起来的武器系统,究竟会不会符合人类社会生活的长期利益?我们给出的答案是:可能,也许,未必……总之,无人机毋庸置疑正在向高度智能化的方向上发展,“空中机器人”才是对它们更为恰当的称呼。而一旦涉及这个字眼,那么无人机所蕴含的社会学属性就必然要对人类的内心世界造成剧烈冲击。人类对于人工智能设备、特别是无人机参与战争的矛盾心态充分表明了这一点。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈