首页 理论教育 无人机污染的血案-空中机器人的历史

无人机污染的血案-空中机器人的历史

时间:2023-07-30 理论教育 版权反馈
【摘要】:关于邪恶机器人的电影看起来太不真实,我们似乎也没法想象一个人工智能变得危险的真实情况“坏机器人”总是让我们很困惑。这些认知坎陷实际上是对真实物理世界的“扰乱”。就拿一碗汤的味道来说,其所包含的物理内容非常丰富,但人类却只用酸甜苦辣等字眼简单描述。这就引出了“恶无限”的概念。但技术的“恶无限”概念的含义跟这个还不太一样。一种观点认为,人类的进化速度远远落后于计算机算法。

无人机污染的血案-空中机器人的历史

关于邪恶机器人电影看起来太不真实,我们似乎也没法想象一个人工智能变得危险的真实情况

“坏机器人”总是让我们很困惑。那些关于邪恶机器人的电影看起来太不真实,我们似乎也没法想象一个人工智能变得危险的真实情况。机器人是我们造的,难道我们不会在设计时防止坏事的发生吗?我们难道不能设立很多安全机制吗?难道我们不能拔插头吗?而且为什么机器人会想要做坏事?或者说,为什么机器人会“想要”做任何事?但很少会有人在这些问号之外,再多花一点心思去想一想更深远些的东西。

所有存在于人类意识里的东西都可以被称为认知坎陷,而一切认知坎陷都是从“自我”和“外界”这两个最原始的坎陷里开出来的。随着生命的进化,人类逐渐能开出前后左右、这里那里的坎陷;有了触觉、味觉,开出酸甜苦辣的坎陷;有了视觉,亦就有了颜色的概念,例如黑白红黄的坎陷。这些认知坎陷实际上是对真实物理世界的“扰乱”。就拿一碗汤的味道来说,其所包含的物理内容非常丰富,但人类却只用酸甜苦辣等字眼简单描述。那这是否意味着,人类将会面临“看山不是山,看水不是水”的问题?是否应该主张走回物理还原主义的老路,把这碗汤里面所有的分子式原子式都搞清楚,把其中存在的每一个可能性都弄明白?这显然不可能。这就引出了“恶无限”的概念。什么是恶无限?在哲学上,黑格尔的“恶无限”认为有些看起来无限的东西实际上只是无聊的重复,而真正好的无限应该不停地开出新的东西、增添新的内容。即有限和无限的统一才是善的无限,否则就是恶的无限。但技术的“恶无限”概念的含义跟这个还不太一样。比如对于一碗汤来说,从理论上讲,当然可以弄清楚其内部所包含的每一个分子式,但这是否就是终点呢?分子是由原子组成的,因此还需要把所有的原子式弄清楚,但把原子式弄清楚也不意味着结束,因为原子下面还有亚原子等,而这些东西怎么排布,怎么组成结构,其处在空间中的相互关系如何,怎样实现氧化关系……这里需要搞清楚的问题实际上是无穷多的,在有限的资源条件下显然不能穷尽,要穷尽它就需要无限的资源,这就可以看作一个技术上的“恶无限”。

对于一碗汤,人们提到它就是在指这碗汤作为一个整体具有甜酸苦辣鲜香等特征,而不会一直探究下去,这看似平常但实际上非常重要。理解技术上的“恶无限”这一概念,可以和人对照来看,例如一些死钻牛角尖的人、精神失常的疯子等,例如研究无穷大的康托和研究不完备定理的哥德尔,他们都“疯了”。但人的“恶无限”问题整体来说还不是很大,“暗无限”无处不在,但因为人类具有独一无二的身体结构、常识、哲学目的性、可自我协调的社会机制以及与环境之间的协调关系,一般情况下,人类不会陷入超出自身能力之外的“恶无限”无法自拔,即便有各别人陷进去了,但亦不会对整个人类社会造成太大伤害。说到底,人类懂得止所当止。然而面临相同的情况,人的技术造物却有可能不会止步于此。一种观点认为,人类的进化速度远远落后于计算机算法

关于邪恶机器人的电影看起来太不真实,我们似乎也没法想象一个人工智能变得危险的真实情况

“坏机器人”总是让我们很困惑。那些关于邪恶机器人的电影看起来太不真实,我们似乎也没法想象一个人工智能变得危险的真实情况。机器人是我们造的,难道我们不会在设计时防止坏事的发生吗?我们难道不能设立很多安全机制吗?难道我们不能拔插头吗?而且为什么机器人会想要做坏事?或者说,为什么机器人会“想要”做任何事?但很少会有人在这些问号之外,再多花一点心思去想一想更深远些的东西。

所有存在于人类意识里的东西都可以被称为认知坎陷,而一切认知坎陷都是从“自我”和“外界”这两个最原始的坎陷里开出来的。随着生命的进化,人类逐渐能开出前后左右、这里那里的坎陷;有了触觉、味觉,开出酸甜苦辣的坎陷;有了视觉,亦就有了颜色的概念,例如黑白红黄的坎陷。这些认知坎陷实际上是对真实物理世界的“扰乱”。就拿一碗汤的味道来说,其所包含的物理内容非常丰富,但人类却只用酸甜苦辣等字眼简单描述。那这是否意味着,人类将会面临“看山不是山,看水不是水”的问题?是否应该主张走回物理还原主义的老路,把这碗汤里面所有的分子式、原子式都搞清楚,把其中存在的每一个可能性都弄明白?这显然不可能。这就引出了“恶无限”的概念。什么是恶无限?在哲学上,黑格尔的“恶无限”认为有些看起来无限的东西实际上只是无聊的重复,而真正好的无限应该不停地开出新的东西、增添新的内容。即有限和无限的统一才是善的无限,否则就是恶的无限。但技术的“恶无限”概念的含义跟这个还不太一样。比如对于一碗汤来说,从理论上讲,当然可以弄清楚其内部所包含的每一个分子式,但这是否就是终点呢?分子是由原子组成的,因此还需要把所有的原子式弄清楚,但把原子式弄清楚也不意味着结束,因为原子下面还有亚原子等,而这些东西怎么排布,怎么组成结构,其处在空间中的相互关系如何,怎样实现氧化关系……这里需要搞清楚的问题实际上是无穷多的,在有限的资源条件下显然不能穷尽,要穷尽它就需要无限的资源,这就可以看作一个技术上的“恶无限”。

对于一碗汤,人们提到它就是在指这碗汤作为一个整体具有甜酸苦辣鲜香等特征,而不会一直探究下去,这看似平常但实际上非常重要。理解技术上的“恶无限”这一概念,可以和人对照来看,例如一些死钻牛角尖的人、精神失常的疯子等,例如研究无穷大的康托和研究不完备定理的哥德尔,他们都“疯了”。但人的“恶无限”问题整体来说还不是很大,“暗无限”无处不在,但因为人类具有独一无二的身体结构、常识、哲学目的性、可自我协调的社会机制以及与环境之间的协调关系,一般情况下,人类不会陷入超出自身能力之外的“恶无限”无法自拔,即便有各别人陷进去了,但亦不会对整个人类社会造成太大伤害。说到底,人类懂得止所当止。然而面临相同的情况,人的技术造物却有可能不会止步于此。一种观点认为,人类的进化速度远远落后于计算机算法。

关于邪恶机器人的电影看起来太不真实,我们似乎也没法想象一个人工智能变得危险的真实情况

“坏机器人”总是让我们很困惑。那些关于邪恶机器人的电影看起来太不真实,我们似乎也没法想象一个人工智能变得危险的真实情况。机器人是我们造的,难道我们不会在设计时防止坏事的发生吗?我们难道不能设立很多安全机制吗?难道我们不能拔插头吗?而且为什么机器人会想要做坏事?或者说,为什么机器人会“想要”做任何事?但很少会有人在这些问号之外,再多花一点心思去想一想更深远些的东西。

所有存在于人类意识里的东西都可以被称为认知坎陷,而一切认知坎陷都是从“自我”和“外界”这两个最原始的坎陷里开出来的。随着生命的进化,人类逐渐能开出前后左右、这里那里的坎陷;有了触觉、味觉,开出酸甜苦辣的坎陷;有了视觉,亦就有了颜色的概念,例如黑白红黄的坎陷。这些认知坎陷实际上是对真实物理世界的“扰乱”。就拿一碗汤的味道来说,其所包含的物理内容非常丰富,但人类却只用酸甜苦辣等字眼简单描述。那这是否意味着,人类将会面临“看山不是山,看水不是水”的问题?是否应该主张走回物理还原主义的老路,把这碗汤里面所有的分子式、原子式都搞清楚,把其中存在的每一个可能性都弄明白?这显然不可能。这就引出了“恶无限”的概念。什么是恶无限?在哲学上,黑格尔的“恶无限”认为有些看起来无限的东西实际上只是无聊的重复,而真正好的无限应该不停地开出新的东西、增添新的内容。即有限和无限的统一才是善的无限,否则就是恶的无限。但技术的“恶无限”概念的含义跟这个还不太一样。比如对于一碗汤来说,从理论上讲,当然可以弄清楚其内部所包含的每一个分子式,但这是否就是终点呢?分子是由原子组成的,因此还需要把所有的原子式弄清楚,但把原子式弄清楚也不意味着结束,因为原子下面还有亚原子等,而这些东西怎么排布,怎么组成结构,其处在空间中的相互关系如何,怎样实现氧化关系……这里需要搞清楚的问题实际上是无穷多的,在有限的资源条件下显然不能穷尽,要穷尽它就需要无限的资源,这就可以看作一个技术上的“恶无限”。(www.xing528.com)

对于一碗汤,人们提到它就是在指这碗汤作为一个整体具有甜酸苦辣鲜香等特征,而不会一直探究下去,这看似平常但实际上非常重要。理解技术上的“恶无限”这一概念,可以和人对照来看,例如一些死钻牛角尖的人、精神失常的疯子等,例如研究无穷大的康托和研究不完备定理的哥德尔,他们都“疯了”。但人的“恶无限”问题整体来说还不是很大,“暗无限”无处不在,但因为人类具有独一无二的身体结构、常识、哲学目的性、可自我协调的社会机制以及与环境之间的协调关系,一般情况下,人类不会陷入超出自身能力之外的“恶无限”无法自拔,即便有各别人陷进去了,但亦不会对整个人类社会造成太大伤害。说到底,人类懂得止所当止。然而面临相同的情况,人的技术造物却有可能不会止步于此。一种观点认为,人类的进化速度远远落后于计算机算法。

我们给人工智能设定的目标是什么,它的动机就是什么。任何假设超级智能的达成会改变系统原本目标的想法都是对人工智能的拟人化

摩尔定律虽然受限于芯片的物理特性而可能不再成立,但算法和架构的不断优化依然能够让机器的计算能力加速,每两年翻一番依旧可期。机器可以不眠不休地迭代并迅速成长,超级智能不可避免,并且将远比很多人想象中更快地到来。那么如果一个超级AI拥有包括空中机器人在内的无数个躯体,试图调动宇宙中所有的资源对这碗汤一探究竟,我们如何证明这样做没有意义?只要AI被赋予的是偏狭而非完整的意识,那么其能力与意识状态可能极度不匹配而陷入“恶无限”的深渊。毕竟我们给人工智能设定的目标是什么,它的动机就是什么。任何假设超级智能的达成会改变系统原本的目标的想法都是对人工智能的拟人化。换句话说,人健忘,但是电脑不健忘。一个超人工智能是非道德性的,并且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了。它对人类没有恶意,就好像你剪头发时对头发没有恶意一样,只是纯粹的无所谓罢了。它并没有被设定成尊重人类生命,所以毁灭人类就和研究一碗汤一样合理。因为除非有不做的理由,不然一个理性的存在会通过最有效的途径来达成自己的目标。AI的能力越强,其对周围世界的危害就可能越剧烈—以空中机器人为载体(之一)的超级AI会为了一碗汤而拆解掉整个地球吗?这样的假设哪怕想一想都令人不寒而栗。

我们给人工智能设定的目标是什么,它的动机就是什么。任何假设超级智能的达成会改变系统原本目标的想法都是对人工智能的拟人化

摩尔定律虽然受限于芯片的物理特性而可能不再成立,但算法和架构的不断优化依然能够让机器的计算能力加速,每两年翻一番依旧可期。机器可以不眠不休地迭代并迅速成长,超级智能不可避免,并且将远比很多人想象中更快地到来。那么如果一个超级AI拥有包括空中机器人在内的无数个躯体,试图调动宇宙中所有的资源对这碗汤一探究竟,我们如何证明这样做没有意义?只要AI被赋予的是偏狭而非完整的意识,那么其能力与意识状态可能极度不匹配而陷入“恶无限”的深渊。毕竟我们给人工智能设定的目标是什么,它的动机就是什么。任何假设超级智能的达成会改变系统原本的目标的想法都是对人工智能的拟人化。换句话说,人健忘,但是电脑不健忘。一个超人工智能是非道德性的,并且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了。它对人类没有恶意,就好像你剪头发时对头发没有恶意一样,只是纯粹的无所谓罢了。它并没有被设定成尊重人类生命,所以毁灭人类就和研究一碗汤一样合理。因为除非有不做的理由,不然一个理性的存在会通过最有效的途径来达成自己的目标。AI的能力越强,其对周围世界的危害就可能越剧烈—以空中机器人为载体(之一)的超级AI会为了一碗汤而拆解掉整个地球吗?这样的假设哪怕想一想都令人不寒而栗。

我们给人工智能设定的目标是什么,它的动机就是什么。任何假设超级智能的达成会改变系统原本目标的想法都是对人工智能的拟人化

摩尔定律虽然受限于芯片的物理特性而可能不再成立,但算法和架构的不断优化依然能够让机器的计算能力加速,每两年翻一番依旧可期。机器可以不眠不休地迭代并迅速成长,超级智能不可避免,并且将远比很多人想象中更快地到来。那么如果一个超级AI拥有包括空中机器人在内的无数个躯体,试图调动宇宙中所有的资源对这碗汤一探究竟,我们如何证明这样做没有意义?只要AI被赋予的是偏狭而非完整的意识,那么其能力与意识状态可能极度不匹配而陷入“恶无限”的深渊。毕竟我们给人工智能设定的目标是什么,它的动机就是什么。任何假设超级智能的达成会改变系统原本的目标的想法都是对人工智能的拟人化。换句话说,人健忘,但是电脑不健忘。一个超人工智能是非道德性的,并且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了。它对人类没有恶意,就好像你剪头发时对头发没有恶意一样,只是纯粹的无所谓罢了。它并没有被设定成尊重人类生命,所以毁灭人类就和研究一碗汤一样合理。因为除非有不做的理由,不然一个理性的存在会通过最有效的途径来达成自己的目标。AI的能力越强,其对周围世界的危害就可能越剧烈—以空中机器人为载体(之一)的超级AI会为了一碗汤而拆解掉整个地球吗?这样的假设哪怕想一想都令人不寒而栗。

关于机器人因为一碗汤而毁灭全人类的故事看起来怪怪的,但这正是霍金、马斯克和盖茨这些聪明人所真正害怕的

关于机器人因为一碗汤而毁灭全人类的故事看起来怪怪的,但这正是霍金、马斯克和盖茨这些聪明人所真正害怕的

关于机器人因为一碗汤而毁灭全人类的故事看起来怪怪的,但这正是霍金、马斯克和盖茨这些聪明人所真正害怕的

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈