首页 理论教育 人工智能安全问题与危险性讨论

人工智能安全问题与危险性讨论

时间:2023-08-12 理论教育 版权反馈
【摘要】:(一)安全问题人工智能还在研究中,但有学者认为让计算机拥有智商是很危险的,它可能会反抗人类。一种是采用传统的编程技术,使系统呈现智能的效果,而不考虑所用方法是否与人或动物机体所用的方法相同。遗传算法模拟人类或生物的遗传一进化机制,人工神经网络则是模拟人类或动物大脑中神经细胞的活动方式。

人工智能安全问题与危险性讨论

(一)安全问题

人工智能还在研究中,但有学者认为让计算机拥有智商是很危险的,它可能会反抗人类。这种隐患也在多部电影中发生过,其主要的关键是允不允许机器拥有自主意识的产生与延续,如果使机器拥有自主意识,则意味着机器具有与人同等或类似的创造性,自我保护意识,情感和自发行为。

(二)实现方法

人工智能在计算机上实现时有两种不同的方式。一种是采用传统的编程技术,使系统呈现智能的效果,而不考虑所用方法是否与人或动物机体所用的方法相同。这种方法叫工程学方法(Engineering Approach),它已在一些领域内做出了成果,如文字识别、电脑下棋等。

另一种是模拟法(Modeling Approach),它不仅要看效果,还要求实现方法也和人类或生物机体所用的方法相同或相类似。遗传算法(Generic Algorithm,简称GA)和人工神经网络(Artificial Neural Network,简称ANN)均属后一类型。遗传算法模拟人类或生物的遗传一进化机制,人工神经网络则是模拟人类或动物大脑中神经细胞的活动方式。为了得到相同智能效果,两种方式通常都可使用。

采用前一种方法,需要人工详细规定程序逻辑,如果游戏简单,还是方便的。如果游戏复杂,角色数量和活动空间增加,相应的逻辑就会很复杂(按指数式增长),人工编程就非常烦琐,容易出错。而一旦出错,就必须修改原程序,重新编译、调试,最后为用户提供一个新的版本或提供一个新补丁,非常麻烦。采用后一种方法时,编程者要为每一角色设计一个智能系统(一个模块)来进行控制,这个智能系统(模块)开始什么也不懂,就像初生婴儿那样,但它能够学习,能渐渐地适应环境,应付各种复杂情况。这种系统开始也常犯错误,但它能吸取教训,下一次运行时就可能改正,至少不会永远错下去,用不到发布新版本或打补丁。利用这种方法来实现人工智能,要求编程者具有生物学的思考方法,入门难度大一点。但一旦入了门,就可得到广泛应用。由于这种方法编程时无须对角色的活动规律做详细规定,应用于复杂问题,通常会比前一种方法更省力。

(三)主要成果

1.人机对弈

1996年2月10—17日,Garry Kasparov以4∶2战胜“深蓝”(DEEP BLUE)。

1997年5月3—11日,Garry Kasparov以2.5∶3.5输于改进后的“深蓝”。(www.xing528.com)

2003年2月,Garry Kasparov以3∶3战平“小深”(DEEP JUNIOR)。

2003年11月,Garry Kasparov以2∶2战平“X3 D德国人”(X3 D-FRITZ)。

2.模式识别

采用模式识别引擎,分支有2D识别引擎、3D识别引擎、驻波识别引擎以及多维识别引擎。

2D识别引擎已推出指纹识别、人像识别、文字识别、图像识别、车牌识别;驻波识别引擎已推出语音识别。

3.自动工程

包含自动驾驶(OSO系统)、印钞工厂(流水线)、猎鹰系统(YOD绘图)。

4.知识工程

以知识本身为处理对象,研究如何运用人工智能和软件技术,设计、构造和维护知识系统。包括:专家系统、智能搜索引擎、计算机视觉和图像处理机器翻译自然语言理解、数据挖掘和知识发现。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈