1956年的夏天,一场在美国达特茅斯大学召开的学术会议,多年以后被认定为全球人工智能研究的起点。随之涌现出了逻辑学、神经网络,甚至机器学习的一些很基础的算法,人们梦想着能够赋予机器和人一样的智慧。整个20世纪60年代,人工智能的研究如火如荼,基本上现在人工智能的各个分支的一些基础的东西都已经研究出来了,这是人工智能第一次崛起。然后到了70年代中期的时候,突然就出现问题了。比如说当时就在想五年之后咱们就能攻克语音识别的问题。事实上40年之后才有像云知声这样的公司来攻克这样的问题。当时以为逻辑能攻克所有的问题,包括麦卡锡这些宗师们发表了一大堆研究文章,然后发现建模的时候出现了各种问题。这就是人月神话,从知识到知识的工程中间存在一个巨大的鸿沟,那是五六十年代没有想到的。还有神经网络,尽管神经网络这样的方法原本是为模拟人脑过程而开发的,但许多人工智能计划已经放弃了模仿生物大脑的概念。我们不知道大脑的工作方式,神经网络计算是非常有用的,但它们并没有模拟人类的思维。
有人就提出人工智能不需要将重点放到模仿大脑的生物过程上,而应该尝试理解大脑所处理的问题。可以合理地估计,人类使用了任意数量的技术进行学习,而不管生物学层面上可能会发生什么。这可能对通用人工智能来说也是一样:它将使用模式匹配(类似AlphaGo ),它将使用基于规则的系统(类似沃森),它将使用穷举搜索树(类似深蓝)。沃森与阿尔法狗战胜人类的方式都非常类似:基于数据的人工智能,通过机器学习,借助大量的数据,对机器进行从不确定到确定、从低准确率到高准确率的训练。这有别于传统的人工智能,传统人工智能被称之为Intelligent Behavior,主要是为了让机器表现得更像人。深度学习智能方法是:通过大量数据输入,根据输入数据的关联关系,逐步建立起知识体系架构,通过建立起来的知识体系去分析,模仿人脑去思考去创新;后续根据模仿人脑的思考、实践结果,不断完善建立起来的知识架构体系,让判断越来越精确。(www.xing528.com)
为什么机器学习现在能够得到如此长足的发展呢,基本上机器学习的那些算法二三十年前就有了。有两个主要的因素:一个就是数据,由于网络的出现,人类可以随时随地地记录数据、收集数据、连接数据,并且这些数据的获取成本在大幅下降,大量数据的获取极大地提高了机器训练学习的准确度;另一个因素是摩尔定律,计算能力的快速增长,比如Google的猫脸识别,一千多台机器在跑,如果没有廉价的硬件成本,怎么可能做得到。机器学习因为有了廉价的数据成本,进入21世纪之后开始爆炸式增长,催生了人工智能的再次崛起。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。