人工智能是计算机科学的一个分支,它的目的是将智能研究的成果用来生产出与人类智能相似的智能机器。这其中的核心就是机器学习,即怎样让计算机模拟或实现人类的学习行为,从而使它像人一样获取新的知识或技能。自20世纪80年代末期以来,科学界发明了用于人工神经的反向传播算法(Back Propagation)。这种算法随之掀起了机器学习的热潮,并一直持续到今天。
深度学习,包括多层的人工神经网络和训练它的方法两个方面。它的运作机理是,一层神经网络把一个数据集合作为输入,通过激活后产生另一个数据集合,作为输出,再将合适的矩阵数量形成多层组织链接在一起的神经网络,进行精准复杂的处理。深度学习属于机器学习研究领域的一个新的分支,是一个复杂的机器学习算法。其研究目的在于建立、模拟人脑的神经网络,并模仿人脑的机制来解释如图像、声音和文本之类的数据。
通过研究人们发现,建立在统计基础上的机器学习方法比过去建立在人工规则之上的系统显示出了多方面的优越性。进入20世纪90年代,诸如支撑向量机(Support Vector Machines)、最大熵方法等各种各样的浅层机器学习模型相继被提出,由此在机器学习的理论分析和应用中都取得了重大突破。由此,由深度学习的研究引发了机器学习的第二次浪潮。
这次波及学术界和工业界的浪潮,应归功于加拿大多伦多大学教授Geoffrey Hinton和他的学生Ruslan Salakhutdinov。2006年,他们在《科学》杂志上发表了一篇关于机器学习的文章。该文章的观点主要在两个方面:其一,“多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类。”其二,“深度神经网络在训练上的难度,可以通过‘逐层初始化’(layer-wise pre-training)。”而深度学习的概念也经由该篇文章成为学界的一个新概念。
深度学习可以通过学习深层非线性网络结构,从而具有强大的学习数据集的本质特征的能力。其实质就是通过构建复杂的机器学习模型和训练数据,来学习更有用的内容,从而提升分类或预测的准确性。相比传统的浅层学习,深度学习的不同体现在:强调模型结构的深度和突出特征学习的重要性。
深度学习之所以被称为“深度”,是相对浅层学习方法而说的。通过深度学习所掌握的各种模型中,以非线性操作的层级数居多。浅层学习是依靠人工经验抽取样本特征。这样的学习,所掌握的只是单层特征。而深度学习则能够将样本特征在空间内进行变换,自动地学习获得层次化的特征表示,并实现分类和特征的可视化。
深度学习算法让设计者可以根据自己的需要选择网络层数,突破传统神经网络在层数方面的限制。从训练方法上来看,相比传统神经网络随机设定参数初始值等做法,深度结构训练的难度更大。其所采用的是“贪婪无监督逐层训练方法”。这种方法的工作顺序是:在深度学习设计中,每层分开对待,当前一层训练完后,新的一层以前一层为基础进行编码用于训练。最后,每层训练完后再在整个网络中进行参数微调。(www.xing528.com)
进入2010年后,深度学习项目在美国获得高度重视。美国NEC研究院、纽约大学和斯坦福大学分别获得了来自美国国防部DARPA部门的资助。自2011年起,谷歌公司和微软研究院在深度学习方面取得重大突破,通过采用深度神经网络技术,使得语音识别的错误率降低了20%—30%。2012年,深度神经网络技术在图像识别应用方面也取得重大进展,将错误率降低了9%。在制药公司药物活性预测问题中,深度神经网络技术也取得了整个世界范围内的最好结果。2012年6月,科学家们在谷歌实验室里创建了一个有16000个处理器的大规模神经网络。该神经网络包含数十亿个网络节点,用来处理大量随机选择的视频片段。经过充分的训练,机器系统学会了自动识别猫的图像。这次成功作为深度学习领域最著名的案例而引起了各界极大的关注。这些都表明,人工智能的发展已经进入到深度学习阶段。
Facebook人工智能实验室创建于2013年,其负责人是纽约大学教授伊恩·勒坤。伊恩·勒坤在深度学习方面的研究取得学界公认的成就,并荣获神经网络先锋奖。他在研究深度学习时,曾一度遭到同行公开的轻视。然而短短几年后,他的研究成果就成为高科技领域包括谷歌、微软、百度和Twitter等巨头最热衷的应用。目前,这些高科技公司正在探索深度学习中的卷积神经网络。希望通过对这一特殊形态的研究,推出能够自动理解自然语言和识别图像的服务。谷歌Android手机的语音识别系统就是从这些研究成果中转化而来。百度公司也利用这方面的研究成果,开始进行一种新型的可视化搜索引擎的研发。
伊恩·勒坤在20世纪80年代刚接触这一领域时,不仅缺乏支持条件,而且人们的意识更没深入到这一方面。但他坚持自己的信念,执着于这方面的研究,而随着电脑技术的迅猛向前发展,他的深度学习也就成为最前沿的研究领域。为此,有人形容他的行动为“就像在黑暗中举着火炬”。
伊恩·勒坤深度学习中的卷积神经网络,十分类似于人的大脑中处理视觉信息的视觉皮层,被制作成了相互连通的卷积层。它与人脑的不同之处在于,可以重复使用相同的过滤器。比如说,卷积神经网络经培训后,学会了在某个位置识别人脸,那么它以后会自动地识别这张脸。这种卷积神经网络已经在声波和手写文字方面得到应用。比方说,世界各地的自动取款机和银行,都通过它来识别支票上的手写字迹。
由于深度学习极大地促进了机器学习的发展,在语音、图像和自然语言处理方面已经得到最广泛的应用,因而,越来越受到世界各国学术界、科技界和高科技公司的高度重视。一些机器人战胜人工的情形,更是让深度学习成为最前沿的话题。这一切都深深吸引着广大科研人员投身其中,引领和推动着人工智能迈进深度学习阶段。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。