人工智能发展到如今已进入深度学习阶段。深度学习的概念是在2006年提出来的,而在那时并没有引起人们的特别关注,直到2012年,深度学习才引起了人们的广泛关注。2013年,一个在英国出生的计算机科学家和心理学家,反向传播和对比发散训练算法的共同发明人,深度学习领域的重量级人物,被尊称为“深度学习之父”的加拿大教授辛顿(Geoffrey Hinton),他带了两个博士生去参加一个世界性的比赛,这个比赛的内容就是在网络上训练机器找照片。当时网络上的照片有128万张,要对其中的10万张进行测试,而且照片上还有一千种物体,比如猫、狗、军舰、飞机等。这一千种物体,有的照片非常不清楚,有的光线很昏暗或者遮挡很严重,如果采用传统的识别方法,显然很难都能够识别出来,辛顿教授就用了一种叫作卷积神经网络的方法,帮助机器去识别图像。
大家都知道,人类大脑是一个非常强大的机器,在每秒钟内能看(捕捉)多张图,并在意识不到的情况下完成对这些图的处理。但机器并非如此,机器处理图像的第一步是理解,理解如何表达一张图像,进而读取图片。在机器的学习中,卷积神经网络是一种深度前馈人工神经网络,现已成功地应用于图像识别。通俗地讲,卷积神经网络就是起到帮助机器识别图像的作用。
其实,这个比赛本身就是针对的大数据,因为它要处理的是128万张彩色照片,一千种物体的分类,然后又使用了卷积神经网络。神经网络是非常复杂的,需要很好的计算能力,这个计算能力面对的不但是神经网络,而且还是CUDA(Compute Unified Device Architecture,显卡厂商英伟达推出的一种运算平台)的并行编程,所以它必须要采用GPU(Graphic Processing Unit,图形处理器),把三个方面的内容结合起来,构建一个网络模型,再加上大数据和GPU。GPU是什么东西呢?也是显卡的核心部件。我们知道游戏的高速发展推动了显卡的进步,结果显卡歪打正着,反而推动了人工智能的发展,而人工智能又反过来,推动了NVIDIA(英伟达)的发展。把三个方面的东西合在一起之后,就产生了一种蝶变效应或者说是化学反应,而且效果非常好,由此揭开了深度学习在计算机图像识别、语音识别,以及自然语言处理中大规模研究的序幕。
这一现象很快就被科技巨头、跨国企业敏锐地捕捉到了,它们对这个技术发展的趋势,对产业发展的趋势非常敏感,而且还感觉到了这里的产业价值,从2013年开始,这些跨国企业就开始进行产业发展的前瞻性战略布局。
第一个例子就是在2013年3月,辛顿带着他的博士生去参加比赛,比赛以后他带着两个学生成立了一个叫作DNN Research的创业公司,据说后来谷歌用5千万美元把它给收购了。谷歌怎么会用5千万美元去收购这个创意公司?实际上就是想把辛顿及他的团队挖过去。(www.xing528.com)
还有一个叫Yann LeCun(自称中文名“杨立昆”)领军人物,这个人非常厉害,他把日本人的方法发展成了所谓的卷积神经网络,而且引入了反向传播等。这个人有很多经验,有学术界的背景,也有产业界的背景。
在当今世界的人工智能领域,Yann LeCun被业内奉为“神一样的人物”,他不但是纽约大学的终身教授,还是纽约大学数据科学中心的创始人,以及Facebook人工智能研究部门(FAIR)的负责人。Yann LeCun在20世纪80年代读博期间提出了“人工神经网络”理论,该理论一度被认为过时,他本人甚至也被拒绝参加学术会议,直到2013年他加入了Facebook之后,这个理论才开始慢慢地变得热门起来。
还有一个叫杰米斯·哈萨比斯(Demis Hassabis)的人,是DeepMind的一个员工,AlphaGo(阿尔法狗)就是这个公司做出来的。DeepMind也就是这个人创业的公司。当时这个创业公司只有四五十个人,据说一个谷歌的高管去看了他们的PPT幻灯片后,就用5亿美元把这个公司给收购了。这对于我们来说可能是一个很难做的事情,而且据说也没有写什么商业计划书,这个高管直接就把它收购了。最后看起来这个收购还是非常成功的,DeepMind不仅给谷歌创造了世界性的声誉,而且给它真正创造了价值。
还有一个叫吴恩达(Andrew Ng)的华裔美国人,他是斯坦福大学计算机科学系和电子工程系的副教授,人工智能实验室主任,是国际上人工智能和机器学习领域最权威的学者之一。2014年5月16日,吴恩达加入了百度,担任百度公司的首席科学家,负责百度研究院的领导工作,尤其是实施Baidu Brain(百度大脑)计划。2017年10月,吴恩达出任Woebot公司新任董事长,该公司拥有一款与它同名的聊天机器人。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。