1964年,16岁的我给康奈尔大学的弗兰克·罗森布拉特教授(Frank Rosenblatt)写信询问关于“马克一代”感知器(Mark 1 Perceptron)的问题。罗森布拉特教授于1960年研制出这台与大脑相似的机器。我有幸受邀去参观并试用。
罗森布拉特教授在神经元电子模型的基础上发明了感知器。输入信息值包括两个维度。对语音来讲,这两个维度就是频率和时间。因此,每个输入值都代表了特定时间点的频率强度。对图像而言,在二维图像中,每个点都是一个像素。系统会随机将输入信息的某个点联结到仿真神经元第一层的输入点。每个联结点的突触强度——揭示了每个联结点的重要性,都是随机分配的。某个神经元接收到信号的总和如果超出了它的最大承载量,它不仅会短路,还会向输出联结点发出信号;如果总和没有超出最大值,神经元就不会短路,输出信号也为零。每一层神经元的输出信息都会随机地与下一层神经元输入网络联结。“马克一代”感知器拥有3层结构,因而它就拥有了多种布局(见图7-5)。例如,下一层的输出信息可以返回到上一层。在最上层,随意挑选的神经元输出提供答案。[155]
图7-5“马克一代”感知器的布局
神经网络线路和突触强度都是随机设定的,所以未加训练的神经网络给出的答案也是随机的。因此,在建构某个神经网络时,我们首先要了解这个神经网络要解决的问题,就像最初建构的哺乳动物大脑那样。神经网络最初处于无知状态,它的老师可能是生物人、计算机程序或者其他,总之是经过学习后更加成熟的神经网络。当学生给出正确答案时,老师就会奖励它;给出错误答案时,老师就会惩罚它。仍处于学习阶段的神经网络也会以得到的反馈为依据,进而调整不同神经元的联结强度。那些与正确答案一致的联结强度不断增强,而给出错误答案的联结强度则会减弱。
一段时间后,即使没有老师指导,神经网络也能自行运算出正确答案。实验证明,即使老师不可靠,神经网络依然可以完成学习的主题。只要这个老师在60%的时间里是可靠的,作为学生的神经网络就可以完全掌握老师传授的知识。
但是感知器对其能够快速掌握的资料类别是有限制的。1964年拜访罗森布拉特教授时,我对输入信息做了些简单调整。系统识别打印字符的速度和准确率令人满意,自由联想能力也很棒(即使我遮挡了部分文字,系统仍然能输出正确的信件内容),但对非常规文字的识别能力较差,字体和字号的改变会影响它的准确率。
20世纪60年代后期,神经网络已为人所熟知,“联结主义”占据了人工智能领域的半壁江山。那些直接为解决某个问题而设计的程序,例如怎样识别打印字符中的不变特征,已沦为较为传统的人工智能方法。(www.xing528.com)
1964年我还拜访了人工智能创始人之一马文·明斯基。虽然他是20世纪50年代神经网络发展的先驱,但是他仍然对这项技术持怀疑态度。神经网络之所以火热,部分是由于人们在解决问题时不需要自己编写程序,依靠神经网络就可以找到解决方法。1965年我进入麻省理工学院学习,师从明斯基教授,我十分赞同他对“联结主义”持有的怀疑态度。
1969年,MIT人工智能实验室的两位开创者马文·明斯基和西蒙·派珀特(Seymour Papert)共同出版了《感知器》(Perceptrons)一书。该书论证了一个简单的定理:感知器自身并不能判断一幅图像到底有没有被成功联结。这立刻在业界引起了轩然大波。人脑可以轻易判断出一幅图像到底有没有被成功联结,而配有合适程序的计算机也可以轻易地做到这一点,但感知器却做不到。很多人认为这是感知器的一个致命的软肋(见图7-6)。
图7-6两幅图像来自《感知器》一书的封面
注:上面的那幅图并不是一个整体(黑色部分是由两个分开的部分合成的)。下面的图则是一个完整的整体。像弗兰克·罗森布拉特研究的“马克一代”这样的前馈感知器却无法识别出两幅图像的差别。
然而,《感知器》论证的定理的适用范围却被人为地扩大了。书中提到的定理只适用于前馈神经网络(包含罗森布拉特的感知器)这种特殊的神经网络;其他类型的神经网络并没有此限制。这本著作的问世使得20世纪70年代对神经网络的投资大幅减少。直到80年代,这个领域才得以复苏,因为更为实际可行的生物神经元模型诞生了,避免明斯基和派珀特感知器定理的模型也出现了。然而,至今仍无人问津新皮质解决恒定性的能力,即增强新皮质性能的关键。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。