约翰·希尔勒(John Searle)在1980年的论文“思想、大脑和程序”中提出图灵测试不能用于确定机器是否可以思考,提出了“中文房间”实验。他指出,软件(例如ELIZA)可以通过操纵它们不理解的符号通过图灵测试。如果没有理解,它们就不能被描述为像人们一样的“思考”。他认为,图灵测试无法证明机器能够思考。
中文房间:想象一位只会说英语的人身处一个房间之中,房间除了门上有一个小窗口以外,全部都是封闭的。他随身带着一本写有中文翻译程序的书。房间里还有足够的稿纸、铅笔和橱柜。写着中文的纸片通过小窗口被送入房间中。房间中的人可以使用他的书来翻译这些文字并用中文回复。虽然他完全不会中文,通过这个过程,房间里的人可以让房间外的人以为他会说流利的中文。实际上,房间里的人根本不懂中文的意思。
机器就是这样的,可以完成人类的工作,但是,缺乏人类思维和情感,机器不是人。
罗伯特·弗兰奇(Robert French,1990年)提出了一个案例,即,评判者可以通过提出揭示人类低级认知(即无意识的)过程的问题来区分人类和非人类对话者,正如认知科学所研究的那样。这些问题揭示了人类思想体现的精确细节,除非它像人类一样体验世界,否则就是计算机所为。
Searle认为,外部行为不能用于确定机器是“实际”思考还是仅仅是“模拟思维”。他的中文房间论证表明,即使图灵测试在智力方面是一个良好的可操作的定义,但它仍不可能表示机器具有思想、意识(consciousness)或意图(intentionality)。(www.xing528.com)
图灵测试不是学术或产业界工作的主要焦点——正如Stuart Russell[5]和Peter Norvig[6]所写:“人工智能研究人员很少关注通过图灵测试。”有下面几个原因。
首先,有更简单的方法来测试他们的程序。人工智能相关领域的大多数研究都针对适度和特定的目标,例如自动控制、物体识别或智能物流。为了测试解决这些问题的程序的智能性,AI研究者只是看这些系统能否智能地完成其任务。Russell和Norvig建议这可以与飞行历史类比:“航空工程”并没有将其目标定义为“制造像鸽子一样飞行的机器,以至于它们可以欺骗其他鸽子。”
其次,创造逼真的模拟人类,本身就是一个难以解决的问题,无法实现人工智能研究的基本目标。人在艺术作品、游戏或复杂的用户界面等的设计上是非常独特的,但这些不是智能机器科学的重要部分。
图灵测试严格关注主体的行为——机器的外部行为。需要用行为主义或功能主义的方法来研究人的思想(mind)。ELIZA 的例子表明,通过测试的机器可以通过遵循一个简单(但很大)的机械规则列表来模拟人类会话行为,而不需要思考或根本没有思想。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。