事实上,计算机科学从起步至今都在想尽办法向一个目标努力,那就是让计算机按照人类大脑的核心算法进行思考,探索大脑采用的核心算法,将电脑变为人脑。“艾伦·图灵在他1950年的论文《计算机器与智能》(Computing Machinery and Intelligence)中提出了这个目标,还设计了有名的图灵测试来确认某一人工智能是否能达到人类的智力水平……冯·诺依曼的《计算机与人脑》最早从数学家和计算机科学家的角度对人脑进行了严肃探究。冯·诺依曼应用计算通用性的概念得到的结论是:尽管人脑和计算机的结构不同,但仍可以认为,冯·诺依曼机可以模仿人脑对信息的加工过程……大脑极大的可塑性使得我们能够进行学习。但计算机的可塑性更大,通过改变软件就可以完全重建它的工作方式。因此,从这点上看,计算机可以仿真大脑,但反过来则不然。”[9]这意味着,如果计算机是在模拟人脑的算法运行,那么它既有可能模拟人脑的优点也完全有可能模拟人脑的缺点,这就在根本上决定了,人类在最初设计算法这个事物本身所模拟的对象的时候,它就注定会将它模拟对象所存在的偏见继承过来。计算机领域的先驱者们当初所设计的算法进化的方向使它不可避免地与偏见相遇。具体到某个算法,其程序员或工程师在设计这个算法的时候,对于算法法则、数据选择、结果输出、价值判断等方面的初始设定,都在一定程度上反映了他们自己看待这个世界的视角和观点,他们的刻板印象和个人偏见会影响到他们对算法的设计,为什么选取某个维度的数据而放弃另外一个维度的数据;为什么月收入三千元以下的人群被界定为穷人而不是五千元以下的;为什么身上刻有文身的人会被假定为犯罪可能性较大的人……这些尽管可能会有一定的历史数据支撑,但算法的设计者应该在编写算法的时候就深刻地意识到自己的人生经历所形成的历史数据导致的结论本身就有可能存在一定的偏见,即便在过去不存在偏见,也没法保证它在未来不产生偏见。今天的算法大行其道,它们为用户推荐信息、导航方向、寻找工作、诊断病情,然而它的开发者在设计这个算法的时候却很少受到监督,怎样避免人的偏见进一步渗透到算法中成为影响整个社会的偏见,为算法设计者设定相应的道德标准、社会责任和法律框架,成为一个亟待探讨的话题。(www.xing528.com)
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。