算法作为降低误差、提升精准、优化效率的工具,在技术革命和现实需求的双重驱动之下,正在不断地重塑着人类社会的方方面面,而且它对很多层面的改造是不可逆的。就像人类再也不愿意重新回到没有智能手机的年代一样,我们也同样不愿意重新回到没有个性化推荐引擎和智能化算法应用的年代。尽管客观上存在着各种各样的算法偏见,但人类要做的不应该是抵制、放弃或者禁用它。恰恰相反,我们不但已经深刻地体会到算法对这个世界带来的巨大价值,而且还要继续在更多的领域让它发扬光大,与此同时必须做的一个关键动作就是:运用多重手段避免算法产生偏见,赋予技术以正向的价值。对于用户而言,算法的根本价值在于凡是涉及多种选择的问题,都可以借助于算法的数据化呈现、智能化分析和个性化推荐来作为某种参考,久而久之这种参考本身就成了大多数用户最后的决策,毕竟算法能够让用户在信息超载的复杂环境下轻松快捷地完成他的分析和决策过程。用户愿意把决策权交给算法,一方面是基于对算法客观性、中立性的所谓“技术理性”的信赖,尽管几乎绝大多数的算法并没有办法真正实现这一点;另一方面是因为用户本身的思维惰性使然,如果更具有主动权的分析和决策需要耗费用户大量的时间才能完成,那么他们宁愿选择放弃这种主动权,或者把这种权利让渡给算法由它来为用户完成所有的过程,而他们自己只想得到一个结果。是后者而非前者,才是大多数用户选择使用算法的主要驱动力,甚至很多用户明明清楚有些算法无法做到纯粹的技术理性,还存在着这样那样显而易见的问题,但他们依然愿意使用这些算法并愿意接受算法推荐的结果或结论。用户的逻辑在于:我知道不同的研发者、不同的公司有着不同的价值理念,这些价值理念的确会影响到他们所研发和应用的算法工具甚至进一步形成一定的算法偏见,但是作为用户自身不也是由种种偏见所构成的有机体吗?甚至用户本身的偏见要远远高于存在于算法中的偏见。作为用户的我们所赖以分析和决策的数据、理念和工具又有多少是不包含偏见的呢?因此,既然无法依靠自身的能力获得更加理性的最优结果,那么依靠整体比人类更少偏见的算法也就不失为一项次优选择。更何况,这些选择更多的情况下只不过涉及应该阅读哪一篇新闻、要不要点击网页上的这则广告或者是不是购买系统推荐的某件衣服,而并非真正涉及报考哪所大学、应该与谁结婚或者并购某家企业是否有意义等重大问题。
用户的这种思维惰性不但很好地解释了为什么明知算法存在偏见却还依然愿意接受并使用存在偏见的算法,而且能够给我们以一个新的视角去看待与算法偏见密切相关的算法黑箱问题。所谓的算法黑箱,就是指算法“根据既定的语法和句法规则,经过半自动或全自动的自然语言生成,将输入的数据整理成一定的结构。这一阶段所涉及的技术繁杂且用户无法了解或得到解释,因此也被称为算法‘黑箱’”[14]。算法黑箱实际上就是在数据输入与结果输出中间的那个过程,这个过程由于其本身高度复杂而不为广大用户乃至很多技术人员所了解。这种情况导致的结果就是,我们只能够了解到前面的数据输入和后面的结果输出,但是对于从数据输入到结果输出的过程、取舍以及为什么这样的数据输入会得到这样的结果输出这些问题却一头雾水。那么算法黑箱的存在会不会导致偏见产生呢?这实际是上文探讨的算法运行环节中的一个关键问题。上文更多地探讨了在算法设计环节、算法运行环节和算法互动环节可能产生的种种算法偏见,探讨的对象主要是针对算法本身的分析和讨论。
而本节中无论对于思维惰性还是算法黑箱的探讨,都更多地聚焦在用户的视角上,来尝试解释为什么用户能够容忍甚至接受算法偏见。对于用户而言,即便是不存在所谓的思维惰性,算法本身的复杂性程度也已经远远超出了他们的认知范围。从理论上讲,用户完全有必要在算法呈现的结果之外,更多地了解与算法相关的设计理念和运行逻辑,并时时提醒自己正在使用的算法是不纯粹、不完全的技术理性,通过算法所建构起来的世界有可能是一个充满偏见的世界,而那些不想被我们看见的以及我们不想看见的内容,都已经被算法过滤掉了。但是现实的情况是,用户非但不想、即便想却也无法真正能够理解算法及其黑箱。“黑箱并不只意味着不能观察,还意味着即使计算机试图向我们解释,我们也无法理解。哥伦比亚大学的机器人学家Hod Lipson把这一困境形象地描述为‘这就像是向一条狗解释莎士比亚是谁’。”[15]因此,我们越来越多地发现,当下正在影响整个世界的很多算法对于广大用户而言都是黑箱,有的是诸如Facebook、Google、腾讯、今日头条这样的开发者不想透露其算法运行的机制,还有的情况则是当涉及深度学习的算法时,它的设计者自己也早已经被算法搞得晕头转向,更遑论连算法基础知识都不具备的用户了。
从另外一个角度看,如果我们能够确保算法所输出的结果不会造成负面的社会问题,那么在更广泛的大众层面就可以不必讨论算法黑箱的话题。然而,恰恰在输出结果这件事情上,算法却常常“犯错误”,甚至的确会输出一些带有偏见的结果。例如,美国华盛顿一位名叫萨拉·维索克吉的教师,尽管广受本校师生的认可,却因为在政府所采用的自动化教师评价算法中未达标而与其他205人一起被解雇,学校却无法解释清楚算法为什么会将优秀的老师判定为不合格。再如,德国前总统克里斯蒂安·武尔夫的妻子贝蒂娜·武尔夫曾经在2012年向法院指控谷歌的算法对她本人的名誉造成了重大的伤害,因为用户只要在谷歌搜索引擎中输入她的名字,谷歌的自动补全算法就会在搜索选项中出现一条将她的名字指向妓女及陪侍行业的搜索项。尽管谷歌的负责人声称自动补全算法生成的搜索选项是算法本身根据海量用户曾经进行过的无数条搜索记录而自动生成的,法院还是判决了谷歌败诉。在类似这样的案例中,当事人都可以以算法黑箱为借口把责任归咎于算法。(www.xing528.com)
只要对这些问题进行更加深入的探讨之后,我们就会发现,算法黑箱只不过是个似是而非的替罪羊。真正的问题或者偏见并不是存在于算法黑箱之中,而是存在于算法黑箱之外,存在于人类身处的这个社会之中,存在于社会中的每个个体的脑海之中。尽管算法黑箱因其不可知性而让人心生畏惧,但它远没到让人感到可怕的程度。真正应该担心的不是算法黑箱,而是那些打着算法黑箱之名在行算法偏见之实的个人、组织,他们之所以可怕是因为其出发点和动机本身就指向牺牲一部分人的利益而服务于另一部分人,在这一点上技术层面中立的算法及其黑箱是不存在好的或者坏的动机的,它唯一在做的事情就是输入和输出。
关于输入和输出这个话题,计算机领域有一个非常著名的定律叫作“Garbage In,Garbage Out”[16],意思是如果输入计算机的是一堆垃圾,那么它输出来的也是一堆垃圾。“这个定律的首次使用可以追溯到1957年11月10日,它在早期的计算机领域非常流行,但实际上即使在今天也依然适用于很多方面,尤其是在我们使用强大的计算机处理海量的存在瑕疵的数据和信息的时候。”[17]而《自然》杂志在其2016年9月21日讨论大数据算法的社会责任这一主题的主编社论文章中,则将上述定律进行了修改,它用了“Bias In,Bias Out”直接表明了对建立在大数据基础上的算法偏见的担忧。“算法偏见的来源有很多,其中一个就是算法的编码规则和数据预设本身就已经反映了现存已久的社会结构,我们把偏见输入算法中去,同时算法也向我们输出偏见。”[18]“人类文化是存在偏见的,作为与人类社会同构的大数据,也必然包含着根深蒂固的偏见。而大数据算法仅仅是把这种歧视文化归纳出来而已。”[19]这就意味着,要解决算法偏见的问题,我们还必须重新回归到设计算法并向它输入偏见的人际人类社会这个根本源头那里,而不是试图佯装通过打开算法黑箱的方式来避重就轻或自欺欺人。毕竟,真正的问题不是算法,而是人;真正生产偏见、定义偏见、感受偏见和反对偏见的,也不是算法,而是人。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。