在现代社会,大数据和算法结合已经颠覆了传统的决策方式。[7](Schönberger,Cukier,2013)对于几乎99%以上的普通用户而言,尽管算法给了人们以客观公正的感觉,但实际上大家并不知道在算法的“黑盒子”里面究竟发生了什么,更不知道依赖算法做出的各种各样的选择和决策是否完全的正确可靠。事实上,期待算法做到百分之百的公正这种想法本身就有些天真,例如,丁晓东曾选取了Grutter案、Gratsz案和Bakke案等几个典型的美国教育平权案来分析讨论美国学校招生政策中算法的合理性,研究发现“算法并非一种完全价值中立的活动,算法总是隐含了价值判断”[8]。再如,与面部识别相关的算法对男性的识别率要高于女性、对黑人的识别率要高于白人,与就业求职相关的算法向男性推荐的工作岗位整体工资要高于向女性推荐的岗位,与信息资讯相关的算法向受教育水平低的用户群体推送的内容在质量和格调上都存在一些问题,与商品购物相关的算法会选择向那些较少购买奢侈品的用户发假货……越来越多的案例提醒着我们一个已经非常明显的事实:算法并不像我们想象中的那样客观公正。“最核心的问题仍然要归结于算法所承诺的虚无缥缈的客观性……我们过于担心人类的偏见与自相矛盾,同时又过于相信计算机的公正性。我们的错误在于我们信任算法,但事实上这些算法都是人编写出来的,人们可以把所有的偏见与观点植入其中。”[9]人类本身就是一种时常带有偏见性的动物,这一点是显而易见的,我们的偏见会影响我们的决策,也会影响我们对于算法的开发和应用,这一点也是毋庸置疑的。
但即便如此,《哈佛商业评论》的一篇文章仍然坚持认为如果你不想被偏见左右,那么算法依然是一个较好的选择。作者Alex P.Miller[10]认为,我们在指责算法可能带来严重的不公平问题时,忽略了一些重要的因素,比如,算法的使用者可能不理解概率或置信区间(即使已经注明),并且在实际操作中可能也不愿去推翻算法的决定(即便这在技术上是完全可行的)。这也就是说,算法本身并没有向任何用户承诺自己完全公正、不会出错,只是人们自己觉得它是公正客观的;进一步地,人们即使也意识到了或者接触到了算法在参与决策过程中存在的问题,但这些决策所造成的负面影响并不明显,因此也就不愿去推翻算法的决定。所以,Alex提醒我们与其把目光聚焦在这些不知是否真正公正的算法选项上而忽略了我们想要解决的真正问题是什么,“不如好好考虑如何将人类和机器的优势相结合,以便创造出更好的、偏见更少的决策工具。”如果我们认真地观察和思考目前流行的对于算法偏见的大量指责,就会发现一个非常有意思的现象:尽管表面上看这些批评的矛头都指向了算法,但更本质的问题其实在于偏见。“多数对于不公正的偏见的批评并不是反算法的,他们更多针对的是偏见,他们并不是真的憎恨算法。”[11]从这个角度来看,解决算法偏见问题的路径将会从过去孤注一掷地聚焦于打造一种完美、公正和客观的算法转变为两种比较切实可行的策略:一是不断地优化和改进现有的算法本身,使其能够不断地向着公正客观的理想状态迈进;二是在算法之外寻找预防和应对可能出现的偏见的方法,“因为在所有案例中,算法都有人的参与,尤其是在搜集数据、制定决策、实现方式、解读结果及因人而异的理解等方面,都会受到人为干预”[12],通过什么样的方式避免这种人为干预过程中可能产生的不公正问题,或许要比单纯关注算法本身来得更有价值。(www.xing528.com)
人类存在偏见,算法同样存在偏见,而算法的偏见则更多的是人类偏见在算法世界中的另外一种写照,计算机也好,软件程序也好,复杂算法也好,都“只不过是一个使用了很多语法规则、速度很快的符号转换机,机器缺少生物大脑拥有的东西——解释语义的能力”[13]。因此,算法世界存在的偏见问题本质仍然是人类社会自身的问题,而不是算法规则的问题。算法可以读取数据并产出数据,但这并不意味着它真的理解了那些数据之于现实社会的意义,它也无法真正理解皮肤的颜色、经济的收入、职业的区分以及说话的语气等具体内容所暗含的敏感信息,它更不会在意它所输出的结果乃至结论是否会引发一场舆论争端或现实冲突。所以解铃还须系铃人,算法偏见的解决最终要寄希望于开发、使用和管理它的人。这样看来,人机结合或许是一个不错的方案,理想的状态应该是这样的:当算法在参与决策的时候,他利用神经网络、人工智能、机器学习等工具推理出人类的对话,并据此判断哪些问题可以直接帮助人类直接执行任务,而哪些问题的处理权和决策权应该归还给人类让他们自己解决。这样,我们就重新回到了没有算法在场的老问题:怎样确保人类自己做出的决策是不带偏见的?而事实上,人类并没有发明出一套完美的游戏机制和社会规则来保证这一点,这也就难怪很多人在谈及算法偏见的时候会抱有“比人类强点就行了”的态度。在任何一个现代社会中,人们都不希望看到偏见的存在;但同样在任何一个现代社会中,偏见却随处可见。或许,从更长远的时间来看,我们依然要寄希望于算法来减少偏见、促进公正。毕竟,只要我们确定的规则是合理的、公正的、无懈可击的,那么算法就会严格地按照程序遵循并执行它,“算法的尊重性,并不仅体现对那些强势群体算法使用者的尊重,而更需要的是对弱势群体算法使用者的包容和理解,即算法不因身份、地位、财富、性别等不同有任何区别。”[14]在这一点上,人却未必能做到。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。