首页 理论教育 人与智能化社会:揭示算法歧视问题

人与智能化社会:揭示算法歧视问题

时间:2023-10-19 理论教育 版权反馈
【摘要】:正是这些缺陷、漏洞,或不合理之处,给我们带来了各种各样的问题,算法歧视便是其中 之一。后来,这套算法被一些人指出存在对非洲裔美国人的系统性歧视。总而言之,数据中预先存在的偏见以及数据中的抽样偏差等被认为是算法歧视产生的根源。目前,有研究者认为算法歧视主要集中表现为价格歧视、信用歧视以及就业歧视,其中价格歧视较为常见和普遍。

人与智能化社会:揭示算法歧视问题

“歧视”这个词我们可能已经很熟悉了,那么,算法歧视呢?如果我们将算法歧视理解为一个主谓结构的短语,那么显然,算法歧视是由算法(或者说通过算法这一媒介)而引发的歧视行为。从这个意义上而言,要理解算法歧视,首先要弄清楚什么是算法、算法是如何工作的等基本问题。

2016年5月,美国政府发布了《大数据报告:算法系统、机会与公民权利》的报告,其中明确指出,在大数据和算法给人们日常生活带来巨大便利的同时,人们也要警惕其可能带来的不良后果,尤其是算法歧视。

算法是一个计算机和数学术语,它的英文名字是algorithm,指的是有限的、抽象的、有效的、复合的控制结构,以在给定规则下完成特定的目的。在计算机的语境下,可以将其通俗地理解为一系列解决问题的清晰的指令。现在大多数网络平台和产品都是基于一定的算法逻辑工作的,例如,你经常通过手机上的某个新闻客户端查看娱乐新闻,那么,该新闻客户端就会向你优先推荐娱乐新闻。再如,你经常通过某购物平台购买某类书籍,那么,该购物平台就会向你优先推荐与此类书籍相似或相关的图书。它们都是基于一定的算法逻辑工作的。从科学的角度来讲,算法可能存在缺陷、漏洞,或不合理之处。正是这些缺陷、漏洞,或不合理之处,给我们带来了各种各样的问题,算法歧视便是其中 之一。

2018年3月,据一些媒体报道,选择同样的车辆,同样的路程,分别使用苹果系统手机和安卓系统手机呼叫同一平台的网约车,结果却发现,两个手机系统的叫车价格竟然不一样,苹果手机显示的打车费用比安卓手机的打车费用高出将近30%,这让使用者大跌眼镜。然而,这并不是个例。在一些旅行网站上也出现过这样的价格差别。

被“大数据杀熟”

人工智能浪潮下,人们的生活与算法的联系越来越密切,从购物到阅读新闻,再到听音乐等,在这些细微之处,算法正悄无声息地作用于我们的选择。不仅如此,算法还影响着人们的决策。例如,开车出门前,生活在城市里的人往往会打开导航,选择最为畅通而不堵车的路线,哪怕该路线在路程上略微远一些。这些路线的规划正是基于算法给出的。

2015年,美国芝加哥一所法院曾经使用一个犯罪风险评估系统,这个系统基于一系列复杂算法原理。后来,这套算法被一些人指出存在对非洲裔美国人的系统性歧视。假如一个非洲裔美国人犯罪了,就会被这个系统标记为“高犯罪风险”人群,进而有可能会受到比实际更加严重的法律制裁。

有些算法带来的社会危害较小,几乎可以忽略不计,例如前面我们提到的电商平台的商品推荐、新闻媒体的定制化推送以及出行路线的规划等。但是,一旦这些算法被运用到涉及社会公众重大利益的地方时,其潜在的风险就不容小觑。上面我们提到的美国芝加哥法院的犯罪风险评估系统就是典型案例。如果将算法推荐或决策运用于个人信用评估、雇佣评估等领域,则存在类似的潜在风险。(www.xing528.com)

一些人认为,算法是计算机表达的意见,不存在算法歧视问题,其实这忽视了计算机代码和程序的编写就是设计者价值选择的过程,设计者、研发者的价值取向可能会存在歧视的问题。另一方面,计算机基于特定算法和数据进行计算的过程中也会因囿于技术层面的问题而带来歧视。总而言之,数据中预先存在的偏见以及数据中的抽样偏差等被认为是算法歧视产生的根源。在研究者刘培和池忠军看来,显性歧视、隐性歧视和差别性影响[1]是算法歧视的三种主要表现形式,同时,算法歧视也关涉算法公平、算法身份的污名化、隐私等具体的伦理问题。

与此同时,美国《科学》杂志和英国《卫报》等均指出,人工智能已经开始表现出歧视和偏见的倾向,这些歧视和偏见源于人工智能向人类学习的过程之中。具体言之,人类文化和文明中带有一些根深蒂固的观念和偏见,计算机在实现对人类模拟的过程中不可避免地将这些根深蒂固的观念和偏见融入了自己的“大脑”,于是这些观念和偏见便会在计算机做出决策时不经意地表现出来。2016年9月,《自然》杂志在一篇名为《大数据算法需承担更多责任》的文章中提出,大数据算法有可能存在偏见,这进而有可能会加剧人类犯错的风险。美国卡内基梅隆大学的一项研究显示,谷歌推送的年薪20万美元以上的职位的广告,女性仅收到318次,而男性收到的推送次数多达1852次,也就是说,在大数据算法之下,女性得到被推送这条高薪职位广告的机会仅是男性的1/6。这样的算法歧视在亚马逊最好雇员的评选中同样出现。亚马逊公司曾经试图借助特定算法系统评选“最优秀的雇员”,在评选过程中人们发现,这个算法系统会给女性申请者较低的排名,最终,这个系统不得不在各种压力下宣告终止。

从上面的叙述中可以发现,算法歧视已经在社会生活中出现,并且给人们带来了现实困扰。目前,有研究者认为算法歧视主要集中表现为价格歧视、信用歧视以及就业歧视,其中价格歧视较为常见和普遍。价格歧视往往与大数据“杀熟”联系在一起。一般认为,价格歧视就是企业通过一定的算法,根据特定消费者的长期行为(消费习惯、消费能力等)对消费者进行定位和差异化对待,性别、种族、肤色等往往是影响算法的重要因素。

资料链接

网友“廖师傅廖师傅”称,自己出差时经常通过某旅行网站订同一家酒店,价格常年是每晚380—400元。淡季某日,自己的账号查到酒店价格还是380元/晚,但朋友的账号查询显示价格仅为300元/晚。无独有偶,自己通过某网约车平台预约了普通网约车,但来了一辆七座商务车,以为被免费升级了,谁知查询过往记录发现,此网约车平台基本都是按照升级后的车型向自己收费的。他称,自己被大数据“杀熟”了。

(来源:《用大数据“杀熟”,电商的套路都在这了》,详见https://www.sohu.com/a/225819604_99962416)

算法歧视有可能带来消极的社会后果,换言之,算法歧视不仅阻碍和谐人机关系的建构,也将进一步加剧数字鸿沟,进而有可能加深社会的分裂和不平等。[2]基于此,不少欧美国家已经开始积极地寻求破解之策。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈