同年,在白宫主办的一次会议上,这些更为紧迫的问题被提了出来。那次会议的一个热门讨论是ProPublica[1]上发表的一篇题为“机器偏见”(Machine Bias)的文章13。这篇文章的副标题点明了文章的主旨:“全国各地都在使用软件来预测未来的罪犯,而其对黑人充满偏见。”由于人工智能越来越多地被用在各种各样的场景中进行预测,人们越来越担心系统是否会在不同场景中对特定群体,包括有色人种,存有偏见14。
ProPublica在2016年描述的偏见问题真实存在。它反映出两个现实世界的原因,如果希望人工智能可以按照公众的正当期望得到应用,这两点都需要得到解决。第一个造成偏见的原因涉及带有偏差的数据集。例如,一个包含人类面部照片的人脸识别数据集可能包含了足够的白人男性照片,从而能够以高准确率预测白人男性的面部。但如果女性或有色人种照片的数据集较小,那么针对这些群体的错误率可能更高。
事实上,这正是两位博士开展的一个名为“性别阴影”(Gender Shades)的研究项目得出的结论15。这两位博士分别是麻省理工学院的研究员、罗德奖学金得主、诗人乔伊·布兰威尼和斯坦福大学的研究员蒂姆尼特·格布鲁,她们通过比较不同性别和种族人群的人脸识别准确率,来促进公众对人工智能偏见的理解。例如,这两位女性研究员发现,与北欧的白人政治家相比,系统在通过人脸识别确认非洲黑人政治家性别方面的错误率更高。作为一名非洲裔美国妇女,布兰威尼甚至发现一些系统将她认定为男性。(www.xing528.com)
布兰威尼和格布鲁的工作有助于揭示我们需要考虑的第二个维度的偏见。如果不首先建立一个反映世界多样性的团队,就很难建立服务于世界的技术。正如她们所发现的,一个更加多元化的研究者和工程师团队更有可能认识到会对其个人产生影响的偏见问题,并更加认真地思考这些问题。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。