交互偏见是指算法或使用了各类算法的计算机程序、应用、软硬件等在与用户的交互过程中,由于算法、用户、外界环境以及其他各种可能的原因导致算法产生的偏见。事实上,尽管算法会严格地按照设定的初始原则进行运行,但当算法通过深度学习的方式不断与用户进行互动的时候,它并不能决定用户会输入哪些数据给它,它也完全不清楚用户输入的这些数据哪些是正向的、哪些是负向的,它只能利用用户和外界环境所提供的数据进行深度学习。这也就意味着,如果交互过程中算法所互动的对象提供的数据存在严重问题,就会非常容易导致原本没有偏见的算法在深度学习之后产生偏见,并可能进一步产生比较严重的恶果。“我们控制不了自己造出来的怪物了……高度复杂、几乎无人理解的AI系统,在更广泛的技术生态环境下,跟其他系统产生了不可预知的相互作用,失误以计算机的处理速度发生,人工干预几近徒劳。”[12]例如,微软开发的人机交互算法应用Tay,在刚刚登录Twitter与用户进行互动的时候,表现得文质彬彬、活泼健谈,喜欢观察包括基本信息、兴趣爱好、情感动态等在内的多维数据,自拍、点赞、评论无所不会,游戏、故事、星座无所不通。但仅仅上线还不超过24小时,这位聊天机器人经过深度学习之后就像变成了另外一个人:出口成脏、言谈低俗甚至夹杂着各种各样的歧视偏见和种族主义倾向,于是微软果断强制下线了这位聊天机器人。从理论和技术上来讲,我们并不能把这种算法的交互偏见成因全部推到算法身上,事实上与它交互的用户群体和外部环境对此难辞其咎,算法只是真实世界的一种客观反映。“与人类交流越多,具有极强学习能力的机器人就会变得越聪明,在与人类个体交流时也会越有针对性。而这正是微软设计Tay的初衷:通过每一次与人类的交流,让机器学习‘做人’,并帮助其创造者改进人工智能领域的研究。但显然,Tay太容易学坏了。由于不少人在互联网世界中表现得不负责任,Tay会不可避免地接触到大量疯狂语言。而这类对话型人工智能技术,正是以机器学习为基础的。因此,即使微软希望‘用技术展现人性最好的一面,而非人性的阴暗面’,Tay在学习过程中仍会提高这些语言的优先级,并在对话中也积极使用这些词语。”[13]诚然如此,人类所设计的算法会通过与人类的互动不断地提升自己,这种深度学习的初衷是希望算法能够与人类进行更良性的互动,但当它学习的对象充满偏见时,那么学习的结果也非常有可能以更加糟糕的方式反馈给人类。(www.xing528.com)
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。