要在公共生活中建立有效的测量手段,需要采取一定程度的强制措施。例如,要在建筑领域执行共同标准,既要求私营企业遵守规定,也需要一支训练有素的劳动力队伍。同时,数据也是强有力的说服武器。借用法国哲学家米歇尔·福柯(Michel Foucault)对政府行使权力间接手段的分析,人们可能会认为,评估的“客观”标准构建不仅使“其他人的监管或控制成为可能”,对“自我身份”的塑造还会“通过个人的自我认知和自我调节进行”。简而言之,由数据制定规则比单纯的自上而下强制要复杂得多:它包含了很大程度上的自满情绪,并从根本上设计了主体的行为方式。总之,这是一个自愿默从的体制。因此,它成为福柯确认政府合理性或“政府性”的一个关键方面——也就是一项“引导行为”和从“一定距离”影响行为的技术;或者说,是按照“具体的结果”和“多种策略”来“处理事物的正确方式”。
数据也是界定现代官僚治理体系运作方式的基础。新的知识模式确实对决策者的体制机构的定义至关重要,决策者的选择必须由除行政自由裁量权之外的参数来指导。现代官僚制研究的先驱马克斯·韦伯(Max Weber)认为,官僚主义的本质是技术的力量,它导致了所有与政治斗争相关的非理性和情感因素的边缘化,也就是人为因素逃脱了精确的计算。韦伯的想法强调“公共行政秩序能够实现距离、合理性、客观性、权威性,以及计算机制的方式”。历史学家西奥多·波特一直在研究我们社会对数据信任的历史演变,正如他所言,量化的演进过程与官僚政治的发展有着内在的联系。出于法律和政治的原因,行政自由裁量权被人怀疑,“所以监管者别无选择,只能不懈寻找事实,并尽可能地将它们减少到几个决定性的数据”。特别是在像美国这样的多元民主国家,利益集团争夺在公众中的地位以及参与决策的时候,基于统计的决策有助于调整政府、企业和整个社会的利益:“当价值观的冲突与共识难以捉摸,数据和操纵它们的技术会因为它们表面上的中立性而被推崇。有了统计数据,激烈争论的问题看起来似乎都会被马上解决”。
在20世纪30年代的大萧条时期,美国统计学家和经济学家发现他们在公共决策中起到的作用呈现了指数级的增长。一系列的环境灾难,特别是1927年的密西西比河大洪灾,为基础设施项目大量使用基于统计的风险评估方法创造了良好的条件,同时也为评估预防政策的成本和效益提供了初步研究。随着经济衰退,公共预算不断缩减,“有限”的资源配置中引入了新手段的指导,以避免政治争议。1936年,《防洪法》首次在公共政策中引入了成本效益分析,指出除非有防洪计划能证明其效益超过成本,否则不会有任何计划获得联邦资助。最初,成本效益方法的设计是为了鼓励高度争议部门的开放和中立,例如防止环境灾难及其与公共基础设施项目和工业化的关联。当然,数据的可信度会在专业性、科学中立性和透明性的修辞中体现出来。在1936年《防洪法》中设置成本效益条款的参议员认为,负责这些项目计量经济学分析的专家是“值得尊敬的、直率的、爱国的人”,因为新的评估体系需要“按照轻重缓急,做出独立的、非政治性的、没有偏见的决定”。由于这些人的专业知识和声誉,负责处理数据的部门开始享有越来越大的影响力,这种影响力又反过来被用以增进与强大的私有利益及企业的友好关系。罗斯福政府内政部长哈罗德·伊克斯(Harold Ickes)表示,负责量化管理发展的官员是“华盛顿最有力、最雄心勃勃的游说团体”,与军事分裂和“官僚制下最完美的部分”紧密联系在一起。
在20世纪60年代和70年代,用于衡量成本和收益以及评估公共基础设施项目有效性的各种模型,已经“从地方官僚体系中聚集起来,变成一套合理化的经济原则”。在美国人对政府“经常性不信任”的政治背景下,统计分析的拥护者在各个领域都引入了这些工具,包括从社会福利项目的评估,到监狱的运作,等等。他们声称,这些工具在公共政策的计量经济评估上“几乎普遍有效”。特别是,成本效益分析和实验测试程序开始由各种下属机构和私营公司实施,这些机构和公司会将他们的专业知识出售给政府部门或招标公共项目的公司。正如波特强调的那样,在这个阶段,“科学、国家与大型行业的利益之间”存在明确的一致性。例如,尽管前美国总统尤利西斯·格兰特(Ulysses Grant)于1877年向国会作出了一个著名的不成功呼吁,但美国国家标准局经常鼓励政府和有关工业部门进行密切合作。格兰特在呼吁中对私营部门的检测和评估与国家要求的不同:“这些试验不能由私人公司自身执行,不仅有费用的原因,还因为结果必须依赖无私利的人的权威。”
在20世纪90年代,量化评估的新做法成为“审计爆炸”的一部分。除了通过财务审计对私营公司会计进行监管外,还出现了“环境审计、效益审计、管理审计、法务审计、数据审计、知识产权审计、医疗审计、教学审计和技术审计等评估方式,它们带来了不同程度上的制度稳定性和接受度”。《审计学会》一书的作者迈克尔·鲍尔(Michael Power)认为,会计制度进一步强化了人们对数据的关注,并铸就了“理性化社会的神话结构”:“审计爆炸的根源在于组织生活的程序性重组,以及新的‘治理合理性’。”
这样的重组给所谓的专家,也就是生成数据的个人和组织,产生了前所未有的影响。用德国心理学家格尔德·吉仁泽(Gert Gigerenzer)和他的同事们——《机遇帝国:概率如何改变了科学和日常生活》一书作者的话来说,专家的权威性因为统计和计量经济计算结合到公共决策中,而得到了极大的提升:“事实上,数据的爆炸创造了一种新的专家,他们的主张更多依靠信息与形式技术,而不是具体的经验或个人判断。毕达哥拉斯赋予了数据如此大的影响力,这对于新型专家来说既是一种福音,也是一种诱惑。”把这些“新”专家的工作动员起来的标准化程序“与现代官僚制的公正性和规则相平行”,它们试图排除“个人自由裁量权,强调既定程序的一致性和机械性应用,以避免偏见,一个针对事实,另一个针对公平”。
然而,大部分的审计报告并不传达有价值的信息。对于外部用户来说,它们不是基于证据的、不需加以说明的文件。总的来说,这些报告是自成一体的不透明记录,从根本上依赖着“中立,客观,冷静,专业”的语言系统。这实际上意味着对公众的全面披露、透明度和问责制是通过专家认证被限制的。审计过程因而成为一条捷径,它建立在我们社会对专家根深蒂固的信任基础上,而非理性的公共审议基础:“这是问责制链条中的一个死胡同。”简言之,更多的数据和会计制度并不一定等同于更好的问责制。相反地,它们会减少“公众猎奇的心理和公开调查”,因为一个必要事实是,专业审计的最终用户并不是广大公众,而是“专家话语中的虚拟参照点”。这也是计数的很多悖论之一。虽然审计爆炸发展是以问责的名义发生的,“给出账目看起来却像是一种避免问责的方式”,在这样的情况下,数据扼杀了政治讨论和社会讨论,意图提供不容置疑的事实。自相矛盾的是,“虽然审计学会宣称的纲领性基础是开放和问责,它却有着日益封闭的危险。”(www.xing528.com)
使用数据的专家成为社会信任的守护者。数据和守护者的权力从根本上颠覆了支撑社会和政治联系的委托代理关系。公民、选举代表和其他利益相关者(委托人)被专家(代理人)所控制。而基于数据的治理机制的深刻制度化进一步加强了数据的力量,因为“我们促成了各种辅助认证或可靠性担保……这些很容易被操纵,但现在对于那些已经不怀疑新代理人的委托人来说,又是非常重要的东西”。我们都相信那些以数据为证据的人,即使我们知道,各种目的的数据造假都是如此容易。在学术研究领域,每年都会发现数百起数据篡改案例,甚至涵盖了世界一流大学。当然,它们之中的大部分并不会成为世界性的头条新闻,但确实有一些引起了轰动。比如说,在1986年,诺贝尔奖获得者、生物学家戴维·巴尔的摩(David Baltimore)就因为卷入了一项涉嫌捏造数据的研究,引起了全球热议。这些造假数据被用以支撑一项免疫系统研究中的新发现。尽管巴尔的摩最后摆脱了所有控告,他还是在这项惩戒中受到了一定打击。在社会研究中,也有非常多相似的例子。历史学家迈克尔·贝勒斯雷斯(Michael Bellesiles)的例子可谓是臭名昭著,他伪造了一份“独特的”数据集,其中包含了数百年来美国民众中小型武器的分布情况。他写作的畅销书《武装美国》被《经济学人》杂志称颂,并获得了久负盛名的班克罗夫特奖。而后,学术界发现了书中的数据造假,这也迫使贝勒斯雷斯放弃了奖项。
哈佛大学经济学家卡门·莱因哈特(Carmen Reinhart)和肯尼思·罗格夫(Kenneth Rogoff)是《这次不一样:800年金融荒唐史》这部金融危机史上影响深远的著作的作者。2010年,他们发表了对美国国家经济研究局(NBER)的后续研究报告。该报告很快成为所有鼓吹欧洲和美国紧缩计划的政府和保守势力的参考。欧盟委员奥利·雷恩(Olli Rehn)和美国共和党议员保罗·瑞恩(Paul Ryan)都引用了这项研究。莱因哈特和罗格夫题为《债务时代的增长》的论文使用了“44个国家长达200年”的时间序列数据和“3700份年度观察报告,其中涵盖了广泛的政治体系、制度、汇率安排及历史情况”。其主要实证结论为,各国的政府债务不得超过GDP的90%,否则会自动引发经济增长速度的变缓和系统性衰退的风险。之后,在2013年,马萨诸塞大学阿默斯特分校的一名年轻学生被指派完成一项作业——重复一篇经济研究领域著名论文的运算过程。他选择了莱因哈特和罗格夫的这篇论文,因为每个人都熟知它在经济危机的政治管理上具有的影响力。然而,在经过多次尝试后,他发现无法重复论文中的运算。他的导师建议他联系原作者,他最终收到了原始电子表格,发现了许多基本的计算误差,包括错误的平均值,这在很大程度上破坏了研究结果。莱因哈特和罗格夫为他们的错误公开道歉,但他们的总体结论仍然得到了部分支持,而凯恩斯主义的经济学家则抨击他们是错误的决策者。美国经济和政策研究中心批评了这项研究的结果,以及它为在美国和欧洲引起广泛不满的紧缩政策所提供的辩护。该研究中心反问道:“莱因哈特和罗格夫的算术错误造成了多少失业?”伦敦大学经济学教授丹尼尔·哈默梅什(Daniel Hamermesh)怀疑,由于这项研究在政策上的应用,可能直接导致了失业现象:“但它为那些影响了人们如何看待这个世界的事物提供了一种知识上的合理化。而人们,特别是政治家,他们看待这个世界的方式会最终影响到世界的运行”。
两位知名学者怎么会犯这样的低级错误,还在如此长的时间里侥幸没被发现呢?他们怎么发表在美国国家经济研究局(NBER)的工作论文中呢?要知道,NBER可是世界上最负盛名的经济智库,因包括了22名诺贝尔奖获得者而引以为傲,但却没有人注意到论文中错误的平均值计算。美国国内外的报纸,以及像国际货币基金组织这样,在两位经济学家加入学术界之前曾经工作过的机构,都褒扬了两人的成果。为什么没有人发现这样严重的计算错误呢?当然,这个事件也严肃地质疑了所谓的同行评审过程的可信度,我们不禁怀疑,还有多少影响着日常政策的研究中,也存在着类似的“偏爱”。
这样的问题不仅仅在美国发生。在欧洲,社会心理学家迪德里克·斯塔佩尔(Diederik Stapel)是很多被广泛引用的论文的作者,他的论文经常发表于像《科学》这样的著名刊物上。他在2012年承认自己曾“修改了研究数据,伪造了某些科研项目的结果”,“不止是一次,而是好几次”,“不仅是在一小段时间内,而是持续了很多年”。可以说,他的整个研究生涯,那些曾在社会定性研究领域给教育计划和政策带来很大影响的研究,都是以杜撰的数据为基础的。在斯塔佩尔的一本回忆录《出轨》中,他用强大的叙事力描述了他篡改数据的过程:
我更愿意在家中做这些,在深夜,所有人都睡去的时候。我会给自己泡一壶茶,将电脑放在桌上,从包里拿出便笺,用钢笔写下我将要完成的一整套研究项目和成果……后来,我开始输入我臆想的数据,一行一行、一列一列……3、4、6、7、8、4、5、3、5、6、7、8、5、4、3、3、2。输完数据后,我就可以开始做第一项分析。这些数据通常不会立即产生正确的结果,于是我便会返回模型并修改数据。4、6、7、5、4、7、8、2、4、4、6、5、6、7、8、5、4。直到所有分析结果都能按照预期实现为止。
斯塔佩尔坦诚地向所在大学的调查委员会承认了这一切:“我没有经受住想获得成功、想发表论文、想成为更厉害的学者的诱惑……在一个很少有制约平衡、人们总是单独工作的制度下,我走错了路。”
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。