一旦事情发生得过于顺利,你的直觉会告诉你,很可能就有哪里不对了——这样的直觉是有道理的。
在古罗马法中,如果所有法官都一致认为嫌疑人有罪,该嫌疑人反而会遭到赦免。这个规定听起来有些违反直觉,但那时的立法者显然已经注意到全体一致的判决意味着司法程序中间出现了系统性的偏差,尽管不一定能发现具体是什么样的偏差。他们直觉性地认为,一旦事情发生得过于顺利,很可能就有哪里不对了。
在一篇即将发表在《英国皇家学会学报A》(The Proceedings of The Royal Society A)上的论文中,来自澳大利亚与法国的研究者深入地研究了这一现象,他们把它称为“一致性悖论”(paradox of unanimity)。
“如果所有互相独立的证人都一致证明嫌疑人有罪,我们会想他们不可能都错了,”论文作者之一,澳大利亚阿德莱德大学的物理学家、电子工程师德里克·阿博特(Derek Abbott)说,“一致性通常被看做是可靠的象征,但很多人同时意见一致的概率是很小的,所以我们如此相信一致性其实并没有根据。”
不可能发生的一致
研究者以证人指认犯人为例研究了一致性悖论。警方会让证人在按顺序出现的几个人的照片中找出嫌疑人,而研究表明,当同时指认一个人为嫌疑人的证人数目增加到一定程度后,他们指认正确的概率反而会降低,直到最后与随机的猜测并无分别。
在嫌疑人指认中,系统偏差可以来自多种心理偏差,如警方给证人展示照片的方式,或是证人自身的个人偏见等等。而研究者发现,哪怕是小小的偏差都会对最终的整体结果产生极大影响。具体来讲,哪怕在只有1%的辨认过程中施加偏差,暗示某一个人是犯人,最终当3个以上的证人意见一致时,他们的意见就不再可靠。有趣的是,如果其中有一个证人的意见与其他证人不合,那么其他证人正确的概率反而会大大增加。
为什么会出现这种情况?可以用数学中的贝叶斯分析来说明。拿一枚硬币做例子:如果我们有一枚不公平的硬币,投到正面的概率为55%,而非普通硬币的50%,那我们只要投的次数足够多,就会发现正面向上的次数多于反面向上,进而发现它是不公平的。换句话说,当我们看到投掷结果中正面向上次数显著多于反面向上时,我们会意识到出问题的是硬币,而非概率定理。同样,根据概率定理,很多证人同时得到一致结论的可能性极低,所以更有可能的是系统出了差错。
在警方组织的嫌疑人指认中,理想条件下,指认同一个人有罪的证人数目越多,这个人真正有罪的概率就越大。然而,这只适用于没有任何系统偏差存在的情况。实际情况中,指认同一个人为犯人的证人数目增加到一个值以后,该嫌疑人真正有罪的概率反而会下降,最终与随机指认毫无差别,且系统偏差越大,下降得越早。图片来源:Gunn, et al. ?2016 The Royal Society
研究者称,这一悖论出现得比我们想象中更加频繁。在很多时候,看法一致的确意味着更接近真相,但这只是在零偏差或是接近零偏差的情况下。比方说,如果你让证人完成一项较为容易的任务,比如从一堆香蕉中找出一个苹果,所有人都几乎不会出错,多人结论一致的情况也就更可能出现了。
而指认犯人要比在一堆香蕉中找到苹果复杂得多。模拟显示,如果证人只在犯人落荒而逃的时候匆匆瞥了他们一眼,他们认错人的概率会高达48%,在这种情况下,许多证人同时指认一个人为犯人的概率就相当低了;但如果每个证人都曾被犯人劫为人质,他们认错人的概率会大大降低,多个证人结论一致的情况出现的可能性也会提高。
一致性悖论的深远意义
在法律领域之外,一致性悖论还有很多用武之地。一个重要的应用就是加密技术。数据加密通常通过确认一个很大的数字是否为质数来进行,这个判断过程的错误率要达到非常低才行:低于2的-128次方才可以接受。
在这一过程中,可能出现的系统差错就是计算机故障。大多数人都不会想到宇宙射线会导致电脑将一个合数误认为质数,毕竟这件事发生的概率只有10的-13次方——但注意,这个概率要大于我们所要求的误差2的-128次方,所以这类误差主导了整个过程的安全性。正因于此,加密协议所宣称的安全程度越高,实际的过程就越容易受计算机故障影响。
一致性悖论虽然听起来违背直觉,但研究者解释,一旦我们了解了足够的信息,就能理解它了。“大多数的‘悖论’违反我们的直观感知,不是因为我们的直观感知错了,而是我们掌握的信息不够,”阿博特说,“我们会感到惊讶,是因为不知道证人指认的正确率如此之低,也不知道加密过程中计算机的故障成为了主要的影响因素。”
研究者还注意到,一致性悖论与迪昂-蒯因假说(Duhem-Quine hypothesis)有一定的关联。迪昂-蒯因假说认为,我们永远无法孤立地检验某一个科学假设,只能检验一个假说群体,比方说,一个实验检验的不只是某一个特定的现象,也包括实验工具本身的校正功能。在一致性悖论中,出问题的是研究方法(即辅助假设),因此结论也就不再可靠。
一致性悖论的其他例子:
1. 大众汽车丑闻
9月,大众汽车公司被曝在汽车中安装了作弊软件,可以识别汽车是否处于被检测状态,在车检时秘密启动,减少尾气排放以使其达到排放标准,而在平时行驶时仍然超标排放污染物。然而,用软件作弊的后果就是,排放检测结果过于一致,甚至“好得过分”了(所谓too good to be true)。美国环保局检测排放的小组最初对大众汽车产生怀疑,就是因为他们发现不管是大众的新车,还是开了五年的旧车,排放的污染物都在同一个水平线上,这种可疑的一致性,暴露了由作弊软件带来的系统偏差。
2. 神秘连环凶手
另外一个有名的“too good to be true”的事件发生在1993-2008年的欧洲。警方发现,在法国、德国、奥地利发生的15件罪案的现场,都有同一个女性的DNA。这位“神秘连环杀手”被称为“海尔布隆魅影”,而警方直到最后都没有找到她。DNA证据非常一致,极具说服力,但最终事实证明它是错的,是个系统误差——警方用来收集DNA样品的棉签被污染了,所有样品上的都含有的DNA来自同一位女性,就是工厂里制造棉签的那位女工。
3. 大比分压倒?不太可能
如果一个党派赢得了选举,获胜的党派往往只是以微小的优势压倒对方。我们通常希望自己支持的一方大比分获胜,但如果这种事情真的出现,很可能是有人操纵了选票,造成系统偏差。
4. 实验数据太好,可能是造假
在科学中,理论与实验必须互相支持,并肩同行。每个实验中都有背景噪音,也会有实验误差。在科学史上有相当一些著名实验,其结果后来看来都有点“好得过头了”,争议最大的就是测量单电子电量的密立根油滴实验和孟德尔的遗传实验。如果实验结果过于“干净”,没有预期中的噪音和异常值,我们就有理由怀疑实验人员有意择优挑选,选择了好的数据,排除了异常值,造成了证实性偏见(confirmation bias)。
5. 那么数学呢?
理论物理学家尤金·维格纳(Eugene Wigner)认为数学定理在描绘物理世界时是无条件地完美而有效的,或者说数学本身就是种“好得过头”的事物。然而,现代科学研究中的很多设备和器件都不再能够用纯粹解析性的数学方程来分析,而代之以模拟软件中使用的经验公式。未来最大的科学问题可能诞生于复杂科学领域,而在这一领域,我们将更多地依赖大数据、机器学习的帮助,而非数学。既然解析性的数学方法无法完美适配所有问题,为什么我们还会认为“数学是无条件完美而有效的”呢?这本身可能也是一种系统性的证实性偏见:我们读的每一篇伟大的科学论文都有着优美的公式,就以为优美的公式一定与科学进展联系在一起,却忽略了还有很多公式也同样优美却未能发表,从而没能被我们看到。我们所看到的数学,也经过了择优挑选。 (撰文:莉萨·齐加(Lisa Zyga) 翻译:丁家琦 )
原文链接: