在中文互联网上有一个现象,每当某个领域发生了令人振奋的事,评论区里一定会涌出一种声音,“这就是我们中国”,语气里带着骄傲。但如果换成国内某个地方出了丑闻,同样的评论区里腔调就变了,“河南人就这样””、“东北人啊,那就不奇怪了”,言下之意就是这种丢人的事跟我无关,那是“他们”的事情。
这就很有意思,同一批人,在面对好事就用“我们”,但面对坏事就用“你们”,切换之快,很是丝滑自然,以至于我们长时间生活在这种语境下,好像没人觉得有什么不对劲。这种现象也不止中文互联网才有,比如大家都知道的美国有个梗叫“佛罗里达男孩”(Florida Man),专门用来调侃佛罗里达州出的各种离谱新闻,还有西欧人也喜欢开“波兰人偷汽车”的玩笑,还有法国人被全世界贴上了喜欢投降、举白旗的标签。当然,海内外一直都有很多人在呼吁人们减少标签和刻板印象,但这种分类、贴标签的偏见趋势仍然热度不减,依然是人类理解这个世界顺手的思考工具。
那为什么人类这么依赖分类呢?分类又是怎样一步步变成歧视的呢?这两个问题需要拆开来看。

认知科学很早就研究过分类现象,结论是分类是人脑处理信息的基础逻辑,是演化赋予我们的生存工具。世界上的每一只老虎都不完全一样,体型有大有小,花纹各有差异,但人类只需要见过几只,就能对任何一只老虎产生警觉。这种“举一反三”的能力,在人类漫长的演化史里救了无数次命。相比之下,人工智能要识别一只老虎需要后台处理海量数据。而既然大脑为了生存而追求效率,那么必然就会有代价,这种代价就是对精准度的妥协。
社会心理学家亨利·泰费尔在1963年做过一个著名的实验。他让受试者估量两组线段的长度,结果发现,只要把线段分了组,人们就会系统性地低估同组内的差距,同时高估两组之间的差异。这个实验看上去只是在研究视觉判断,但泰费尔做它的真正目的是要揭示人类一个更深的认知机制。就是说人类在分类这个认知操作上,会系统性地扭曲自身的判断。而一旦这种机制运用到人群身上,它就成了偏见的温床。
比如国内流传甚广的“天上九头鸟,地下湖北佬”,但实际上,随便找两个湖北人之间的差异,很可能远大于湖北人与其他省份人之间的平均差异。再比如,平均而言男性的力量确实大于女性,但这个平均值掩盖了巨大的个体分布,用它来断言某个具体的人“强”或“弱”,本质上就是一种认知上的偷懒。
如果偏见只是认知效率的附带产物,那它应该是冷冰冰的、中性的。可现实中的偏见从来不是中性的,它带着情感、喜恶,有时候甚至带着连自己都意识不到的敌意。
这说明光从认知层面解释还不够,还有别的东西在起作用。
为了验证认知之外的因素,泰费尔后来做了一个影响更为深远的实验,叫“最简群体实验”。实验设计很简单,泰费尔把一群互不相识的人,用“你更喜欢克利的画还是康定斯基的画”这样一个随意的标准,随机分成两组。这其中没有利益冲突、没有历史恩怨、没有文化差异,两组人甚至不知道彼此是谁。但结果令人震惊,被试者立刻开始偏袒自己那组的人,在分配资源时明显向自己的组倾斜。

这个实验虽然简单,但它说明了一件事,偏见并不需要真实的利害关系作为前提。只要有“分组”这个动作,人就会自动产生“我们”和“他们”的区分,并且开始偏向“我们”。泰费尔由此发展出了社会认同理论。这个理论的核心观点是,人不仅通过个人的成就和特质来定义“我是谁”,还会通过自己所属的群体来获取自我价值感。你是中国人、是北京人、是程序员、还是某所大学的毕业生,这些群体身份都构成了你自我认知的一部分。而为了维护这种自我价值感,人会本能地抬高自己所属群体的地位,同时贬低其他群体。所以好事发生时,人就会把自己归入这个群体来提升自我价值感,而当坏事发生时,立马快速与这个群体保持距离,来保护自我价值感,这种切换不需要什么理性思考,而是自我身份认同系统的自动反应。
而“我们”的边界也不是固定的,它是会根据情境随时在伸缩。比如亚洲杯的时候全国球迷一起骂裁判,此时“我们”的身份认同是一致的,大家都是中国人。国内联赛一开打,同一批人可能因为省份不同互相对骂。到了同一座城市里,“我们”进一步缩小到本地人和外地人之间。甚至在同一个小区,还能再分出业主和租户。群体边界的这种弹性说明了“我们”和“他们”主要取决于当下什么样的分类方式能满足你的心理需要。
偏见还有一个非常狡猾的特点,就是它极其善于保护自己。当现实中出现了不符合刻板印象的例外时,人们通常不会修正原有的判断,而是把例外单独划出去。比如遇到一个豪爽的上海人,第一反应往往不是重新考虑“上海人小气”这个预设,而是说“你这个人不像上海人”。金庸《天龙八部》里也有类似的场景,少林高僧们面对萧峰,内心深处其实认可他是英雄豪杰,却依然无法摆脱对契丹人的刻板印象,只能把萧峰当作“例外”来处理,而不会因为萧峰的存在去修正自己对契丹人的认知。偏见本身就有着一种免疫力,能让所有反面证据消化掉,来让自身毫发无损。
此外,还有一个常见的误区,很多人觉得偏见只在“素质低下”的人身上才有。哈佛大学曾通过内隐联想测验(IAT),通过测量你把某些词汇和特定群体关联起来的反应速度,来揭示你意识不到的那层偏好(简单来说,就是不直接问你“你是否歧视某个群体”)。但测验结果的数据显示,绝大多数人都存在程度不等的内隐偏见,包括那些真心认为自己没有偏见的人。比如圣雄甘地,早年在南非期间也曾在文章中对非洲黑人使用过相当刻薄的措辞,把他们描述为缺乏进取心的人群。关于这些言论的历史语境学术界有不同的解读,但至少有一点是清楚的,即便是一生追求平等的人,在面对自己认知中的“外群体”时,也不能做到完全没有偏见。
所以偏见是一种与智识水平无关的人类通病。只要“我们”和“他们”的分类还在运转,偏见就不可能被消灭。教育可以让人意识到偏见的存在,但意识到和真正克服之间,依然隔着很远的距离。
那既然偏见是与人类共存的,那么为什么在当下的互联网环境里,它却格外的剧烈呢?各种地域黑、性别对立、各种标签满天飞,这种烈度已经远远超出了认知偏见本身所能解释的作用范围了。
我觉得这里面有两股力量在同时起作用。
第一股是社会层面的。当社会压力巨大、向上流动的渠道不断收窄、个体普遍焦虑的时候,人们在心理上特别需要一个“外群体”来承接自身的不满和失落。当一个人对自己的处境感到无力时,找到一个可以指认的“他者”,把怒气和失望投射过去,是最省力的情绪出口。把责任推给“河南人”,把怒气撒向“普信男”,把失败归结于“上海人的排外”,这比直面那种看不见摸不着的结构性困境要容易得多。社会心理学把这种机制叫“替罪羊效应”,在经济下行期和社会动荡期,针对少数群体和外群体的敌意往往会显著上升,这在历史上是反复发生过的。当前的中文互联网,很大程度上正处于这样一个窗口期。人们的焦虑是真实的,但焦虑的出口被导向了错误的方向。

第二股力量更隐蔽,也更难对付,就是算法。
在传统社会里,偏见的传播受限于人际接触的范围,一个人的偏见最多影响他身边的几十个人。但在算法驱动的信息环境里,偏见被工业化地生产和分发了。算法的逻辑很简单,它只关心你会不会点、会不会看、会不会转发,至于公不公平,那不在它的设定里。而冲突、对立、情绪化的内容往往是点击率最高的。你发一条“上海人就是看不起外地人”的帖子,获得的流量可能是一篇严谨分析上海人口结构变迁文章的十倍甚至百倍。算法会忠实地记住你对这类内容的偏好,然后给你推送更多。
这就意味着,一个人可能原本对某个群体没有太强的感觉,但在反复被推送相关的冲突内容之后,会逐渐形成并强化对这个群体的负面印象。而在这个过程中,他自己往往意识不到,只会更加笃定自己看到的“事实”就是这样的。信息学学者萨菲亚·诺布尔在《算法压迫》一书中,通过大量检索实验证明了搜索引擎是如何系统性地强化种族主义观念的。人对科技的盲目信任,让人很容易把带有偏见的信息排序结果吸收为自己的主观认知。
如果用比喻来形容社会的焦虑情绪与算法之间的关系的话,社会焦虑就是偏见的燃料,而算法就是一把火。这种偏见的生成不需要你亲身经历,也不需要文化传承,只需要你在某个平台上停留足够长的时间,算法就会替你完成偏见的构建和强化。而更不幸的是,关于算法与偏见的系统性研究目前仍然非常匮乏,关注度也低,这其中受到现实诸多因素的阻碍,我想短期内恐怕很难有大的推进。
话说到这里也要诚实地面对一个反方向的问题。如果把偏见全部归结为认知缺陷、社会焦虑和算法操控,那是不是意味着个人就没有任何责任了呢?
不是的。偏见的认知根源是真实的,社会和技术的放大效应也是真实的,但这些都不能成为个体放弃反思的理由。承认偏见的根深蒂固和承担个人的反思责任,这两件事并不矛盾。不过偏见这个问题的确很大,大到个体几乎无法从根本上改变什么。既然分类是大脑的底层逻辑,焦虑是社会结构的,算法是商业驱动的,那指望靠个人觉悟来消灭偏见,确实不太现实。

但有一件很小的事,我认为是可以做到的。
既然分类的边界不是固定的,那它就是可以溶解、也是可以重组的。一个东北人同时也是打工者、游戏玩家、工程师、科幻爱好者,在不同的情境下哪个身份被激活、哪个退居幕后,本来就是流动的。在罗曼·波兰斯基的电影《钢琴家》里有这样一幕,犹太钢琴家在废墟中被德国军官发现,军官让他弹琴,音乐响起的瞬间,两个人都不再是敌对的,只是两个被音乐击中的人。在某些共同的东西面前,看似不可逾越的群体边界是可以瞬间失效的。
我们今天在互联网上用地域、性别、星座、MBTI彼此区隔、互相谩骂,未来的人回头看这一切,大概会和我们读《天龙八部》时的感觉一样,匪夷所思,又心有戚戚焉。但未来的人们依然也会有自己的分类,有自己的偏见,只是换了一套标签。现在的我们能做的事情其实很小,不妨在贴标签的那一刻多犹豫一下。那一下犹豫,虽然不会改变世界,但它至少意味着,你没有把面前这个人缩减成一个词。