一则社会新闻让你拍案而起,一段争议视频让你愤慨转发……在按下发送键的瞬间,你是否想过,自己的情绪可能正成为他人精心设计的收割对象? 经济学思想家托马斯·索维尔曾指出,人类行为远非总是理性。网络上的“愤怒诱饵”之所以有效,恰恰根植于人类心理的某些非理性特质。 有一种观点认为,算法偏好推荐能引发强烈互动(包括愤怒)的内容,从而形成了“愤怒-互动-更多推荐”的循环。但现实往往比这种设想更为复杂。 每当出现网络极化、群体对立等现象时,“信息茧房”常被视为罪魁祸首。但这一概念本身在学术界仍存争议,许多实证研究并未发现算法必然导致信息封闭的确凿证据。 当然,这并非为算法的一切现状辩护。算法确实可能放大某些既有问题,其运作机制也曾因不透明而引发公众疑虑。
近期,“愤怒诱饵(rage bait)”被选为牛津词典2025年度词汇,将这一互联网时代的典型现象推至公众视野。所谓“愤怒诱饵”,即通过刻意制造对立、夸大矛盾或虚构冲突的内容,刺激网民的情绪反应,从而博取关注、获取流量。从编排“儿媳苛待婆婆”的摆拍视频,到捏造“外卖员遭羞辱”的虚假剧情,此类操作在网络空间并不鲜见。
这种现象的蔓延无疑令人忧虑:当愤怒被批量炮制为引流工具,公共讨论的质量与社会心态的健康都将受到侵蚀。
然而在相关讨论中,一种常见的归因逻辑再次浮现——许多人将矛头直指算法与“信息茧房”,认为正是算法的推荐机制助长了这些极端内容的传播。但问题真的如此简单吗?一、愤怒因何被“收割”?人性弱点与流量逻辑的合谋
神经科学研究显示,大脑对负面刺激的反应往往比正面刺激更迅速、更强烈,印象也更持久。社会心理学中的注意偏向理论同样指出,带有情绪色彩的信息更容易吸引人们的关注。这意味着,涉及对立、不公、冲突的内容天然具有更高的“注意力黏性”。
某些内容生产者正是洞察了这一点,形成了一套完整的“情绪操控流水线”:先是筛选易引发争议的话题(如性别、地域、代际矛盾),继而注入极端标签、夸张情节甚至虚假细节,再以煽动性标题或画面进行投放,最终在聚集大量流量后实现变现。
由此可见,“愤怒诱饵”的滋生,本质上是人类注意力机制的特点与部分追逐流量者的行为策略相互结合的结果。二、算法是“帮凶”还是“防火墙”?平台利益的真实逻辑
对于平台而言,纯粹依赖“愤怒流量”并非可持续之道。长期充斥对立与戾气的环境,会导致用户体验下降、用户流失,同时影响品牌形象与商业合作,甚至引发监管风险。因此,维护内容生态的健康发展,与平台自身的长远利益是一致的。
近年来,多家平台已陆续出台措施,对制造冲突、煽动对立的恶意营销行为进行专项治理。这实际表明,在面对“愤怒诱饵”时,平台更有动力扮演“治理者”与“过滤者”的角色,而非放任或助推。三、反思“信息茧房”:是我们被困,还是我们选择了封闭?
相比之下,“认知茧房”或许更贴近现实:人们往往倾向于关注符合自身预设的信息,习惯于和观点相近者交流,对相反意见则容易排斥或忽视。这种倾向植根于人类认知的心理机制——例如“确认偏误”让我们更愿意接受支持自己观点的信息,“负面偏好”使我们更容易记住引发愤怒的内容。
有趣的是,一些研究反而揭示了相反的现象。例如《科学》杂志曾发表研究指出,即便在没有个性化算法的简化社交模型中,用户群体仍会自发形成观点阵营,极端内容传播更快。这提示我们,群体极化可能在很大程度上源于人类社交中的“同质性”倾向,而非单纯由技术导致。
此外,当前的推荐算法已在不断引入多样性机制。例如通过间隔相似内容、插入探索性推荐、结合社交关系拓展兴趣等方式,试图打破可能的内容闭环。有学者指出,智能化的信息平台因其多元的分发逻辑,反而可能有助于缓解而非加剧信息窄化。四、走向透明与共治:算法应在阳光下运行
消除疑虑的最好方式,或许是推动算法的可解释与治理的公开化。近年来,一些平台开始主动公布推荐原理、设置用户反馈渠道、建立内容治理规则说明体系,正是朝向“算法透明”迈出的步伐。当算法从“黑箱”走向“白盒”,公众便能更理性地看待其作用与边界。
最终,我们或许需要认识到:技术本身往往是中性的,其影响取决于我们如何使用与规制。将复杂的社会心态问题简单归咎于算法,可能忽略了人性深处固有的弱点,以及个体在信息选择中的主动角色。
面对“愤怒诱饵”,最根本的抵御或许在于我们自身——保持一份清醒与克制,在情绪被点燃前先停顿思考,在转发评论时多一份审慎。正如纳撒尼尔·霍桑曾暗示的:我们的关注,最终塑造了我们自己。
在这片纷繁的信息海洋中,每个人既是接收者,也是自我信息生态的构筑者。理性与善意,永远是最值得坚守的航标。