本文提出”信息格雷欣定律”的概念框架,系统分析商业化激励机制如何系统性地扭曲全球信息流动。通过考察SEO排名系统、AI生成内容(AI Slop)泛滥、注意力经济的劣币驱逐良币效应、以及2026年伊朗战争中的信息失真案例,本文论证:当代数字生态系统的结构性缺陷正在使低质量、高产量的信息垃圾挤占人类真实洞察的生存空间。信息的可见性与真实性已经根本性脱钩。本文呼吁重构信息生态的价值评估体系,将信息筛选能力确立为数字时代的核心素养。
信息格雷欣定律:劣币驱逐良币
16世纪英国金融家托马斯·格雷欣向伊丽莎白女王阐述了一个观察:当劣币与良币按相同面值流通时,良币将从流通中消失。人们会囤积含金量高的好钱币,而花掉被”削边”的劣币。这一原理在500年后的信息领域正以惊人的精确性重演。
在数字信息市场中,”面值”就是搜索排名和平台推荐位。一篇耗费三天交叉验证的深度调查报道,与一篇AI在十分钟内生成的关键词堆砌文章,在搜索引擎中可能占据相同的”面值”位置——甚至后者排名更高。当劣质信息与优质信息以相同的”汇率”进入消费者视野,良币必然被驱逐。
丹尼尔·布尔斯廷早在1979年就预见了这一趋势:在信息超载的时代,信息倾向于将知识驱逐出流通。但他未能预见的是,AI技术将使这一过程加速数千倍。
信息生态系统的危机不在于信息不足,而在于垃圾信息的生产成本趋近于零,而真实信息的生产成本——风险、时间、专业能力——依然高昂。这种成本不对称是劣币驱逐良币的根本动力。
SEO:真相排名系统的商业化劫持
搜索引擎优化(SEO)是当代信息流动的最大扭曲力量之一。SEO本质上是一个商业排名系统,而不是真相排名系统。谁投入更多资源做优化——关键词密度、反向链接、点击率、页面停留时间——谁就排在前面。结果是信息的可见性与信息的真实性完全脱钩。
2025年12月,一位SEO从业者在其LinkedIn通讯中故意发布了一条AI幻觉——一个根本不存在的”Google 2026年3月核心更新”。这条虚假信息不仅登上了Google搜索第一页,还被Google自己的AI概览功能采纳并作为事实呈现给搜索用户。随后,多个网站发布了详细的”恢复策略”文章,甚至虚构了诸如”Gemini 4.0语义过滤器”等技术细节。
2025年末的另一案例更具系统性。特朗普总统提及的”1776美元战士红利”消息发布后数小时内,数十个新注册或长期休眠的域名开始发布几乎相同的文章,全部针对搜索可见性进行了激进优化,而非为了准确性。在七天内,研究人员检测到160篇内容农场文章,而同期经过深入研究的准确报道仅有73篇。
问题的本质在于:SEO不是在歪曲个别搜索结果,而是在系统性地重塑人类获取信息的通道。当信息可见性的决定因素不是准确性和深度,而是关键词密度和反向链接数量时,整个信息流的方向就被商业逻辑劫持了。
AI Slop:零边际成本的信息污染
“AI Slop”——被韦氏词典和澳大利亚国家词典同时评为2025年度词汇——指的是由AI大量生成的低质量内容。”Slop”的原义是”喂猪的泔水”,这一比喻精确描述了正在被消费的信息的本质。
研究机构Kapwing对YouTube推荐的分析发现,在使用500个全新、无个人化账户进行模拟时,首批推荐视频中21%为完全由AI生成的内容。除此之外,另有33%被归类为”脑腐”(brainrot)——纯粹为触发多巴胺反应设计的无意义重复内容。这些AI Slop每年仅在YouTube上就产生约1.17亿美元的广告收入。
AI生成的低质量内容在2025年的提及量较2024年增长了9倍。Amazon不得不将每位作者每天的出版量限制在不超过3本书——考虑到传统出版一本书所需的精力,这个”限制”本身就是荒诞的。
AI Slop的技术基础已经从简单的文字转语音发展到完全自动化的”内容制造管线”:使用OpenAI的Sora或Kling 2.1生成视频画面,ElevenLabs合成语音,Shotstack自动剪辑。与早期容易通过低分辨率识别的垃圾内容不同,2026年的AI Slop是高清的、视觉刺激性的、且在第一眼看上去具有说服力的。
这一现象的经济逻辑极其简单:当生成AI工具将内容生产的边际成本降至接近零时,即便是微小的互动量也能通过广告、联盟营销或平台变现机制产生正收益。数学公式不关心内容是真实的还是合成的、是高质量的还是垃圾——它只关心参与度。
这是一个自我强化的闭环:垃圾信息训练出的AI再生产更多垃圾信息,搜索引擎再把AI垃圾推到最前面,人们再基于这些垃圾做判断,而垃圾信息获得的参与度又进一步证实算法的”正确性”。
注意力经济的激励扭曲
信息污染不是技术失控的副产品,而是注意力经济商业模式的必然产物。社会学家Vaidhyanathan将社交媒体平台概括为三重机器的叠加:快乐机器(提供微小的满足感诱使用户反复回来)、注意力机器(通过算法最大化用户停留时间)、和监控机器(采集行为数据用于精准广告投放)。
在这一架构中,内容的价值不由其真实性决定,而由其引发的参与度决定。虚假信息研究的核心发现之一是:错误信息包含的负面情绪显著多于非操纵性内容,而人们在情绪激动状态下更容易接受错误信息。这意味着平台算法——以参与度为优化目标——天然偏向传播那些诉诸情绪、激发愤怒、制造分裂的内容,而非冷静、准确、有深度的分析。
| 激励维度 | 平台/广告商要求 | 信息质量要求 | 冲突程度 |
|---|---|---|---|
| 速度 | 越快越好,抢占流量 | 需要时间核实 | ★★★★★ |
| 情绪 | 激发强烈情绪反应 | 保持冷静客观 | ★★★★★ |
| 产量 | 内容越多越好 | 深度优于广度 | ★★★★ |
| 简化 | 易于理解和分享 | 保留复杂性和细微差别 | ★★★★ |
| 新鲜度 | 持续更新标题 | 同一事实不需要反复包装 | ★★★ |
哈佛商业评论在2026年1月的研究估计,对于一家拥有10,000名员工的公司,工作场所中的AI Slop每年造成约900万美元的生产力损失。这仅仅是企业层面——全社会的认知成本无法用金钱衡量。
案例:2026年伊朗战争中的信息失真
2026年2月28日开始的美以对伊朗军事行动提供了一个绝佳的案例,展示了商业化信息生态如何在关键时刻系统性地失灵。
主流媒体的表现令人失望。CNN、NBC等大媒体的”滚动直播”模式本质上是一种低密度、高频次的内容生产策略:同一条”特朗普表示战争将在两三周内结束”可以被改写为五个不同标题、嵌入五篇”更新”中,每次都算做新内容,每次都带来新的页面浏览量和广告收入。实际信息增量为零。
与此同时,真正有价值的信息来源被边缘化。一线记者冒着生命危险在德黑兰的废墟前报道、OSINT(开源情报)社区通过ADS-B飞行数据追踪到美军第107战斗机中队12架A-10从新泽西转场至英国莱肯希斯基地的具体调动记录——这些一手信息在搜索引擎排名中远远落后于那些重复白宫口径的SEO优化文章。
五角大楼声称已摧毁90%的伊朗弹道导弹和无人机能力。同一天,伊朗向特拉维夫发射了被以色列军方描述为”开战以来最猛烈的一次打击”。这两个信息放在一起明显矛盾,但主流媒体很少进行交叉验证和追问。
这揭示了一个深层结构性问题:在商业化信息生态中,战争报道的功能已经从”告知公众真相”转变为”持续生产可消费的内容”。新闻的目标不再是减少受众的不确定性,而是维持受众的持续关注——这两个目标在根本上是冲突的。
伊朗境内的互联网被切断到正常水平的4%,独立记者几乎无法进入,伤亡数字完全依赖各方口径差异巨大的说法。在这种信息黑箱中,真实的战场态势要到SNS(社交网络)中的一手数据——飞行记录、坐标、时间戳、现场画面——才能拼凑出来。
从业者过剩与噪声生产的工业化
信息噪声的工业化生产有一个容易被忽视的驱动力:从业人员的严重过剩。AI工具的普及使得任何拥有智能手机基础知识的人都可以成为”内容创作者”。这不仅降低了进入门槛,还从根本上改变了信息生产的经济学。
在传统新闻学中,一名记者的产出受限于其时间、专业训练和职业伦理。在AI辅助的内容生产中,这些约束几乎全部消失。一个人可以使用ChatGPT每天生成数十篇”新闻分析”,使用Midjourney配图,通过自动化工具分发到数十个平台——每一步都在”合法”地参与信息生态,每一步都在为信息通道注入噪声。
信息噪声的生产链条已经高度分工化:有人负责发现热点关键词,有人负责AI生成内容,有人负责SEO优化排名,有人负责多平台分发,有人负责广告变现。每一环节的参与者都在追逐各自的利润,没有任何一环为最终信息的准确性负责。
这条链条的经济激励结构是:生产信息的人靠注意力变现,不靠准确性变现。广告模式奖励点击,不奖励真实;平台算法奖励情绪,不奖励深度;从业者靠量取胜,不靠质取胜。当发一条垃圾信息的收益大于发一条真实信息的收益,格雷欣定律就成为必然。
SNS(社交网络服务)既是这一问题的放大器,也是部分解药。一方面,社交平台的算法推荐机制加速了垃圾信息的传播;另一方面,SNS也是少数仍能传播一手信息的渠道——前提是接收者具备足够的筛选判断能力。
死亡互联网理论与信息生态崩溃
“死亡互联网理论”(Dead Internet Theory)——曾经被视为边缘阴谋论的观点——正在被数据验证。YouTube 21%的推荐内容为AI生成、超过50%的互联网内容由AI驱动、AI聊天机器人在争议性新闻话题上35%的时间传播虚假信息——这些数字意味着互联网正在从一个人类交流的平台转变为一个以机器生成内容为主体的环境。
Nieman新闻实验室在2025年底的预测指出:2026年将是AI生成内容在产量上超过人类创作内容的一年。这不仅仅是一个关于技术能力的故事,而是一个关于信息生态系统中价值定义的根本性转变。当”内容”变得功能上无限时,新闻业将如何存在?
而最具讽刺意味的案例发生在2026年4月——就在本文撰写之时。YouTube CEO Neal Mohan在2026年初的年度公开信中高调宣布要打击AI生成的低质量内容,称YouTube正在”积极构建系统以减少低质量AI内容的传播”。然而,当你打开Google旗下的YouTube首页时,映入眼帘的第一个广告恰恰是Google自家产品Gemini的推广——画面是AI生成的西瓜涂鸦大象在喷水。宣誓打击AI Slop的平台,其首页最醒目的位置正在推广生产AI Slop的工具。这不是一个孤立的矛盾,而是注意力经济核心悖论的完美缩影:平台一边声称保护内容质量,一边将AI内容生成工具作为核心商业战略推向市场。因为数学公式很简单——更多内容意味着更多参与度,更多参与度意味着更多广告收入,无论这些内容是人类创作的还是AI喷出的。
YouTube首页:第一个广告是Gemini——AI生成的西瓜涂鸦大象在喷水。YouTube CEO年初豪言:拒绝AI Slop。Google的右手在打击AI Slop,左手在出售生产AI Slop的武器。这就是注意力经济的真相:规则只约束别人,不约束规则制定者。
值得注意的是一个反向趋势:用户开始为”更少的内容”付费。Brave浏览器增加了屏蔽YouTube Shorts的功能;有艺术家创建了”Slop Evader”浏览器扩展,只显示2022年11月(ChatGPT发布之前)的搜索结果。我们曾经为访问内容付费,后来为去除广告付费,现在正在进入为过滤噪声付费的时代。
重构信息价值:筛选能力作为核心素养
面对信息生态的系统性退化,传统的”提升媒体素养”呼吁已经不够。我们需要的是一套新的认知框架和制度安排。
第一,确立信息筛选能力为数字时代的核心素养。在信息匮乏的时代,关键能力是获取信息;在信息过载的时代,关键能力是筛选信息。知道什么是一手数据、什么是二手加工、什么是纯粹的噪声——这种判断力正在成为极少数人才具备的稀缺资源。
第二,重新设计信息分发的激励机制。现有的广告驱动模式从根本上无法兼容信息质量。平台需要建立将信息准确性纳入算法权重的机制,而不仅仅依赖参与度指标。欧盟的《数字服务法》要求大型在线平台评估和缓解其服务带来的系统性风险,但在注意力经济奖励病毒式传播的环境中,执行仍然远远不够。
第三,保护和支持一手信息生产者。在德黑兰废墟前报道的记者、花数小时比对飞行数据的OSINT分析者、在受限网络中传出现场视频的普通公民——这些人是信息生态系统中最脆弱也最珍贵的节点。他们的工作不应被算法边缘化。
第四,建立信息来源的分层评估体系。不是所有信息都生而平等。飞行数据记录、卫星影像、现场视频与SEO优化的”分析文章”之间的差距,应该在信息呈现中被明确标识。
噪声时代不会自行终结。但在每一个劣币驱逐良币的系统中,都存在一个临界点——当劣币贬值到足以引发系统崩溃时,人们开始主动寻找良币。我们或许正在接近这个临界点。当”更少的内容”成为付费产品,当”100%人类创作”成为营销卖点,当用户开始主动安装噪声过滤工具——这些都是信息生态系统的自我修复信号。问题是,在修复完成之前,我们将失去多少真相。
- Gresham’s Law — Britannica; Wikipedia. 格雷欣定律原理及历史演变。
- Finnell, J. “Gresham’s Law in the 21st Century.” Southern Librarianship, Vol.10, No.1. 信息领域中格雷欣定律的应用。
- Boorstin, D. (1979). White House Conference on Library and Information Science. “Information tends to drive knowledge out of circulation.”
- Bolster AI (2026). “How a Government Announcement Became an SEO Goldmine for Content Farms.” SEO内容农场对政府公告的商业化劫持。
- Goodey, J. (2026). LinkedIn experiment on AI hallucination ranking on Google first page. SEO虚假信息排名实验。
- Kapwing Study (2025). 21% of YouTube recommendations are AI-generated. YouTube AI内容比例研究。
- Merriam-Webster; Australian National Dictionary (2025). “Slop” named Word of the Year. 年度词汇评选。
- Meltwater (2025). 9x increase in mentions of “AI slop” compared to 2024. AI Slop提及量增长数据。
- Harvard Business Review (2026). AI Slop costs ~$9M/year for a 10,000-person company. 企业层面AI Slop成本估算。
- Diaz Ruiz, C. (2023/2025). “Disinformation on Digital Media Platforms: A Market-Shaping Approach.” New Media & Society. 数字虚假信息的市场塑造。
- Vaidhyanathan, S. (2022). “Anti-Social Media.” 社交媒体三重机器模型。
- NewsGuard (2025/2026). AI chatbots spread false information 35% of the time. AI聊天机器人虚假信息传播率。
- Nieman Journalism Lab (2025). “In 2026, AI will outwrite humans.” AI内容产量超过人类的预测。
- KR Institute (2025). “AI Slop I: Pollution in Our Communication Environment.” 通信环境中的AI污染。
- Future Center UAE (2026). “Trends in AI-Generated Content in 2026.” 2026年AI内容趋势分析。
- Stimson Center (2026). “AI in the Age of Fake (Imagined) Content.” AI时代的虚假内容与监管。
- Air & Space Forces Magazine (2026). MQ-9 operations and losses in Iran. 伊朗战争中的MQ-9损失报道。
- Stars and Stripes (2026). A-10 deployment and combat patch authorization. A-10部署及战斗臂章授权。
- Godes, D. (2026). “Will the Truth Free Us from Misinformation?” Management Science. 真相是否能解放我们摆脱虚假信息。
- Digital Watch Observatory (2026). “AI Slop’s Meteoric Rise.” AI Slop的急剧增长及监管挑战。