## 01 触发事件 Wired 这篇稿子的核心很简单:2025 年,连 cybercriminal forums 这种原本高度功利、强匿名、以可执行信息交换为核心的社区,也开始抱怨被 AI slop 塞满。 报道指向的不是某个模型发布,也不是某家 lab 的新 benchmark,而是一个更底层的事实:生成内容的边际成本已经低到足以污染连黑产论坛都嫌弃的程度。 这件事表面上像一条社会新闻。 这才是它真正值得写的地方:当最不讲究内容伦理、只讲究“有没有用”的场域,都开始把 AI 生成垃圾视为噪音,说明 token 已经不再稀缺,attention filter 才稀缺。 我没在这些论坛内部长期潜伏过,所以无法验证 slop 的具体占比是否已经高到结构性失效的程度。但仅从现象本身看,这已经不是“互联网上多了点垃圾内容”,而是内容生产函数整体改写后的自然结果。 空白被填满,不再需要真实知识。 只需要足够便宜的生成能力。 Wired 报道的关键信号是:黑客和 cybercriminals 自己都在抱怨论坛被 “AI shit” 淹没。 ## 02 这事的真正含义 问题不在于“AI 会制造垃圾内容”。 这点早就发生了。 问题在于,连高动机、高筛选压力、原本以实操价值为第一标准的社区,也挡不住内容供给爆炸。这说明模型能力提升带来的第一序结果,不是“知识普及”,而是“验证成本上升”。 这对 AI 行业有一个很不舒服的含义:模型输出越便宜,系统里的有效信息密度就越低。 过去讨论 moat 时,很多人会把焦点放在 model quality。 但在 slop 时代,那个真正会被定价的是 filtering quality、identity layer、reputation graph、distribution control,以及把“可生成内容”压缩成“可信决策”的整套工作流。 这也是为什么单纯卖模型 access 越来越像 commodity。 如果所有人都能生成,价值就不在生成。 价值在路由、筛选、压缩、验证、追责。 对 API 消费者来说,这不是抽象命题,而是直接的 token economics 问题。因为 slop 会带来三层成本: 第一层是 inference cost。 更多垃圾输入、更多冗余上下文、更多重复摘要,都会把 token 消耗推高。尤其在长 context 场景里,KV cache 再便宜,也顶不住把低质量内容一遍遍塞进 pipeline。 第二层是 orchestration cost。 Agent 并不怕“不会写”,怕的是“写得像那么回事但不可靠”。一旦外部世界被 AI slop 污染,agent 的 retrieval、planning、tool use 都会被误导。于是你不得不加 ranking、reranking、citation check、human-in-the-loop,整个链条更长。 第三层是 trust cost。 当内容真伪难分时,用户会天然向强品牌、强入口、强 workflow 绑定的平台集中。也就是说,slop 最终不是削弱平台,而是强化平台。 这点很像 aggregation theory 在 AI 时代的一个变体:供给爆炸并不自动带来分发去中心化,反而可能让具备过滤权和默认入口的平台吃到更大的集中红利。 我可能低估了社区自净能力。有些论坛的 reputation system、invite 制、vouch 机制,也许能在较短时间内把垃圾重新压下去。但即便如此,防御本身也会变成新的固定成本。 ## 03 历史类比 / 结构对照 这件事更像 2010 年代 SEO content farm 泛滥,而不是 2022 年 ChatGPT 的消费级引爆。 当年内容农场告诉互联网一个残酷事实:只要分发机制奖励“可被索引”而非“真实有用”,系统就会被最低成本供给占满。Google 后来靠算法更新、站点权重、质量信号去清洗,但清洗能力本身,成了平台权力的一部分。 今天 AI slop 把这个逻辑推到了更极端的位置。 因为内容农场时代,生产一篇垃圾文章仍然有人工成本。 现在,垃圾内容是程序化、批量化、低边际成本、可针对语境微调的。你甚至不能简单通过语言质量来识别它,因为模型已经足够会模仿“专业口吻”。 所以这更接近 2008 年金融危机前评级体系失灵的结构问题:市场里不是没有信息,而是高质量信息和低质量信息被包装成相似外观,导致筛选机制失效。 一旦筛选失效,系统参与者会怎么做? 不是更开放。 而是更封闭。 他们会退回白名单、私域、熟人网络、付费社群、签名验证、闭环 workflow。这也是为什么我认为 AI slop 的长期后果之一,不是互联网更开放,而是互联网进一步分层:公开层越来越像噪音池,真正高价值的信息交换迁移到半封闭环境。 这对 open web 不是好消息。 但对拥有 distribution 和 trust interface 的平台,反而可能是机会。 我没法断言这会演变成多强的结构性迁移,因为公开网络依然有不可替代的 discovery 价值。不过从历史看,每次供给极度过剩,都会倒逼新的 gatekeeping 机制出现。 ## 04 对 AI builder 意味着什么 如果我在做 AI 产品,这周就会调整三件事。 第一,不要再把“生成能力”当作核心卖点。 用户越来越不会为“能写、能总结、能扩写”付费,因为这部分能力正在快速 commodity 化。真正值得卖的是更短路径到结果:更准的 retrieval、更强的 source grounding、更低 hallucination、更好的 approval flow。 换句话说,卖 output,不如卖 verified output。 第二,把产品设计重心从 model choice 转到 trust architecture。 很多团队还在纠结 GPT、Claude、Gemini、Qwen 谁强 3%。这当然重要,但如果上游输入本身被 slop 污染,模型差异的边际收益会被迅速吃掉。你更该优化的是 source ranking、prompt caching、citation UI、版本追踪、人工复核节点、组织内知识白名单。 模型是引擎。 但今天坏掉的是道路系统。 第三,重新评估 distribution 的价值。 当内容泛滥时,默认入口会升值。IDE、workspace、CRM、email client、browser sidebar、team chat,这些不是“插件位”,而是过滤权的载体。谁控制上下文入口,谁就更有机会定义哪些信息值得进模型,哪些该被挡在外面。 这也是为什么 developer tooling 战争会越来越像 workflow 战争,而不是单点模型体验战争。Cursor、Claude Code、Cline,甚至 MCP 生态里的各类 connector,竞争的不只是调用哪个 model,而是谁能更低摩擦地接入可信上下文。 如果我在做 API routing,我也会更谨慎看待“最低价 token”这件事。 因为真正昂贵的,不是单次 token price,而是把垃圾喂给再便宜的模型后产生的错误决策成本。便宜模型处理脏输入,可能是最贵的组合。 这点我可能误判。某些低价值、大吞吐场景里,海量廉价模型加后处理,仍然可能是最佳解。但至少在高信任工作流里,input quality control 正在变成第一性问题。 ## 05 反方观点 / 风险 我前面的判断,有一个明显风险:把一条猎奇新闻过度结构化。 黑产论坛抱怨 AI slop,可能只是一种阶段性噪声,不足以推出“公开互联网信任机制正在加速坍塌”这么大的结论。毕竟垃圾内容从来都存在,论坛管理员、版主制度、邀请码体系也一直在与之共存。 更重要的是,AI 也不只制造 slop。 它同样能制造更强的过滤器。 同样的模型,可以被用来识别重复帖子、检测低质量文本、做信誉打分、给帖子加 provenance 标签。也就是说,供给爆炸和过滤升级可能是同步发生的。最后未必是“垃圾淹没一切”,而是“平台把垃圾治理能力产品化”。 如果是这样,赢家就不一定是大平台。 也可能是新一代 trust middleware。 还有一种更强的反方观点:这根本不是 AI 问题,而是身份问题。匿名论坛天然缺乏强 identity,缺少可追责性,所以更容易被低成本内容攻击。如果把身份、支付、声誉系统补上,slop 就不是决定性变量。 我认为这个反方是成立一半的。 身份层确实关键。 但问题在于,身份层本身也有 onboarding friction,而 AI 产品过去三年的增长,恰恰建立在“先把摩擦拿掉”上。现在行业可能走到一个尴尬拐点:想继续要高增长,就得保持开放;想提高信息质量,就得增加门槛。这两者并不天然兼容。 这才是这条新闻背后真正的 tension。 不是 AI 生成了多少垃圾。 而是当生成几乎免费之后,整个互联网到底由谁来承担验证成本。