连黑产论坛都被 AI slop 淹了
## 01 触发事件
Wired 这篇稿子的核心很简单:2025 年,连 cybercriminal forums 这种原本高度功利、强匿名、以可执行信息交换为核心的社区,也开始抱怨被 AI slop 塞满。
报道指向的不是某个模型发布,也不是某家 lab 的新 benchmark,而是一个更底层的事实:生成内容的边际成本已经低到足以污染连黑产论坛都嫌弃的程度。
这件事表面上像一条社会新闻。
这才是它真正值得写的地方:当最不讲究内容伦理、只讲究“有没有用”的场域,都开始把 AI 生成垃圾视为噪音,说明 token 已经不再稀缺,attention filter 才稀缺。
我没在这些论坛内部长期潜伏过,所以无法验证 slop 的具体占比是否已经高到结构性失效的程度。但仅从现象本身看,这已经不是“互联网上多了点垃圾内容”,而是内容生产函数整体改写后的自然结果。
空白被填满,不再需要真实知识。
只需要足够便宜的生成能力。
Wired 报道的关键信号是:黑客和 cybercriminals 自己都在抱怨论坛被 “AI shit” 淹没。
## 02 这事的真正含义
问题不在于“AI 会制造垃圾内容”。
这点早就发生了。
问题在于,连高动机、高筛选压力、原本以实操价值为第一标准的社区,也挡不住内容供给爆炸。这说明模型能力提升带来的第一序结果,不是“知识普及”,而是“验证成本上升”。
这对 AI 行业有一个很不舒服的含义:模型输出越便宜,系统里的有效信息密度就越低。
过去讨论 moat 时,很多人会把焦点放在 model quality。
但在 slop 时代,那个真正会被定价的是 filtering quality、identity layer、reputation graph、distribution control,以及把“可生成内容”压缩成“可信决策”的整套工作流。
这也是为什么单纯卖模型 access 越来越像 commodity。
如果所有人都能生成,价值就不在生成。
价值在路由、筛选、压缩、验证、追责。
对 API 消费者来说,这不是抽象命题,而是直接的 token economics 问题。因为 slop 会带来三层成本:
第一层是 inference cost。
更多垃圾输入、更多冗余上下文、更多重复摘要,都会把 token 消耗推高。尤其在长 context 场景里,KV cache 再便宜,也顶不住把低质量内容一遍遍塞进 pipeline。
第二层是 orchestration cost。
Agent 并不怕“不会写”,怕的是“写得像那么回事但不可靠”。一旦外部世界被 AI slop 污染,agent 的 retrieval、planning、tool use 都会被误导。于是你不得不加 ranking、reranking、citation check、human-in-the-loop,整个链条更长。
第三层是 trust cost。
当内容真伪难分时,用户会天然向强品牌、强入口、强 workflow 绑定的平台集中。也就是说,slop 最终不是削弱平台,而是强化平台。
这点很像 aggregation theory 在 AI 时代的一个变体:供给爆炸并不自动带来分发去中心化,反而可能让具备过滤权和默认入口的平台吃到更大的集中红利。
我可能低估了社区自净能力。有些论坛的 reputation system、invite 制、vouch 机制,也许能在较短时间内把垃圾重新压下去。但即便如此,防御本身也会变成新的固定成本。
## 03 历史类比 / 结构对照
这件事更像 2010 年代 SEO content farm 泛滥,而不是 2022 年 ChatGPT 的消费级引爆。
当年内容农场告诉互联网一个残酷事实:只要分发机制奖励“可被索引”而非“真实有用”,系统就会被最低成本供给占满。Google 后来靠算法更新、站点权重、质量信号去清洗,但清洗能力本身,成了平台权力的一部分。
今天 AI slop 把这个逻辑推到了更极端的位置。
因为内容农场时代,生产一篇垃圾文章仍然有人工成本。
现在,垃圾内容是程序化、批量化、低边际成本、可针对语境微调的。你甚至不能简单通过语言质量来识别它,因为模型已经足够会模仿“专业口吻”。
所以这更接近 2008 年金融危机前评级体系失灵的结构问题:市场里不是没有信息,而是高质量信息和低质量信息被包装成相似外观,导致筛选机制失效。
一旦筛选失效,系统参与者会怎么做?
不是更开放。
而是更封闭。
他们会退回白名单、私域、熟人网络、付费社群、签名验证、闭环 workflow。这也是为什么我认为 AI slop 的长期后果之一,不是互联网更开放,而是互联网进一步分层:公开层越来越像噪音池,真正高价值的信息交换迁移到半封闭环境。
这对 open web 不是好消息。
但对拥有 distribution 和 trust interface 的平台,反而可能是机会。
我没法断言这会演变成多强的结构性迁移,因为公开网络依然有不可替代的 discovery 价值。不过从历史看,每次供给极度过剩,都会倒逼新的 gatekeeping 机制出现。
## 04 对 AI builder 意味着什么
如果我在做 AI 产品,这周就会调整三件事。
第一,不要再把“生成能力”当作核心卖点。
用户越来越不会为“能写、能总结、能扩写”付费,因为这部分能力正在快速 commodity 化。真正值得卖的是更短路径到结果:更准的 retrieval、更强的 source grounding、更低 hallucination、更好的 approval flow。
换句话说,卖 output,不如卖 verified output。
第二,把产品设计重心从 model choice 转到 trust architecture。
很多团队还在纠结 GPT、Claude、Gemini、Qwen 谁强 3%。这当然重要,但如果上游输入本身被 slop 污染,模型差异的边际收益会被迅速吃掉。你更该优化的是 source ranking、prompt caching、citation UI、版本追踪、人工复核节点、组织内知识白名单。
模型是引擎。
但今天坏掉的是道路系统。
第三,重新评估 distribution 的价值。
当内容泛滥时,默认入口会升值。IDE、workspace、CRM、email client、browser sidebar、team chat,这些不是“插件位”,而是过滤权的载体。谁控制上下文入口,谁就更有机会定义哪些信息值得进模型,哪些该被挡在外面。
这也是为什么 developer tooling 战争会越来越像 workflow 战争,而不是单点模型体验战争。Cursor、Claude Code、Cline,甚至 MCP 生态里的各类 connector,竞争的不只是调用哪个 model,而是谁能更低摩擦地接入可信上下文。
如果我在做 API routing,我也会更谨慎看待“最低价 token”这件事。
因为真正昂贵的,不是单次 token price,而是把垃圾喂给再便宜的模型后产生的错误决策成本。便宜模型处理脏输入,可能是最贵的组合。
这点我可能误判。某些低价值、大吞吐场景里,海量廉价模型加后处理,仍然可能是最佳解。但至少在高信任工作流里,input quality control 正在变成第一性问题。
## 05 反方观点 / 风险
我前面的判断,有一个明显风险:把一条猎奇新闻过度结构化。
黑产论坛抱怨 AI slop,可能只是一种阶段性噪声,不足以推出“公开互联网信任机制正在加速坍塌”这么大的结论。毕竟垃圾内容从来都存在,论坛管理员、版主制度、邀请码体系也一直在与之共存。
更重要的是,AI 也不只制造 slop。
它同样能制造更强的过滤器。
同样的模型,可以被用来识别重复帖子、检测低质量文本、做信誉打分、给帖子加 provenance 标签。也就是说,供给爆炸和过滤升级可能是同步发生的。最后未必是“垃圾淹没一切”,而是“平台把垃圾治理能力产品化”。
如果是这样,赢家就不一定是大平台。
也可能是新一代 trust middleware。
还有一种更强的反方观点:这根本不是 AI 问题,而是身份问题。匿名论坛天然缺乏强 identity,缺少可追责性,所以更容易被低成本内容攻击。如果把身份、支付、声誉系统补上,slop 就不是决定性变量。
我认为这个反方是成立一半的。
身份层确实关键。
但问题在于,身份层本身也有 onboarding friction,而 AI 产品过去三年的增长,恰恰建立在“先把摩擦拿掉”上。现在行业可能走到一个尴尬拐点:想继续要高增长,就得保持开放;想提高信息质量,就得增加门槛。这两者并不天然兼容。
这才是这条新闻背后真正的 tension。
不是 AI 生成了多少垃圾。
而是当生成几乎免费之后,整个互联网到底由谁来承担验证成本。
相关推荐
基于 #distribution 推荐
genesis-airobotics
Genesis AI 不卖模型,卖闭环
2026 年 5 月,Genesis AI 发布首个模型 GENE-26.5,并同步展示机器人手完成复杂任务。信号不在“又一个 robotics foundation model”,而在 full-stack 路线正试图把模型、数据、执行器与 distribution 绑成一个更难替代的系统。
5月6日·techcrunch.com
googlesearch
Google 把论坛塞进 AI 搜索
Google 于 2026 年 5 月更新 AI 搜索,把 Reddit 等论坛内容纳入“expert advice”。这不是 UI 小改版,而是高质量网页供给衰退后,搜索分发逻辑向“语料编排”迁移的信号。
5月6日·techcrunch.com
sapprior-labs
SAP 砸 11.6 亿买控制权
SAP 对 18 个月大的德国 AI lab Prior Labs 投入 11.6 亿美元,同时限制客户 agent 只接入少数白名单系统如 Nvidia NemoClaw。重点不是一笔并购,而是 enterprise AI control plane 开始被应用巨头重新收口。
5月6日·techcrunch.com
WPS金山办公
WPS 多维表格支持跑 Python — 金山办公悄悄从工具变平台
WPS 多维表格支持 Python 脚本、MCP 协议和 70+ 开放 API,金山办公正从办公工具转向开发者平台。但 AI 圈声量几乎为零,开发者生态能否建立仍是未知数。
5月6日·juejin.cn
PalantirOntology
Palantir 靠二十年前的设计赢了企业 AI 落地 — 数据结构比模型更决定成败
Palantir 被反复提及,靠的不是模型,而是二十年前构建的底层数据结构 Ontology(本体)。我们注意到:企业 AI 落地卡在最后一公里,根因不是模型能力,而是数据结构不承载业务语义。这件事值得关心,因为它重新定义了企业 AI 的竞争重心。
5月6日·juejin.cn
Malus.sh开源协议
AI 重写开源代码只需一个依赖清单 — 开源协议在 AI 时代正式失效
Malus.sh 提供AI重写开源项目的服务,输出法律上不同的代码,绕过所有许可证义务。开源协议赖以生存的“复制代码”这一事实正在被AI瓦解,护城河将转向品牌、社区和数据。
5月6日·juejin.cn