有人用 Codex 调用 GPT-5.5-medium 时,意外截获了模型的内部思维链(Chain of Thought,即模型给出最终答案前的中间推理过程)——输出全是电报式短句,和 5 个月前 r/LocalLLaMA 社区提出的'用原始人语言做思维链可省推理成本'方案如出一辙。我们判断,OpenAI 已把推理 token 压缩写进了模型底层逻辑。

这是什么

泄露的输出长这样:"Need absolute path. Need know cwd absolute. v:... Use markdown. final with path. Need avoid bogus path." 极短的主谓结构,没有冠词,没有修饰——像原始人说话。这不是 bug,而是 GPT-5.5 在做内部推理时,主动选择了压缩表达。5 个月前,r/LocalLLaMA 有帖子提出:强制 AI 用简陋语言做思维链,能减少 token 数量,从而降低推理成本。现在 OpenAI 似乎把这个社区思路产品化了。

行业怎么看

推理能力越强,思维链越长,token 消耗越猛——这是 o1 之后所有推理模型共同的成本瓶颈。用压缩语言做内部推理,是目前工程上最务实的省成本方案,不需要改架构,只改表达习惯。但反对声音同样明确:过度压缩可能导致关键推理步骤丢失,尤其在数学或逻辑链长的任务中,'省 token'和'保质量'的平衡点极难把握。更讽刺的是,思维链本应是提升可解释性的卖点——压缩成密码般的短句后,可解释性反而更差了。

对普通人的影响

对企业 IT:推理成本是部署 Agent 最大的运营支出,思维链压缩意味着同等预算能跑更多推理任务,ROI 直接改善。

对个人职场:未来你会看到 AI 产品的'思考过程'越来越难读懂——这不是退步,是刻意为之的压缩。

对消费市场:用户最终看到的输出不变,变化全在模型脑子里;但更低的推理成本,可能催生更便宜的订阅方案。