最近一个月内,至少有 3 家头部大模型公司上新了“展示思考过程”的功能——AI 的黑箱时代正在被动终结。从 OpenAI 的 o1 到 Anthropic 的新版 Claude,再到开源社区各类微调模型,大家都在做同一件事:让 AI 把草稿纸摊开给你看。

这是什么

这次讨论源于开源社区对模型输出中 <thinking> 标签的关注。简单来说,以前我们问 AI 问题,它直接吐出答案;现在它会在给出最终回复前,先输出一段包裹在标签里的“内心独白”。这就是所谓的思维链(Chain of Thought,即模型推导结论的中间步骤)。这相当于数学课上,老师不仅给最终答案,还把演算过程写在黑板上。把中间过程直接暴露给最终用户,这是最近才发生的交互范式转移。

行业怎么看

多数人认为这是建立信任的必经之路。当 AI 的回答涉及复杂逻辑或高风险决策时,透明的推理过程能大幅提升用户的信任感——看得懂逻辑的结论才敢用。但值得我们关心的是反对声音:有人指出,这不仅会显著增加 Token(模型计费单位)消耗,还可能带来新的“伪装推理”风险。即模型为了显得“深思熟虑”,可能生成一堆看起来在思考实则无用的废话,用户却要为这些冗余算力买单。透明度不等于准确性,这是行业尚未解决的矛盾。

对普通人的影响

对企业 IT:需要重新评估 API 成本结构,“思考”产生的 Token 费用可能远超最终输出,预算管理面临新挑战。

对个人职场:与 AI 协作方式从“看结果”转向“审过程”,需要培养快速扫读 AI 草稿、判断其逻辑走向的能力,而非盲信结论。

对消费市场:用户需要接受“等待 AI 思考”成为新常态,那些秒回的 AI 助手往往意味着思考深度的妥协。