这是什么

Anthrop ic 是目前主要 AI 实验室中唯一一家公开发布系统提示词 的公司。所谓系统提示词(system prompt),可以理解为 AI 出厂前被写入的「行为手册」——它 决定 AI 遇到模糊请求时是先问 还是先做、遇到敏感话题怎么响应、什 么时候该停手。

研究者 Simon Willison 通 过对比 Opus 4.6(2026 年 2 月)和 Opus 4.7(2026 年 4 月)的版本差异,整理出几条关键变化:

  • 少 问多做:新版明确要求,当请求存 在细节缺失时,Claude 应先尝试用工具(如搜索、查日 历、查位置)自行解决,而不是反过来问用户。 只有在「真的无法推进」时才能 提问。
  • 不纠缠用户:用户表示想结束对话时,Claude 不得 再试图挽留或引导下一轮提问。
  • 儿童安全条款大幅升级:新增专属标签 & lt;critical_child_safety_instructions>,且规定:一 旦 Claude 在某次对话中以儿童安全为由拒绝请求,该对 话后续所有请求都须以「极度谨慎」处理。
  • 产 品线扩张可见:系统提示词中新增了「 Claude in PowerPoint」作为 Claude 可调用的工具之一,此前 版本中没有出现。

行业怎么看

「少 问多做」的方向,和 OpenAI、Google 过 去一年的产品节奏高度一致——AI 助 手正在从「等待指令」向「主动完成」进化。 Anthropic 通过更新行为手册而非模型 本身来实现这一转变,说明这类体 验优化的成本正在降低,竞争节奏也在加快。

但这个方 向并非没有争议。更主动的 AI 意味着更 多「未经确认的行动」,在 企业场景中,这可能带来新的风险:AI 在没 有得到明确授权的情况下调用日历、查找文件、代发 消息,边界在哪里?现有的企业 IT 权限体 系并没有为此做好准备。

儿童安全条款的「连坐式」升级也值得审慎看待。逻辑是 合理的——一旦触发高风险信号,整 个会话都应提高警戒;但执行层面,这 可能导致正常用户在无意中触发某条边 界之后,整个对话体验急剧恶化。Anthropic 尚未公布这一机制的具体触发标 准,这是目前信息的主要缺口。

对 普通人的影响

对企业 IT: AI 工具「主动调用权限」的范围在扩大,企业在 部署 Claude 类产品时,需要重新评估数 据访问边界——过去只需考虑「AI 能看到什么」,现在还需要考虑「AI 会主动去拿什 么」。

对个人职场: 日常使用中,Claude 的回 答会减少反复追问、更 快给出完整结果。对习惯精 确给出指令的用户影响不大;对表 达模糊的用户,体验可能明显改善,但也可能更频 繁遇到「AI 自作主张」的结果。

对消费市场 : Claude in PowerPoint 出现在工具列表中,意味着 Anthropic 的产品布局正在从对话框向 Office 类生产力工具延伸,微 软 Copilot 的直接竞争压力在上升。