事件概 述
掘金平台上,一位匿名工程师发布了一篇关于 Anthropic Claude Code 的详细架构
拆解文章,系统性地剖析了该 Agent 的内部源码结构,重点
聚焦于 src/ 目录下的核心组件,包括 QueryEngine.ts、autoCompact.ts
和 prompts.ts。分析涵盖四大核心子系统:QueryEngine Agent 循环、上下文与
记忆管理、集成 MCP 的工具生态系统,以及基于 React Ink 构建的 CLI 界面。
需要说明的是,这并非 Anthropic 的官方披露, 而是针对 Claude Code 可公开观测源码结构的第三方逆向工程分析, 以指南形式发布,面向希 望复用类似架构模式的 AI Agent 公司。
为何值得关注
Claude Code 已 逐渐成为生产级 Agent 设计的参考实现。文章指出,这里 记录的架构选择——尤其是上下文压缩与工具 粒度的处理方式——代表着大多数 Agent 初创公司正在 犯错的非显而易见的工程决 策。
- 上下文窗口的成本经济学:将
完整对话历史原样传入 LLM 被认定
为成本和延迟失控的主要原因。Claude Code 的
autoCompact.ts实现了滑动窗口 摘要机制,在触及 token 上限之前, 将失败的工具调用和冗长的错误堆栈进行折叠压 缩。 - MCP 作为护城河策略:分析认为,硬编码的 API 集成是一条 死路。实现单一 MCP 客户端并路由到社区维护的 MCP Servers(GitHub、Notion、Postgres 等) 被定义为构建工具生态覆盖的最快路径。
-
Sub-Agent 架构:分析指出,由单一 Agent 处理复杂任务链
会导致幻觉或任务上下文丢失。Claude Code 的
AgentTool会 为有明确边界的子任务 fork 出独立的 Sub-Agent——还可以选择将这些子任务路由到成本 更低的模型——并仅将最终结果返回给主进程。
对于正在评估 Agent 框架或构建内部编程助手的 C TO 而言,这些模式具备直接可移植性。分析中包 含的三阶段实施路线图提供了一条具体的、5 至 6 周可落地的执行路径,所用 工具均为开源方案。
技术细节
QueryEngine: Agent 循环
核心运行时(QueryEngine.ts、query.ts)被描述为远
不止一个请求/响应封装层。它包含一个微任务调度器,支持执行中途
中断、用户授权钩子,以及自动重试与降
级逻辑。Permission Mode 在循环层面统一管理,而非下放至
单个工具层面。
Prompt 缓存架构
系统提示通过 prom
pts.ts 中的 SYSTEM_PROMPT_DYNAMIC_BOUNDARY 分为两层:一层是静态全局层,可
通过 Anthropic 的 Prompt Caching API 实现跨会话缓存;另一层是动态的
每会话层。分析指出,这一设计可在高频调用场
景下显著降低延迟和 API 成本。
自动压缩(Auto Compaction)
当对话历史接近 token 上限时,autoCompact.ts 会触发后台
摘要任务。该机制可执行完整上下文折叠或微
压缩(microcompaction),仅保留关键决策树和最终结论。分析建议将
其实现为中间件拦截器,使用 tiktoken 进行 token 估算,并以 20,000 token 为
触发阈值。
工具粒度
Claude Code 并未采用单
一的通用 Shell 执行工具,而是暴露了一
系列离散、高内聚的工具:BashTool、FileReadTool、FileEditT
ool、GlobTool、GrepTool。分析认为,工具粒度与容
错能力是决定 Agent 在生产环境中能力上
限的首要因素。
MCP 客户端集成
原生 MCP 客户端
支持位于 src/services/mcp/ 目录。外部数据库、API 和工具集通
过 Model Context Protocol 接入,无需修改核心 Agent 代码。
CLI 渲染层
终端界面基
于 React Ink 构建(src/ink/、src/components/),在纯 CLI 环境中实现了
流式输出、进度条和组件级局部刷新。分析指出,实时
执行透明度——展示思考流、实时命令输出、文件读取进度——
是一种信任机制,而非视觉装饰。
推荐实施技术栈
分析提出了一条三阶段构建路径:
- 第一阶段(1-2 周):使用 Node.js/TypeScript,搭配
Vercel AI SDK 的
streamText和原生tools字段;使用@modelcontextprotocol/sdk接入 MCP;CLI 层采用@clack/prompts或 Ink,Web 流式 UI 使用 Next.js。 - 第二阶段(2-3 周):为静态系
统提示和工具 schema 添加
cache_control标记;实现自 动压缩中间件;构建四个最小化文件工具:search_files、search_ code、read_file(支持分页)和一个编辑工具。 - 第三
阶段:实现 Sub-Agent 调度,以及
通过
MemDir等价方案实现项目级上 下文存储的持久化记忆。
后续观察点
- MCP 采用速度:分析将 MCP 定位为胜出 的集成标准。关注未来 30 天内企业工具厂商添 加原生 MCP Server 支持的动态——采用速度将验 证或挑战这一判断。
- Anthropic Prompt Caching 定价:所描 述的缓存架构能够实现规模化成本节约,前 提是 Anthropic 维持当前的 Prompt Caching 定价层级。若 Q 3 出现任何定价调整,将对该 模式的经济性产生实质性影响。
- 竞争 Agent 框架: LangGraph、LlamaIndex Workflows 和 AutoGen 均在向类似的循环加 工具架构收敛。关注这些项目是否会在近期版 本中明确采用自动压缩或 MCP 优先的集成模式。
- Claude Code 开源 状态:此次分析的深度暗示作者 具备相当程度的源码访问权限。若 Anthropic 转向更为开放 的 Claude Code 组件授权模式,文中描述的借 鉴模式将变得更易于直接实现。