AI 电源链的国产 MCU 缺口
## 01 触发事件
7 月,36kr 援引产业链消息称,国民技术已经开始对“全球顶级电源管理大厂”批量供货,相关电源监控芯片已稳定量产,单价 1.5~2 美元;同时,两款通信类芯片预计今年 7 月送样,目标是进入该客户更核心的国产 MCU 配套体系。
这条新闻表面上像一则国产芯片供应链突破。
但真正值得看的是三个具体点:批量供货、AI 电源需求、以及 1.5~2 美元的 ASP。
我没在这个客户的 AVL 或设计导入链路里核实过,所以对“全球顶级电源管理大厂”是谁,仍要保留判断空间;不过仅从表述看,这不是实验室验证,而是已经跨过 sample 阶段、进入量产采购。
批量供货,单价 1.5~2 美元,电源监控芯片已稳定量产。大量海外 AI 电源、光通信公司开始大规模采购国产 MCU,以应对高速扩张的算力和 AI 电源需求。
这句话真正传出的信号,不在 MCU,而在 AI 基建的长尾器件开始吃紧。
## 02 这事的真正含义
这不是“某家中国 MCU 公司拿下海外客户”这么简单。
这才是它在说的事:AI 基建扩张已经从 GPU、HBM、光模块,向电源管理和板级控制层传导,而且传导到了过去几乎没人写长文分析的 MCU 环节。
为什么这重要?
因为 AI infra 的现实,不是只有训练集群和推理 token。真正决定集群能不能交付、机柜能不能上线、PSU 能不能稳定运行的,是一整套被低估的配套:电源管理 IC、监控 MCU、BMC、风扇控制、热管理、光通信配套控制器。GPU 再贵,没有这些器件,机柜也只是资产负债表上的在建工程。
问题不在 MCU 本身多先进,而在它是否成为交付 bottleneck。
对 AI builder 来说,这意味着推理成本曲线不再只是“模型效率提升”或“GPU 单价下降”的函数。那个真正会被定价的是完整系统可交付性。只要电源链条、光通信链条、板级控制链条有任何一个环节短缺,token 价格就很难顺畅下行。
这也是为什么 1.5~2 美元这种看似很小的 ASP 值得看。因为当一个低 ASP 器件进入关键系统位点时,它的战略价值会远大于 BOM 占比。AWS 当年真正厉害的不是买到最便宜的服务器,而是能把所有零部件供应、运维、调度、上架节奏统成一个系统。AI infra 现在也在重演同样逻辑。
我没拆过国民技术这颗具体电源监控芯片的性能、可靠性和固件生态,所以不能断言它有长期技术 moat。但如果海外 AI 电源和光通信公司开始大规模采购国产 MCU,说明至少有两件事已经发生:
第一,非 GPU 环节的供需紧张足以改变全球采购偏好。
第二,客户愿意为了 supply assurance 接受新的 vendor qualification 成本。
这比“国产替代”四个字重得多。因为一旦客户愿意改 AVL,switching cost 就已经被提前支付了一部分。后续只要质量和交付不出大问题,份额就不容易再完全回退。
## 03 历史类比 / 结构对照
这更像 2014 年前后的 AWS 供应链时刻,而不是 2022 年 ChatGPT 的产品时刻。
ChatGPT 代表需求爆发。
AWS 的真正拐点,则是市场意识到:云不是一堆服务器,而是一套从芯片、网络、存储、电源到软件调度的完整工业系统。谁能控制交付链,谁就能控制利润池。
AI 行业今天正从“模型即产品”走向“系统即产品”。
过去两年,市场注意力几乎全在大模型发布节奏:OpenAI、Anthropic、Google、Meta、DeepSeek、Qwen。可如果你把时间轴拉长,会发现真正影响 token economics 的,往往不是 benchmark 排名,而是供给侧基础设施的隐性约束:HBM 容量、CoWoS 封装、机柜功率密度、液冷、电源转换效率、光互连,以及这些系统周边的一堆控制芯片。
2008 年金融危机后,很多人重新理解了一个事实:价格不是由纸面资产决定,而是由流动性决定。
AI infra 也是一样。模型能力不是唯一约束,系统流动性才是约束。这里的“流动性”就是可采购、可验证、可量产、可上线的硬件总量。
我可能高估了 MCU 在整个 AI 资本开支中的重要性,毕竟它的价值量和 GPU、光模块完全不在一个量级。但结构上它符合典型的 inflection point 信号:当最不起眼的配套器件开始受益于 AI 需求,说明扩张已经深入供应链毛细血管。
这通常不是短期炒作,而是产能重构的前兆。
## 04 对 AI builder 意味着什么
对大多数 AI builder,这条新闻不意味着你要去研究 MCU datasheet。
它意味着你要重新理解自己的上游成本和风险敞口。
第一,如果你是模型 API 消费者,不要再假设 token 价格会线性下降。模型层的 competition 很激烈,OpenAI、Anthropic、Google、DeepSeek 都在压价或变相让利;但如果底层 AI infra 的非核心器件也在紧张,降价传导会被系统交付成本吞掉一部分。你该做的是更激进地做 model routing、prompt caching、batch API 利用,而不是被动等待供给侧自动吐出更便宜价格。
第二,如果你在做私有化部署或行业大模型项目,现在就该更细地审视硬件交付链。不是只有 GPU 采购合同重要,电源、散热、交换、光模块、板级控制芯片、固件支持都可能决定项目上线时间。我没参与过你们具体项目的机房验收,但这类项目最常见的死法不是模型跑不动,而是系统迟迟无法稳定交付。
第三,如果你是 AI infra 创业公司,这条新闻提醒你 moat 可能不在最性感的 layer。市场喜欢讲模型、Agent、MCP、IDE、Copilot,但真正稳定的利润有时沉在 boring components。只要你的产品位于高增长系统中的必经节点,即便 ASP 不高,也有机会被重新定价。
第四,如果你是看中国供应链机会的投资人或创业者,关注点应从“能不能替代”转向“能不能进入全球主流设计链”。一旦进入设计链并完成量产验证,后面拿更多 socket 的概率会显著提高。AI 扩产阶段,客户最在意的不是口号,而是 second source、交付稳定性和生命周期管理。
这也是为什么我会把这条新闻归到 infrastructure,而不是普通半导体新闻。它反映的是 AI 算力扩张正在向供给链深处传导,连最底层的控制器件都开始出现结构性机会。
## 05 反方观点 / 风险
最强的反方观点是:这可能只是一则被“AI”放大的供应链新闻,离真正行业拐点还很远。
首先,消息源来自产业链和媒体转述,不是客户公告,也没有明确披露客户名称、供货规模、年化收入贡献。没有这些信息,我不能把它直接上升为“全球 AI 电源链正式重构”的铁证。
其次,MCU 导入并不自动等于长期份额。电源和通信相关器件看似低门槛,实际对可靠性、认证、固件稳定性、长期供货都要求极高。今天拿到 sample 或量产订单,不代表明年不会被替换。我可能低估了海外客户对成熟供应商的路径依赖。
第三,AI 需求确实在推高电源和光通信配套,但这未必会持续外溢到所有国产 MCU 厂商。赢家可能只集中在少数能通过验证、能绑定头部客户的公司,而不是整个板块普涨。换句话说,这不是“国产 MCU 全面受益”,而更可能是“极少数进入关键链条的供应商受益”。
第四,从 AI builder 的视角,这条新闻对短期业务决策的影响也可能没有我写得那么大。绝大多数应用团队买的是 API,不是机柜。只要 OpenAI、Anthropic、Google、AWS、Azure、CoreWeave 还在继续扩容,终端开发者未必会直接感受到 MCU 短缺的摩擦。
所以更稳妥的判断是:这不是决定模型格局的大事件,但它是一个值得重视的供给侧边缘信号。
边缘信号的价值在于,它常常比主角新闻更早告诉你,行业真正卡住的地方在哪里。
而这次,卡点显然不只在模型。它已经往电源系统里走了。
相关推荐
最新文章
ai-videoagent
AI视频Agent赚的不是壁垒
36kr这篇稿子真正有价值的不是“AI视频很热”,而是它给出了一个更残酷的结论:这批产品当前赚的是 model access 折扣、交付效率和流量投放套利,而不是 moat。一旦模型厂下场,真正被重估的是 distribution、workflow ownership 与 switching cos
5月7日·36kr.com
replitagent
Replit 的 AI 应用真账本
Replit 创始人在播客里抛出一个少见的硬信号:Agent 首日做到 100 万美元、公司一年从 250 万到 2.5 亿。问题不在励志故事,而在 AI coding 正从工具收费切到 outcome 收费,应用层第一次出现足够大的 token 吞吐与 retention 证明。
5月7日·pdst.fm
ClaudeAnthropic
你写方案时 Claude 总断线?Anthropic 刚把额度上限拉高了
Anthropic 宣布提高 Claude 付费用户的对话额度上限,同时跟 SpaceX 签了算力合作协议。对咱们这种赶交付时老被限流断线的独立创业者来说,意味着少掐着字数用,少中途被打断。
5月7日·www.anthropic.com
Dify自动回复
客户下班找你怕显得不专业?这招帮你自动维持靠谱在线形象
用自动回复工作流帮你秒回客户,维持专业靠谱形象,同时保住自己的休息时间,无需一直盯屏幕。
5月7日·nooneshappy.com
QwenRTX 3090
消费级显卡跑通 100K 上下文 — 本地大模型部署的硬件门槛正在快速降低
一块 RTX 3090 跑 27B 模型、100K 上下文、50 tokens/s,背后是量化+MTP 推测解码+KV 缓存压缩的组合优化。消费级硬件的推理能力正在逼近一年前的企业级方案,关心本地部署的人值得留意这个趋势。
5月7日·www.reddit.com
GoogleChrome
Google 让 Chrome 直接跑 AI 模型 — 浏览器正在变成新的操作系统
Google 开放 Prompt API 测试,网页可直接调用浏览器内置的 Gemini Nano 模型,无需服务器、无需 API Key。这是 Google 对'AI 应用该怎么构建'的回答——把推理从云端搬到设备,把 AI 变成浏览器的基础能力。
5月7日·wil.to