一位开发者本周公布用 Futhark(函数式数据并行 GPU 编程语言,学术圈产物,工业界几乎无人用)重写 microgpt(极简 GPT 实现)的第一阶段进展——项目本身不是新闻,但它指向一个值得关心的信号:AI 的学习路径正从「怎么调用」转回「怎么制造」。
这是什么
microgpt 是极简版 GPT 模型实现,代码量小到可以通读,目的是教学而非生产。Futhark 是一种函数式数据并行语言,专为 GPU 计算设计,类似 Haskell 但远更冷门。开发者正在把前者移植到后者上,本周发布第一部分。本质是个人学习项目,没有商业意图。
行业怎么看
一个反趋势正在出现:大多数人忙着调大模型 API 时,一批技术人却在做「极简复现」——用最少代码从零实现 GPT。karpathy 的 nanoGPT 是这一路线的典型。支持者认为,自己造过一遍才能真正理解注意力机制等核心概念,这是 AI 工程师的基本功。反对声音同样明确:这对绝大多数从业者没有直接价值,企业需要的是会选模型、排错、做落地的人,不是会写 GPT 的人。造轮子的时间不如学 RAG(检索增强生成,让大模型查询外部知识库再回答)或 Agent(AI 自主规划执行多步骤任务)来得实际。
对普通人的影响
对企业 IT:项目本身无商业价值,但团队有人主动做这类探索说明在建立深层理解力,这类人排错选型往往更快,值得给空间。对个人职场:「会调 API」的窗口期正在关闭,懂原理的人在模型选型和异常排查上优势会越来越明显。对消费市场:短期无影响——Futhark 连多数程序员都没听过,不会出现在任何产品里。