Zig 语言创始人 Andrew Kelley 本周抛出判断:用 AI 辅助写代码的程序员带有明显的“数字气味”,人类审查者一秒就能识别。
这是什么
Andrew Kelley 指出,人们误以为无法区分谁在用 LLM(大语言模型)写代码。但 AI 产生的幻觉错误与人类错误本质不同。依赖 Agent(能自主执行任务的 AI 程序)写代码的开发者,带有一种自己不察觉但旁人一眼识破的“数字气味”,就像不抽烟的人能立刻闻出抽烟者。他的态度很明确:你可以用 AI,但别往我的开源项目里提交 AI 生成的 PR(代码合并请求)。
行业怎么看
我们注意到,开源社区对 AI 生成代码的抵触情绪正在上升。虽然部分开发者认为 AI 提升了产出效率,但项目维护者看到的是大量低质量代码涌入,极大增加了审查成本。值得我们关心的是,当 AI 生成的代码被盲目合并,会埋下难以排查的隐患。也有人认为,随着模型进化,AI 代码未来会更难分辨,Kelley 的“嗅觉优势”不会长久;但当前的现实是:开源维护者正在筑起防线,对 AI 代码实施更严格审查甚至一刀切拒绝。
对普通人的影响
对企业 IT:盲目引入 AI 编程工具可能积累技术债,代码审查流程必须从“看功能”转向“查 AI 幻觉”。对个人职场:用 AI 写代码不等于能力提升,“掩盖 AI 痕迹”正成为部分程序员的新内耗。对消费市场:开源软件的信任标签可能生变,未来“纯人类编写”或许会成为某些软件的安全卖点。