Import AI 编辑 Jack Clark 抛出一个数字:60% 以上概率,到 2028 年底,AI 系统能自主构建自己的后继版本。这不是科幻臆测,而是基于 arXiv 论文、前沿公司产品部署观察得出的判断。
这是什么
Clark 称之为「无人类参与的 AI 研发」。简单说:今天的 AI 模型需要大量工程师和研究员协作开发;而 Clark 认为,所有必要的技术组件已经就位,AI 系统即将能够端到端地训练自己的下一代。
时间线不是 2026。但未来 1-2 年内,可能在非前沿模型层面看到概念验证。前沿模型更难——成本更高、人力投入更大。
核心逻辑链条:AI 系统本质是软件,软件由代码构成,而 AI 已经在代码生产上展现出显著进步。如果扩展趋势持续,模型将具备足够创造力来提出新的研究路径,替代人类研究员的角色。 Clark 用「跨越卢比孔河」来形容——一旦实现,没有回头路。
行业怎么看
Clark 自己承认这是「不情愿的结论」——影响太大,不确定社会是否准备好。他依赖的是多个基准测试拼出的趋势图,而所有基准测试都有缺陷,单个数据点不可靠。趋势外推本身就是风险:过去的表现不保证未来。
更实质的质疑来自成本维度。前沿模型的训练动辄数千万美元,需要高度协调的工程团队。AI 能写代码不等于能管理涉及数百人、数千 GPU 的分布式训练项目。工程复杂度和资金门槛可能比「创意」更难跨越。目前公开证据更多停留在「AI 能完成局部编码任务」,而非「AI 能统筹一个完整的模型研发项目」。
另一种声音认为,即使 AI 能自动化工程部分,研究中的直觉判断和品味——哪些方向值得追、哪些是死胡同——短期内仍依赖人类。Clark 的预判本质是在赌:扩展定律会把这种「品味」也涌现出来。
对普通人的影响
对企业 IT:如果 AI 研发自动化成真,企业获取定制模型的成本将大幅下降,但技术壁垒消失得更快,竞争优势窗口期会更短。
对个人职场:AI 工程师和研究员是受冲击最直接的人群。短期内更可能改变招聘结构——减少初级岗位,保留能判断方向的资深角色。
对消费市场:最终用户感受到的不是「AI 造 AI」本身,而是模型迭代加速带来的产品更新节奏——今天的先进功能,三个月后可能变成基础配置。