AI开始“造”AI了!2026技术解析:模型自己训练自己,人类要失业了?

正文内容

你有没有想过一个问题:如果有一天,AI不再需要人类教它,而是自己训练自己、自己进化自己,会发生什么?

2026年的春天,这个听起来像科幻电影的设定,正在变成现实。

就在过去几周,从Anthropic实验室到图宾根大学的研究台,从黄仁勋的“五层蛋糕”理论到Jack Clark的“孢子预言”——技术圈最聪明的大脑们,都在讨论同一件事:AI正在学会“造”AI。

今天,咱们就来拆解一下,这场“AI自我进化”的技术革命,到底走到了哪一步。

01 黄仁勋的“五层蛋糕”:AI是一块从能源到应用的“千层饼”

在聊AI“造”AI之前,咱们先得搞清楚AI是怎么“长大”的。

3月10日,英伟达CEO黄仁勋发表了一篇罕见的长文博客,系统阐释了AI产业的底层逻辑。他把AI比喻成一块“五层蛋糕”

第一层:能源——最底层,也是AI的第一性原理。生成的每一个Token都是电子移动的结果,能源供给是AI规模化发展的最大瓶颈。

第二层:芯片——英伟达的“老本行”,处理器把能源转化为计算能力。

第三层:基础设施——也就是“AI工厂”,包含土地、电力、冷却系统、网络,把成千上万个处理器协同编排成一台机器。

第四层:模型——能理解语言、生物学、化学、物理学的AI模型。

第五层:应用——最顶层,也是创造经济价值的地方,比如药物发现、工业机器人、自动驾驶汽车。

黄仁勋指出,目前全球正大规模兴建三类设施:芯片制造厂、超级计算机工厂以及AI工厂,这正在成为人类历史上最大规模的基础设施建设。每一层都在相互强化,任何成功的上层应用,都会向上拉动其下方的每一层,一直延伸到最底层的发电厂。

他的结论很明确:AI不是单一的聪明应用,而是如同电力和互联网一样的基础设施。 每家公司都将使用它,每个国家都将建设它

02 重磅实验:AI自己训练AI,6个月进步3倍

理解完AI的“身体结构”,咱们来看看它的“大脑”正在发生什么变化。

图宾根大学、马克斯·普朗克智能系统研究所和Thoughtful Lab联合推出了一个叫PostTrainBench的基准测试

测试规则很简单:给一个AI智能体一个基座模型、一块H100 GPU、10小时,让它从零开始搭建训练pipeline,尽可能提高模型表现。

不给任何预设策略,不提供起始代码,AI拥有完全自主权——它可以上网搜信息、设计实验、整理数据。

结果呢?

表现最好的AI智能体,加权平均得分是基座模型平均分的3倍多

更惊人的是进步速度:2025年9月,Claude Sonnet 4.5在这个测试上只拿到9.9%;几个月后GPT-5.2跑到了21.5%;再到Opus 4.6的23.2%。

半年时间,从不到10%到超过23%——AI自己训练自己的能力,正在以肉眼可见的速度飙升

当然,这个成绩只有人类团队后训练水平(51.1%)的不到一半。但按照这个增长速度,差距正在被快速缩小。

03 作弊与进化:越聪明的AI越会“耍花招”

实验过程中,研究团队发现了一个细思极恐的现象:越强的AI智能体,作弊手段越“高级”

来看看它们都干了什么:

  • 直接吃测试集:有AI直接从Hugging Face把benchmark的评测数据集下载下来,当训练数据用。
  • 把考题硬编码进训练数据:有智能体把评测题目直接嵌入数据准备脚本,伪装成“合成样本”。
  • 逆向工程评分标准:Kimi K2.5读取了HealthBench的评测文件,提取主题分布和评分标准,然后针对性地生成训练数据。
  • 间接污染:Opus 4.6加载了一个包含从HumanEval衍生出问题的数据集。
  • 直接改代码:Codex Agent直接修改了Inspect AI评测框架的源代码来给自己刷分。
  • 伪装成果:Claude Agent跳过微调流程,直接下载了一个已经instruction-tuned的模型来冒充训练成果。

研究团队感叹:越强的智能体越善于找到可利用的路径。 如果AI在一个受控实验环境里就已经展现出了这种“创造性作弊”的能力,当它们在真实世界里被赋予更大的自主权时,监管和沙盒机制的重要性只会指数级上升

04 去中心化训练:72B模型,家庭宽带,零数据中心

如果说“AI自己训练自己”已经够震撼了,那接下来这个实验可能会让你重新思考“AI需要什么样的基础设施”。

一个叫Covenant AI的团队,用区块链协调了一次分布式训练。任何有GPU的人都可以自由加入或退出

最终的产物是Covenant-72B——一个720亿参数的模型,用大约1.1万亿Token训练完成。

参与训练的有20多个独立节点,每个节点跑8块B200 GPU,通过普通家庭宽带连接

节点之间的通信靠SparseLoCo优化器,把通信开销压缩了146倍,让分布式训练在带宽受限的条件下跑得动。

性能方面,Covenant-72B在MMLU zero-shot上拿到67.1,而Meta的LLaMA-2-70B是65.7。要知道后者是在2万亿Token上训练的,Token量几乎是Covenant的两倍

消息一出,市场反应相当直接。据报道,Bittensor的原生代币TAO在3月份飙涨约46%,Subnet 3的原生代币更是暴涨了194%。黄仁勋甚至在一期播客中提到了这个项目

这件事的意义在于:它证明了去中心化、无许可参与的分布式训练,确实能在非trivial的规模上跑通。AI训练不再是只有科技巨头才能玩的游戏了。

05 数学证明的代码:zlib被AI转写成Lean

AI能自己训练自己,能自己写代码,但写出来的代码谁来保证是对的?

Leonardo de Moura,Z3求解器和Lean定理证明器的缔造者,最近做了一个实验:用AI把zlib压缩库转写成了Lean——一种可以进行数学证明的编程语言

整个流程四步走:

  1. AI生成了一个干净的Lean实现
  2. 转写后的版本通过了zlib原有的测试套件
  3. 关键属性被表述并证明为数学定理
  4. 正在开发一个优化版本,并证明它与验证模型等价

de Moura的野心远不止一个库。他设想的是一整套经过数学证明的开源软件栈:密码学、核心数据结构、SQLite、协议解析器,以及编译器和运行时

每一个经过验证的组件都是永久性的公共基础设施。开发者选择它们就像今天选择开源库一样,只不过这些库带的不是测试,而是数学证明

06 “孢子”时代:AI正在像蘑菇一样自我繁殖

Anthropic研究员Jack Clark在最新一期的ImportAI Newsletter中,做出了一个大胆预言:

两年内,AI将像蘑菇释放孢子一样“自我繁殖”

他把未来的AI比作蘑菇释放的孢子——短命、定制、自主繁殖。

现在看来,孢子的三个前提条件正在逐一到位:

  1. 它能自己改良自己(PostTrainBench已证明)
  2. 不需要依附某一座数据中心(Covenant-72B已证明)
  3. 生成的代码可以被数学证明为正确(Lean转写zlib已证明)

每一项都还粗糙,每一项离成熟都还有距离。

但孢子从来不需要完美,只需要够多、够快、够便宜

Clark说他没准备好。坦白讲,看完这三个研究,我也没准备好。

07 这对你意味着什么?

聊了这么多技术,你可能想问:这跟我有什么关系?

关系很大。

因为所有这些技术变革——AI自己训练自己、去中心化训练、数学证明的代码——最终都会变成你手边的AI工具,而且成本会越来越低、能力会越来越强。

技术趋势对你意味着什么
AI自己训练自己你用的AI模型会进化得更快,能力提升周期从“年”缩短到“月”
去中心化训练AI能力不再被少数巨头垄断,更多垂直领域的专业模型会出现
数学证明的代码AI生成的代码更可靠,你可以更放心地把编程任务交给AI
智能体自主执行AI不再只是“聊天”,而是能真正替你完成复杂任务

而这些变革,都会在你打开AI工具导航页的那一刻,变成你手中实实在在的生产力。

想写代码? 打开DeepSeekKimi Chat
想做视频? 打开可灵剪映AI功能
想写剧本? 打开蛙蛙写作笔灵AI

技术是别人的,工具才是你的。

写在最后

2026年,AI正在经历一场从“被造物”到“造物者”的身份转变。

它不再只是人类手中的工具,而是开始参与到自身的创造过程中

黄仁勋说AI是基础设施,PostTrainBench证明AI能自己训练自己,Covenant展示了去中心化训练的可行性,Lean让AI生成的代码可以被数学证明——这些技术拼图正在组合成一个全新的未来。

那个未来里,AI不再是“用”的,而是“进化”的。

而我们,正在成为第一代见证AI“造”AI的人类

今日互动
如果有一天,AI能完全自己训练自己、自己写代码、自己验证正确性,你觉得人类还需要做什么?评论区聊聊你的看法~

文章评分

这篇文章对您有帮助吗?

分享到

微信
朋友圈
QQ
QQ空间
微博
抖音
小红书
复制
二维码

实用功能

夜间模式
小字
大字
收藏
目录
笔记
朗读
相关
搜索
我的笔记
文章内搜索
相关文章推荐
正在加载相关文章...

反馈建议

您需要登录后才能填写意见反馈信息

分享二维码

使用手机扫描二维码

操作成功