(来源:DeepTech深科技)
在“AGI 近在咫尺”的热潮中,这位 AI 领域的核心人物选择踩下了刹车。Andrej Karpathy,曾任特斯拉 AI 总监、OpenAI 创始成员的硅谷顶尖技术专家,近日在 Dwarkesh Patel 的播客中发表了一场长达两个多小时的深度对话,并在随后发布的长文中系统阐述了他对人工智能发展的思考。
从 AGI 时间表、强化学习的局限、智能体的真实能力,到教育与人类未来的图景,Karpathy 系统地提出了一个核心观点:“AGI 仍需十年。但这是一个乐观、但需要冷静面对的十年。”
他以自动驾驶的十年征途、代码生成的缺陷、以及“无声崩溃”的模型现象,为当前整个行业对未来的狂热预期校准了表达方式。

近年来,随着大型语言模型(LLM)能力的飞跃,从“AI 元年”到“AGI 元年”的口号不绝于耳,行业内的普遍预期似乎已将 AGI 的实现压缩到了短短几年之内。Karpathy 对此持有保留态度。他认为,当前行业中弥漫着过度预测的倾向,而这种过于激进的期待忽视了现实层面的复杂性和偶然性。他强调,更加准确的表述应该是我们正步入“智能体的十年(Decade of Agents)”。
从业二十年的经验告诉 Karpathy,当前被寄予厚望,认为可以替代实习生、甚至是正式员工工作的的智能体,目前来说“根本还跑不通”。他指出了当前智能体存在的根本性认知缺陷(Cognitive Deficits)——缺乏真正的持续学习能力。也就是说,你无法真正教会它们某件事,它们的多模态能力仍处初级阶段。在 Karpathy 看来,这些问题无疑是棘手的和困难的,但也是可以克服的。但解决这些问题,至少需要一个十年的尺度。
但这并不代表 Karpathy 正在唱衰 AGI 的未来,相反,他想强调人类确实在过去几年里取得了 LLM 带来的惊人进展,但距离能在任意岗位上取代人类的通用智能,仍有漫长的系统集成与现实约束需要克服,包括对物理世界的感知、执行、社会协调、安全与防护等层面。
Karpathy 的“十年之论”很大程度上源于他领导特斯拉自动驾驶五年的深刻教训。他指出,自动驾驶领域存在一个巨大的演示(Demo)到产品(Product)的鸿沟。尽管在 1986 年就存在过卡车自动驾驶的演示,Karpathy 本人在 2014 年体验 Waymo 时,也获得了近乎完美的驾驶体验,但纵观过去十年,自动驾驶行业仍步履蹒跚。
Karpathy 使用了三个“九”来形容这一过程:实现 90% 的可靠性(第一个九)相对容易,但从 90% 到 99%(第二个九),再到 99.9%(第三个九),“每增加一个九,都需要投入与之前同样多的工作量”。在特斯拉的五年里,他们可能只推进了两到三个“九”。相同的增长曲线也存在于 AI 智能体的发展中,尤其是涉及高风险的软件工程领域。一个表现近乎完美的 AI 程序员,如果每七年(相当于自动驾驶的平均事故间隔)犯一个重大错误,就可能泄露数亿人的社保号码,其后果是灾难性的。
目前,行业对 AGI 路径的最大赌注之一是“AI 自动化 AI 研究”,即 AI 智能体通过编写代码实现递归式自我改进。然而,Karpathy 以自己构建 nanochat(一个 ChatGPT 的极简复刻版)的亲身经历,对此提出了反对意见。他发现,在编写这种智力密集型的、非样板化的新代码时,现有的 AI 编程助手几乎没有帮助。他将当前的代码 AI 斥为残次品(Slop)。
具体而言,Karpathy 认为 AI 的认知缺陷表现在三个层面:
第一是无法理解“定制化”:当 Karpathy 没有使用 PyTorch 标准的 DDP(分布式数据并行)容器,而是编写了自己的同步程序时,AI 助手完全无法理解,并非常焦虑地试图让他用回标准库;
第二是“臃肿与过时”:Karpathy 认为,AI 助手倾向于过度防御,编写大量“try-catch”语句,试图构建生产级代码库,导致代码臃肿,并且频繁使用“已弃用的 API”;
第三是“高昂的沟通成本”:他发现用自然语言向 AI 解释自己想要什么(Vibe Coding)效率极低,远不如自己定位到代码,输入前几个字母,让自动补全来完成。
一言以蔽之,Karpathy 认为整个行业都高估了 AI 的自主性。他更认同于自动滑块(Autonomy Slider)的比喻:AI 目前更像是一个更好的编译器或语法高亮(highlight),而不是一个自主的程序员。人类正在缓慢地提升自己的抽象层次,但远未到被取代的时刻。
同时,Karpathy 多次批评强化学习(RL),认为它是用吸管吸监督信号的低效方式。在他看来,RL 的信号稀薄且嘈杂存在着错误答案可能被奖励(误打误撞),和正确推理可能被惩罚(后续出错)的情况。他看好的是新的学习范式,比如系统提示学习(System Prompt Learning)与基于智能体交互的学习(Agentic Interaction)。
这些思路试图让模型通过持续交互和任务驱动形成学习闭环,而不是靠脆弱的奖励函数。
他认为,ChatGPT 的记忆系统就是这种新型学习范式的早期原型。
除此之外,Karpathy 还提出了 Cognitive Core(认知核心)的概念,即通过剥离模型的记忆能力,让它更好地泛化。他指出,人类记忆有限,反而形成了强大的抽象与推理能力;
而 LLM 记忆过多,倾向于复述,而非理解。因此,有意限制模型记忆,可能是一种“正则化”。他还提出,一个反直觉的趋势是:“模型必须先变得更大,然后才能变得更小”——先获得足够的多样性,再提炼出核心结构。
对于业界最关心的AGI 是否会带来经济爆炸问题,Karpathy 给出了最出人意料的答案:不会。
他预测,AGI 的到来,将平滑地“融入”过去数百年 2% 的 GDP 年增长曲线中。Karpathy 认为,AI 并非一种全新的、能打破规律的技术,它从根本上是计算的延伸。纵观历史,无论是计算机的发明、互联网的普及,还是 iPhone 的诞生,这些“革命性”技术都没有在 GDP 曲线上造成一个突兀的“尖峰”。它们的影响是巨大的,但扩散是缓慢的、渐进的,最终都被平滑地吸收到 2% 的增长中。
“我们已经处于一场智能爆炸中数十年了,”Karpathy 说,“只是我们在以慢动作的方式经历它”。从工业革命开始,自动化和递归式自我改进就一直在发生。编译器是早期的软件自动化,Google 搜索、IDE,乃至今日的 AI,都只是这条平滑曲线上的最新一步。AGI 不会改变这条曲线的斜率,它只是“使我们能继续保持在 2% 增长轨迹上”的原因。

在为行业的狂热降温后,Karpathy 也分享了自己的下一步——创办教育项目“Eureka”。他坦言,他最恐惧的未来不是 AGI 失控,而是《机器人总动员》(WALL-E)或《蠢蛋进化论》(Idiocracy)中的景象:人类被 AI 剥夺了权力,沦为无用的旁观者。
他将自己的项目比作“星际舰队学院”(Starfleet Academy),一个旨在培养人类精英、驾驭前沿技术的机构。他认为,教育是一个构建知识坡道的、高难度的技术问题。Karpathy 描绘了一个“AGI 之后”的教育图景。届时,教育的目的不再是有用(为了赚钱),而是有趣(for fun)。他将其比作去健身房:现代人不需要强大的体力来搬运重物,但人们依然健身,因为它“有趣、健康,而且‘六块腹肌’看起来很性感”。
他相信,当 AI 消除了学习的“摩擦力”(那种因为太难或太简单而“碰壁”的痛苦感),学习本身将成为一种乐趣和自我实现。在 Karpathy 的设想中,人类的未来不是被机器取代,而是借助技术,实现“超人化”的认知繁荣。
参考资料:
1.https://www.dwarkesh.com/p/andrej-karpathy
2.https://x.com/karpathy/status/1979644538185752935
运营/排版:何晨龙
