黄仁勋回应一切:木匠、水管工看到 Al 应该最兴奋

在工作中倒下,是最好的结局

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

如果要找一个人来解释这场 AI 大爆发究竟是怎么发生的,黄仁勋无疑是最合适的人选。

三十年前创立英伟达、押注图形处理器,把 CUDA 强行装进游戏显卡,市值从 80 亿跌至 15 亿,然后用十年爬回来。在所有人还在争论推理芯片会不会只是低端市场时,他已经在为智能体时代设计机架架构。

这种提前预判,显然不只是运气,也离不开他几十年如一日做的一件事:在所有人相信之前,先把那个未来讲给所有人听。

今天,知名播客主持人 Lex Fridman 公开了他与黄仁勋长达两小时的深度专访。

对话涵盖 CUDA 护城河、中国科技生态、编程的未来,DLSS5、乃至意识与死亡。这是黄仁勋近期最完整的一次公开表达,也是迄今为止最接近他真实思维方式的一次记录。

附上黄仁勋采访文字版实录 🔗:https://lexfridman.com/jensen-huang-transcript

一个问题,60 个专家同时在场,这就是英伟达开会的方式

采访开篇,Fridman 指出英伟达已将设计重心从单芯片扩展至机架级别,涵盖 GPU、CPU、内存、网络、NVLink、光纤与铜缆互联、供电、冷却、软件以及机架本身。他问黄仁勋:在如此多变量的协同设计中,最难的部分是什么?

黄仁勋首先解释了极致协同设计为何从工程逻辑上不可回避。

他说,问题的根源在于规模:当你把一个任务分布到一万台计算机上,你期望的结果是获得远超线性叠加的加速效果,比如一百万倍的提升,而单纯增加计算机数量只能带来线性收益。

这就是阿姆达尔定律的约束,也就是说,如果计算只占总工作量的 50%,即便把计算速度提升到无限快,整体也只能加速两倍。

「一旦你把问题分布出去,所有东西都会成为瓶颈。CPU 是问题,GPU 是问题,网络是问题,交换机是问题。分布式计算在我们这个规模下,每一个环节都必须同时攻克。」

在组织层面,黄仁勋透露自己的直接汇报超过 60 人,几乎涵盖所有技术学科的顶尖专家:内存、CPU、光学、GPU 架构、算法、设计,无一缺席。他刻意放弃一对一汇报制度,改为让所有人同时在场讨论任何一个具体问题。

「因为我们在做极致协同设计,所以任何一次讨论都不可能只有一个人在场。我们呈现一个问题,所有人一起攻。当我们讨论冷却,网络专家在听;当我们讨论供电,内存专家在听。谁要是对本该关注的事情没有关注,我会直接点名。」

他将公司架构比作操作系统,认为公司的组织结构应当直接反映它所处的环境和它要生产的产品,而非套用统一的「汉堡式」或「软性」组织图或者和汽车公司组织图。

把 CUDA 塞进游戏显卡,是最痛苦也是最关键的决定

在讲述英伟达的战略演进时,黄仁勋也详细梳理了从图形加速器到计算平台的转型路径。

他说,英伟达最初是一家加速器公司,专注于图形处理。专业化的好处是极致优化,问题在于市场边界天然受限,而市场规模直接决定研发投入能力,研发能力又决定了一家公司在计算领域能发挥多大的影响力。

于是英伟达必须拓宽边界,向通用计算迈进,但通用性和专业性之间往往存在天然的矛盾:越向通用计算靠拢,专业加速能力就越被稀释。

「我把这两个本质上矛盾的词硬连在一起,公司必须一步一步走那条极其狭窄的路,在扩展计算边界的同时,守住最重要的专业化能力。」

第一步是可编程像素着色器,第一次向可编程性迈进。第二步是在着色器中加入 IEEE 标准兼容的 FP32 浮点运算,这一步吸引了那些此前在 CPU 上做流处理和数据流计算的研究者。他们发现,GPU 的计算密度极高,又能兼容他们原有的软件逻辑。这直接促成了 Cg 语言,再到 CUDA。

将 CUDA 搭载到 GeForce 消费级显卡是整个历史中最关键也最痛苦的决策。

黄仁勋说,计算平台的价值完全取决于装机量,而不是架构的优雅程度。他举 x86 为例:这是历史上被批评最多的架构,远没有同期那些被顶尖计算机科学家精心设计的 RISC 架构优雅,但 x86 活下来了,RISC 大多失败了。原因只有一个:装机量。

「当时 GeForce 每年出货数百万块显卡。我们说,不管用户用不用 CUDA,都把它装进每一台 PC 里,用这个作为培育装机基数的起点。同时我们去大学里写教材、开课程、到处推广 CUDA。在那个年代,PC 是主要的计算载体,没有云,我们等于把超算塞进了每一个在校学生和研究人员的手里,总有一天会有惊喜发生。」

代价是惨烈的。CUDA 让 GeForce 的成本大幅上升,将英伟达的毛利率彻底压垮,公司毛利率本已只有 35%,成本增加 50% 之后,全部利润蒸发。市值从约 80 亿美元一路跌至 15 亿美元,在底部徘徊了相当长的时间。

「但我们一直扛着 CUDA,一直搭载在 GeForce 上。英伟达是 GeForce 建起来的家,是 GeForce 把 CUDA 送到了所有人手里。研究人员和科学家在大学里发现了 CUDA,因为他们本来就是游戏玩家,他们自己攒电脑,他们拿 PC 组件搭集群。」

后来,这成为深度学习革命的基础设施。对于如何作出这类赌注式决策,黄仁勋说,他的决策过程始于好奇心,然后是推理。当推理系统在内心足够清晰地呈现出「这件事一定会发生」时,他便开始相信它,而一旦相信,就会去实现。

但更重要的是他管理集体信念的方式:他从不等到决策那一天才宣布,而是通过每一次外部信息、工程里程碑、行业新发现,持续向董事会、管理团队、员工、合作伙伴一点一点地铺设认知基础。

「到了宣布的那一天,我希望所有人的反应是:『Jensen,你怎么现在才说?』收购 Mellanox 是这样,全力押注深度学习是这样,现在 Groq 也是这样,我已经铺垫了两年半。」

他把 GTC 大会描述为向全行业塑造未来认知的工具,不只面向员工,也面向合作伙伴和整个生态。「我们不生产计算机,也不搭建云。我们是计算平台公司,任何人都无法直接购买我们的产品,但我们向所有层级开放平台。在我的产品准备好之前,必须先让所有人相信它将要到来。」

Ilya 说数据耗尽了,黄仁勋说他搞错方向了

对于 Scaling Laws(缩放定律/扩展定律),黄仁勋提出了一个系统性框架,包含四个相互咬合的层次。

第一条是预训练扩展定律。模型越大,训练数据越多,AI 越聪明。

当 Ilya Sutskever 表示「预训练数据耗尽」时,业界一度恐慌,认为 AI 到了天花板。黄仁勋认为这个担忧搞混了方向:人类生产的数据确实有限,但合成数据的比重会越来越高,而且这并不奇怪,人类知识本来就是「合成」的,知识在人与人之间流转、被重新诠释、再创作、再消费。AI 现在已经能够以真实数据为基础大量生成合成训练数据,预训练的瓶颈从数据量转移到了算力。

第二条是后训练扩展定律。通过指令微调、强化学习等方式持续精炼模型能力,这个空间仍然广阔。

第三条是测试时扩展定律,也就是推理阶段的计算投入。

黄仁勋说,当初很多人预判推理是「简单的」,认为推理芯片只需要小而廉价,完全不需要英伟达那样昂贵复杂的产品,将来推理市场会是一个被商品化的低端市场。「这在逻辑上就说不通。预训练是记忆和归纳,是阅读;推理是思考、推理、规划、搜索、尝试、分解陌生问题。思考怎么可能是计算轻量级的?」事实证明他是对的,测试时扩展的计算消耗远超市场预期。

第四条是智能体扩展定律。一个大语言模型变成一个智能体,在测试时去查数据库、使用工具、分配子任务,同时派生出大量子智能体。「扩充英伟达规模最简单的方法是多雇员工,而智能体的分裂速度比雇人快多了。」这些智能体在运行过程中积累大量有价值的经验和数据,其中的精华会反哺预训练,再经后训练精炼,再经测试时增强,形成完整的闭环飞轮。

「归根结底,智能的扩展取决于一件事:算力。」

对于如何在硬件设计层面预判 AI 模型的走向,黄仁勋坦言这是最难的部分之一,因为 AI 模型架构每六个月就会迭代一次,而系统和硬件架构的迭代周期是三年。

英伟达的应对策略包括三条:内部做基础研究和应用研究,自己训练模型,获得一手体感;作为全球唯一与所有 AI 公司同时合作的平台公司,广泛倾听行业前沿的挑战;以及保持架构的灵活性,让 CUDA 能随算法演进而演进。

他举了混合专家模型(MoE)的例子:正是预判到 MoE 的崛起,英伟达才将 NVLink 从 8 路扩展到 72 路,使一个完整的 4 万亿乃至 10 万亿参数模型能够在单一计算域内运行,行为上如同一块巨大的 GPU。

而 Vera Rubin 一代机架相较于 Grace Blackwell 机架,最显著的变化在于增加了存储加速器,引入了全新的 Vera CPU,还有专为智能体任务设计的 Rock 机架,因为智能体工作时需要频繁访问文件系统、调用工具、执行代码,这与单纯运行 LLM 推理是完全不同的工作负载。

「为什么在 Claude Code、Codex、OpenClaw 出现之前,我们就设计好了这一代架构?因为推理根本不需要等到具体产品出现,你只需要坐下来认真思考:一个大语言模型要成为真正的数字工人,它必须做什么?它必须访问文件系统获取真实数据,必须能上网查资料,必须会用工具,必须能派生子任务。这些都不是玄学,就是基本逻辑。」

他还用了一个生动的思想实验:想象十年后最强的 AI 智能体是一个人形机器人,进入你家干活,更可能的情形是它使用你家里现有的工具,比如微波炉,还是它的手指会随时变成锤子、手术刀或者微波发生器?答案显然是前者。「我描述的,其实就是 OpenClaw 几乎所有的核心特性。」

黄仁勋眼中的马斯克:一个把自己变成所有人最高优先级的人

Fridman 提到黄仁勋曾高度称赞马斯克在孟菲斯以四个月时间建成 Colossus 超算,目前已达 20 万块 GPU 的规模。黄仁勋阐述了他从中看到的工程与管理哲学。

他说,马斯克是一个能在多个高深领域同时保持深度的人,同时又是出色的系统思考者。他习惯性地对每一件事追问三个问题:这是必要的吗?必须这样做吗?必须花这么长时间吗?层层追问之后,系统被剥离到最小必要形态,能力却完整保留。

「他也会亲自出现在问题发生的现场。有问题,他就去现场,『把问题给我看』。这种做法能打破大量『这就是我们一贯的做法』的惯性。每个供应商都有很多客户和项目,他的做法是让自己成为所有人项目里的最优先级,而且他是靠亲身示范做到的,不是靠嘴说。」

他描述了 Fridman 也同样经历过的一个细节:马斯克曾蹲在机架旁边和工程师一起研究如何插拔线缆,目的是减少出错概率。「从每一个细节积累起来的直觉,让你能同时看清微观的低效和宏观的系统性问题,然后你才有资格说『让我们换一种完全不同的方式来做这件事』。」

为什么中国科技圈天然倾向于开源

谈及最近访问中国之行,黄仁勋表示,全球约 50% 的 AI 研究人员是中国人,其中大多数仍在中国国内工作。中国科技行业崛起的时间节点,恰好与移动互联网时代高度重合,使他们能够以软件为突破口进入全球竞争。

他认为,中国科技生态之所以能持续输出大量顶尖公司,有几个结构性原因。

第一是竞争烈度。中国并非一个统一的大市场,而是由无数个省和城市组成的竞争体系,这导致每个垂直领域都出现了数量惊人的竞争者,电动车如此,AI 公司亦然,最终在激烈竞争中存活下来的必然是极其优秀的企业。

第二是开放共享的文化。中国工程师圈子高度依赖于学校、公司之间的人际网络,同学就是终身兄弟,朋友就是同行。黄仁勋说,中国工程师的优先级排序是:家人第一,朋友第二,公司第三。这个排序直接决定了他们对待知识的态度。

他们的工程师,兄弟在那家公司,朋友在那家公司,大家都是同学。同学这个概念,在中国意味着一辈子的兄弟。所以他们分享知识的速度极快,根本没有理由把技术藏着掖着,放到开源上就好了。

第三是崇尚工程的社会文化。这是一个崇尚建造的国家。

他由此延伸到英伟达的开源战略,特别提到 Nemotron 3,这是一个 1200 亿参数的开放权重混合专家模型,架构上融合了 Transformer 与状态空间模型(SSM)。

英伟达推进开源有三重动机:其一,自己训练模型是极致协同设计的一部分,能让硬件团队直接感知模型架构的走向;其二,专有模型和开源模型各有必要,开源是让 AI 真正扩散到每个行业、每个国家、每个研究者和学生手中的必要条件;

其三,AI 远不只是语言,生物学、物理、气象、流体等领域都需要专门训练的模型,英伟达要确保每个行业都能获得世界级的 AI 基础模型。

43000 个人和数百万开发者,共同撑起英伟达护城河

被问及英伟达最重要的竞争护城河,黄仁勋给出了一个清晰的排序。

第一是 CUDA 的安装基数。

他说,即便二十年前有人做出了一个技术上更出色的替代架构,比如 GUDA 或 TUDA,也很可能失败。因为决定架构成败的从来不只是技术,而是有多少开发者将自己的软件建立在这个平台上。

CUDA 今天的地位,来自 43000 名英伟达员工数十年的持续投入,也来自数百万开发者将他们的软件栈压注在这个平台上的信任。

他还强调了英伟达执行速度的重要性:任何一个开发者只要选择了 CUDA,几乎可以确定六个月后它会变得更好十倍;他开发的软件能触达几亿台设备、覆盖所有主要云服务商、所有主要行业、所有主要国家;而且他能确信英伟达会在可预见的未来持续维护和改进 CUDA。「把这几点加在一起,如果我是一个开发者,我会首先选 CUDA,并且把最多的资源投入到 CUDA 上。」

第二护城河是生态系统的横向覆盖。英伟达将极其复杂的系统纵向整合,但同时向每一家公司的计算平台横向开放接入,从谷歌云、亚马逊 AWS、微软 Azure,到 CoreWeave、Nscale 这样的新兴算力公司,到制药企业的超算,再到电信基站边缘设备、汽车、机器人、卫星。

一个架构覆盖了全球几乎所有行业。

对于英伟达未来能否达到 10 万亿美元市值,黄仁勋的推演从两个根本性变化出发:计算从检索式转向生成式,意味着算力需求量级跃升;计算机从仓储单元转变为生产工厂,意味着它从成本中心变成了直接与企业营收挂钩的利润中心。他预计世界 GDP 增速将会加快,而计算占 GDP 的比例将达到过去的 100 倍以上。

他提到英伟达的 3 万亿美元收入路径在他看来是「当然可能」的,并没有任何物理定律约束这一数字的实现,更重要的是,英伟达的增长不依赖于从现有竞争对手手中夺取份额,而是依赖于一个几乎从零开始生长出来的全新市场。

「当英伟达是 100 亿美元的公司时,你没法说『如果他们从谁那里拿到 10% 份额就能增长多少』。他们的想象力需要从零构建。但我有的是时间,每一次 GTC 都会让这件事变得更加真实。」

谈及智能体时,他将 OpenClaw 比作「Token 的 iPhone」:「消费者直接能用到了。iPhone 级别的产品到了,它是有史以来增长最快的应用,一飞冲天,就这样。」

玩家对 AI 糊感的愤怒,其实是一面镜子

黄仁勋说,GeForce 至今仍是英伟达最重要的品牌营销策略:人们十几岁时因为游戏认识英伟达,进入大学和职业生涯后自然转向 CUDA 和专业工具。

被问及史上最重要的游戏,他给出两个答案:从文化与行业影响力看是 Doom,它把 PC 从办公工具变成了家庭娱乐设备;从游戏技术看是 Virtua Fighter。近年的代表作则是完整实现光线追踪渲染的《赛博朋克 2077》。

谈及 DLSS 5 引发的玩家争议,他理解那种对「AI 糊感」的反感,承认这是真实存在的审美问题。

但他解释,DLSS 5 的工作前提是三维几何数据的严格约束,每一帧都完全忠实于艺术家定义的空间结构和纹理风格,做的是增强而非覆盖。「玩家以为 DLSS 会在成品游戏上做后处理,这个理解是错的。它嵌入在创作流程里,艺术家决定用还是不用。」系统也完全开放,工作室可以自行训练模型、指定卡通或水彩等任意风格。

他随后作出一个更宏观的观察:玩家对 AI 糊感的敏感,恰恰说明人类真正在乎的是创作者留下的那些不完美的印记。「只要 AI 是辅助艺术家的工具,它就是好的。」

此外他还提到英伟达为游戏开发者提供的次表面散射皮肤着色器,这项技术模拟光线穿透皮肤浅层后散射的物理现象,让游戏人物皮肤呈现出更接近真实的半透明质感。「这些都是工具,由艺术家决定怎么用。我们只是提供工具箱。」

AGI、编程的未来与人类的位置

在 AGI 定义问题上,Fridman 以「能够从零创立并运营一家市值超十亿美元的科技公司」作为测试标准,黄仁勋的回答是:这个门槛,我认为 AI 现在已经达到了。

他设想一个 AI 创建了某款应用,短时间内吸引数十亿用户,完成商业化后退出,这和互联网时代那些昙花一现的爆款网站并无本质差异,而那些网站的技术复杂度远低于 OpenClaw 今天能生成的东西。「我不知道具体会是什么,但我在互联网时代也没有预测到任何那些公司。」他同时强调,100000 个智能体建立一个持续运营的英伟达的概率是零,但创建一个短暂的爆款应用并从中获利,完全可能已经在发生了。

关于编程的未来,黄仁勋认为编程的定义本身需要重写。编程的本质是规格说明,即告诉计算机要构建什么。在这个定义下,能做到这件事的人数量将从 3000 万扩展到 10 亿。每一个木匠、水管工、会计师都将成为自己行业里的创新者,因为 AI 让他们能够以自然语言表达意图,并将其转化为实际产品。「如果我是一个木匠,我看到 AI,我会非常兴奋。如果我是一个水管工,我会完全疯狂。」

他用辐射科医生的案例回应了「AI 会消灭职业」的担忧:计算机视觉在 2019 年前后达到超人水平,曾被普遍预测辐射科医生将消亡。结果是所有辐射科平台都整合了 AI、辐射科医生数量不降反升,现在全球还出现了辐射科医生短缺。原因很简单:能更快读片,就能读更多片,就能服务更多病人,医院营收增加,需要更多辐射科医生。

「那个预警走得太远,吓跑了很多本该进入这个行业的人,这是真实的伤害。英伟达的软件工程师数量只会增加,不会减少。他们的职业目的是解决问题,而解决问题这件事的每一个组成部分,评估结果、团队协作、诊断问题、创新、连接不同领域,这些都不会消失。」

在工作中倒下,是最好的结局

被问及是否思考自己的死亡,黄仁勋的回答十分诚实。

「我真的不想死。我有很好的家庭,有非常重要的工作。这不是『一生难得一次的体验』,而是整个人类文明难得一次的体验,我正在其中。英伟达是历史上最重要的科技公司之一,这件事我非常认真。」

对于继承人规划,他的回应十分出人意料:他说他「不相信继任规划」,但原因恰恰是认真思考了这个问题。如果你真的关心自己离开后公司的命运,那么你今天应该做的,是把你所学、你所理解、你所积累的全部知识、洞察和判断,以最高频率传递给周围所有人。

「每一次会议都是推理会议。我学到的任何东西,没有在我桌上停留超过一秒钟的,立刻就指向某个人:去研究这个,这个东西很了不起,你会想了解它的。我在持续地赋能周围所有人,让他们的能力不断提升。」

他说自己希望的结局是在工作中倒下,而且是瞬间的,没有漫长的痛苦过程。

对于人类未来 100 年的希望,他说他一生都对人性的善意保有高度信心,尽管偶尔会被辜负,但结果一次又一次证明他是对的,而且往往超出预期。

「现在有那么多我们想解决的问题、想建造的东西、想做的好事,都在我们的有生之年变得可以触及。消灭疾病,这是合理的期待。大幅减少污染,这是合理的期待。这一切,怎么可能不让人心动?」

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

莫崇宇
莫崇宇
文章: 71