速看:黄仁勋 GTC 2025 演讲 —— Agentic AI 崛起,物理 AI 重塑世界
2025 年 3 月 18 日英伟达 GTC 大会上,CEO 黄仁勋围绕 “Agentic AI 与物理 AI 的未来” 主题,全面且深入地揭示了英伟达在人工智能领域的战略布局与技术突破。
一、AI 发展阶段理论与当前方向
黄仁勋提出 AI 技术演进的三大阶段:生成式 AI、Agentic AI、物理 AI。
目前正处于从生成式 AI 向 Agent AI 过渡的关键节点,未来物理 AI 将成为核心发展方向。
- 生成式 AI 以内容生成为核心;
- Agentic AI 具备自主推理与决策能力,可实现复杂问题解决;
- 物理 AI 则用于操控物理世界,应用于机器人、自动驾驶等领域。
二、硬件技术创新与突破
1. GeForce RTX 5090:
基于 Blackwell 架构,体积缩小 30%,能效提升 30%,性能较 RTX 4090 翻倍,支持 AI 驱动的 DLSS 4 技术。
2. Blackwell Ultra 平台:
采用 5nm 工艺,HBM3e 显存达 288GB,FP4 算力 15 PetaFLOPS;NVLink 72 机柜集成 72 颗 GPU,推理速度达每秒 1000 tokens(为 H100 的 10 倍),并全面转向液冷技术。
推出专为 AI 模型推理打造的 NVIDIA Blackwell Ultra GPU,性能相比上一代 B200 GPU 提升 50% ,还基于此提供了 Blackwell Ultra NVL72 机架式解决方案与 NVIDIA HGX Ultra NVL16 系统,针对复杂 AI 推理任务进行优化。
3. Rubin 架构预告:
2026 年推出,NVLink 144 机柜集成 144 颗 GPU,HBM4 内存,FP4 算力 3.6 ExaFLOPS,2027 年 Ultra 版算力再翻 4 倍。同时还公布了 2028 年发布的下一代 GPU 架构,命名 “Feynman”。
4. 硅光子技术:
实现全球首个 1.6T 共封装光学(CPO),可减少数据中心光模块功耗 90%。
三、NVIDIA GB300
NVIDIA GB300 是英伟达推出的 Blackwell Ultra 新一代 AI 芯片。
1. 性能参数:
芯片:集成更强大的 B300 芯片,采用 12 层堆叠的 HBM3e 技术,搭载 288GB 的 HBM3e 显存,较之前的 192GB 有了大幅提升,显存带宽保持不变,仍为 8TB/s。
计算能力:在 FP4 的计算能力上相比前代产品实现了 1.5 倍的增长,这对于需要进行大量浮点运算的 AI 任务尤为重要。
功耗:TDP(热设计功率)提升至 1400W,较前代增加 200W。
2. 架构设计:
引入 GPU 插槽:采用 Socket 方式替代传统的贴片焊接(SMT),旨在改善计算板良率问题。
回归 OAM + UBB 设计方案:CPU 直接贴装在 UBB 上,GPU 通过 Socket 接到 OAM,再通过铜线连接。
内存方案:在 CPU 内存上首次配备 LPCAMM,替代了 GB200 中的 16 颗 LPDDR5X,提升了内存带宽能力。LPCAMM 具可拆卸特点,允许用户根据需求灵活配置内存容量和类型。
3. 应用场景:
Agentic AI:利用复杂推理和迭代规划自主解决复杂的多步骤问题。AI 智能体系统超越了简单的指令执行,能够推理、规划并采取行动以实现特定目标。
物理 AI:使企业能够实时生成合成的、具有高度真实感的视频,用于大规模训练机器人和自动驾驶汽车等应用。
4. 电源与散热设计:
电源:引入超级电容模组,与电池备份单元(BBU)协同工作,超容可在 0.1 秒内响应负载突变,提供瞬时高功率输出,避免电压暂降导致的宕机风险。采用高压直流(HVDC)供电方案,如台达推出的 400V/800V HVDC 方案可将供电效率提升至 97%。
散热:采用独立冷板设计,每个 GPU 单独配备,取代 GB200 的大面积冷板覆盖方案,水冷管线更密集,UQD 快接头用量增长。
英伟达 GB300 凭借其强大的性能和先进的架构设计,为 AI 推理、Agentic AI 及物理 AI 等应用的开发与部署提供了强大的支持,开启了 AI 推理新时代。
四、推理算力需求与软件系统
1. 推理算力暴增:
由于 Agentic AI 需生成标记量达传统模型的 100 倍(如一次推理生成 8000 + 标记),使得推理算力需求大增,而 Blackwell 推理性能为 Hopper 的 40 倍。
2. Dynamo 操作系统:
作为 “AI 工厂的操作系统”,能够动态分配 GPU 算力,优化 “Token 吞吐量 / 响应速度” 曲线,使 Blackwell 工厂性能较 Hopper 提升 25 倍,目标是实现 “每兆瓦收入最大化”。发布用于加速和扩展 AI 工厂中 AI 推理模型的开源软件 NVIDIA Dynamo,能让 DeepSeek 等推理模型在相同架构和使用相同数量 GPU 的条件下性能提升 30 倍。
五、物理 AI 与机器人生态
1. 开源 Isaac Groot N1 人形机器人模型:
全球首款开源人形机器人功能模型 Isaac GR00T N1,支持双系统认知(慢思考规划 + 快思考执行),可推动仓储、制造自动化,与 Google DeepMind 和迪士尼合作开发名为 Newton 的机器人平台。
2. Omniverse 数字孪生:
通过生成合成数据训练自动驾驶模型,缩小模拟与现实差距;与通用汽车合作构建全栈自动驾驶 AI 系统,并且几乎所有自动驾驶汽车公司都在使用英伟达的技术。
3. 机器人市场前景:
全球劳动力短缺催生 “机器人年薪 5 万美元” 市场,英伟达计划年内让 100% 工程师启用 AI 编码助手。
六、软件生态与行业合作
1. CUDA 生态进化:
全球拥有 600 万开发者,900 + 加速库,新增开源工具 CuOpt(数学规划提速千倍)与 Newton 物理引擎(超实时触觉反馈仿真)。
2. 企业 AI 方案:
推出 DGX Spark(3000 美元桌面级 AI 工作站)和 DGX Station 两款个人 AI 计算机,由 Grace Blackwell 支持,将以前只能在数据中心使用的 Grace Blackwell 架构带到桌面。其中,DGX Station 采用 GB300 Grace Blackwell Ultra,提供更强算力和更大内存。联合戴尔、惠普提供全栈解决方案。
3. 语义存储系统:
与 Box 合作实现 “可交互存储”,通过自然语言直接检索数据。
4. 6G 网络合作:
宣布与 T-Mobile、MITRE、思科、ODC 和 Booz Allen Hamilton 合作开发 AI 原生 6G 无线网络的硬件、软件和架构,电信公司将在 NVIDIA AI Aerial 平台上为 6G 构建 AI 原生网络堆栈。
5. 量子计算研究:
将在波士顿建立英伟达加速量子研究中心(NVAQC),把领先的量子硬件与人工智能超级计算机集成,助力解决量子计算中的挑战性问题。
七、市场展望与挑战
尽管技术亮点频出,英伟达股价在演讲期间下跌 1.76%,市场担忧 AI 投资回报周期及竞争压力。预计 2030 年数据中心投资将超 1 万亿美元,英伟达通过年迭代架构(如 Rubin)支撑 AI 普惠化,预言 “100 亿数字员工与人类协同工作”。
黄仁勋的演讲全面展现了英伟达在 AI 芯片、算法、生态等多方面的技术领先优势,同时也正视了市场对短期盈利和行业竞争的压力。
物理 AI 与 Agentic AI 概念的提出,标志着 AI 技术从虚拟内容生成向物理世界操控的重大跨越,而硬件与软件的协同创新将持续推动这一发展进程。尽管面临股价波动等挑战,英伟达仍致力于通过 “AI 工厂” 和规模化定律,重塑计算行业的未来格局。
蓝海大脑 京ICP备18017748号-1