一文读懂英伟达GTC 2026:芯片全家桶上线,给“龙虾”装安全围栏
一文读懂英伟达GTC 2026:芯片全家桶上线,给“龙虾”装安全围栏
  • 2026-04-18 05:59:01
    来源:眉语目笑网

    一文读懂英伟达GTC 2026:芯片全家桶上线,给“龙虾”装安全围栏

    字体:
    \u003cdiv class=\"rich_media_content\"\u003e\u003c!--VIDEO_0--\u003e\u003cspan style=\"text-align: center;font-size: 13px;color: rgb(136, 136, 136); line-height: 14px;margin-bottom: 22px;margin-top: 8px; display: block;\"\u003e\u003c!--NO_READ_BEGIN--\u003e全程回顾|英伟达GTC 2026黄仁勋主题演讲\u003c!--NO_READ_END--\u003e\u003c/span\u003e\u003cp\u003e\u003cstrong\u003e文丨李海伦 苏扬\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e编辑丨徐青阳\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e北京时间3月17日凌晨,英伟达(股票代码:\u003c!--VERTICAL_CARD_BEGIN_0--\u003eNVDA\u003c!--VERTICAL_CARD_END_0--\u003e)GTC2026大会拉开帷幕。作为全球AI产业最受关注的年度时刻之一,GTC大会被称为“AI春晚”,其中黄仁勋的主题演讲亦备受关注。\u003c/p\u003e\u003cp\u003e大会之前,黄仁勋抛出过一个产业模型为GTC预热,指出“AI是一块五层蛋糕(AI is a Five-Layer Cake)”,从底座向上分别为:能源、电力,芯片、算力基础设施,再到模型与应用,AI已经形成一个全新的产业技术栈,并正在引发人类历史上规模最大的基础设施建设之一。\u003c/p\u003e\u003cp\u003e黄仁勋说:“这次大会将覆盖人工智能五层架构的每一层,当然还有最重要的一层,也是最终真正推动这个行业腾飞的——应用。”\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_0--\u003e\u003c/p\u003e\u003cp\u003e黄仁勋指出,随着推理需求的爆发,正在推动英伟达的市场规模和客户结构同步扩张。\u003c/p\u003e\u003cp\u003e回望2025年10月的华盛顿GTC大会,黄仁勋曾指出,到2026年底,英伟达凭借现有及未来的数据中心芯片,将撬动约5000亿美元的收入规模。\u003c/p\u003e\u003cp\u003e这次GTC的演讲台上,老黄再次给出预判:几个月后,随着 Blackwell与Rubin架构的全面接力,他所预见的市场机会已翻倍跨越。他明确表示,\u003cstrong\u003e预计到2027年底,英伟达新一代AI芯片的累计营收将正式跨入1万亿美元时代。\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e本次GTC 2026发布的最核心主题——\u003cstrong\u003e以Vera Rubin为代表的“芯片全家桶”,构成了这一代Vera Rubin机架的系统级基础设施,其中包括:Vera CPU、Rubin GPU、NVLink 6 Switch(高速互联)、ConnectX-9 SuperNIC(超级网卡)、BlueField-4 DPU(数据处理单元)、Spectrum-6 以太网交换机。\u003c/strong\u003e\u003c!--MID_AD_0--\u003e\u003c!--EOP_0--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_0--\u003e\u003cp\u003e\u003c!--SECURE_LINK_BEGIN_0--\u003e英伟达\u003c!--SECURE_LINK_END_0--\u003e甚至还准备将AI算力“送上天”,推出面向轨道环境运行的 \u003c!--VERTICAL_CARD_BEGIN_1--\u003eVera Rubin Space Module\u003c!--VERTICAL_CARD_END_1--\u003e,用于支持卫星和空间任务中的边缘智能计算。\u003c/p\u003e\u003cp\u003e值得注意的是,此次GTC,\u003c!--VERTICAL_CARD_BEGIN_2--\u003eGroq 3 LPU\u003c!--VERTICAL_CARD_END_2--\u003e推理加速器也完成了首秀。\u003c/p\u003e\u003cp\u003e此前,2025年12月,英伟达以约200亿美元完成了对Groq核心技术资产的收购,Groq创始人Jonathan Ross加入英伟达担任首席软件架构师,Groq 3 LPU正是这笔收购正式落地的第一个公开成果。\u003c/p\u003e\u003cp\u003e另外,席卷中美两地开发者社区的“龙虾热”,在本次GTC上也得到了体现。\u003c/p\u003e\u003cp\u003e\u003c!--SECURE_LINK_BEGIN_1--\u003e黄仁勋\u003c!--SECURE_LINK_END_1--\u003e推出面向OpenClaw生态的\u003c!--VERTICAL_CARD_BEGIN_3--\u003eNemoClaw\u003c!--VERTICAL_CARD_END_3--\u003e方案,在OpenClaw原有智能体能力的基础上,叠加了NVIDIA Nemotron开放模型,可以让龙虾更聪明,同时内置一套实时安全管控机制,相当于给智能体配了一个全程在线的“保安”。\u003c/p\u003e\u003cp\u003e整个2个多小时下来,英伟达GTC给人“系统级”概念印象非常深刻:早期突出的是算力、互联,到最近两年强化对系统级能力,甚至是AI工厂这种综合型基础设施的探索,所以大家会看到,黄仁勋在大会上已不再是单纯强调单一的算力芯片,取而代之的\u003c!--TYPO_BEGIN_0--\u003e“\u003c!--TYPO_END_0--\u003e芯片全家桶”、“算力全家桶”这种系统级解决方案。\u003c!--MID_AD_1--\u003e\u003c!--EOP_1--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_1--\u003e\u003ch2\u003e\u003c!--HPOS_0--\u003e01. Vera Rubin 平台:推理效率提升10倍,token成本降至十分之一\u003c/h2\u003e\u003cp\u003e\u003cspan data-widget=\"image\" style=\"display: inline-block; max-width: 100%\"\u003e\u003c!--IMG_1--\u003e\u003cspan style=\"color: rgb(153, 153, 153); display: block; font-size: 12px; line-height: 18px; overflow-wrap: break-word; text-align: center\"\u003e\u003c!--NO_READ_BEGIN--\u003e黄仁勋介绍Vera Rubin平台\u003c!--NO_READ_END--\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp\u003e早在2024年Computex上,黄仁勋就首次披露了Rubin架构,并宣布其将接替Blackwell 成为下一代AI GPU架构。随后在2025 GTC上,展示了搭载Vera CPU与Rubin GPU的Superchip原型,但当时仍停留在单板级产品阶段。\u003c/p\u003e\u003cp\u003e2026年CES,Rubin首次以完整平台形态出现,由六颗核心芯片协同工作,构成一台机架级AI超级计算机。\u003c/p\u003e\u003cp\u003e而在本次GTC 2026上,英伟达又进一步将Groq的LPU推理架构整合进平台,并首次将AI工厂、电力调度与智能体运行环境纳入统一架构。\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_2--\u003e\u003c/div\u003e\u003cp\u003eVera Rubin平台主要芯片和组件包括 \u003cstrong\u003eVera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet switch,也包含了新整合的 Groq 3 LPU,组成一台超级 AI 计算机。\u003c!--AI_AD_1000--\u003e\u003c/strong\u003e\u003c!--MID_AD_2--\u003e\u003c!--EOP_2--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_2--\u003e\u003cp\u003e相当于把过去只有超大型科技公司才能搭建的AI超算能力,做成了一套可直接部署的标准机架。既能训练更大的模型,也能让AI像人一样持续工作、更低成本地处理复杂任务。\u003c/p\u003e\u003cp\u003e黄仁勋表示:\u003cstrong\u003e“Vera Rubin NVL72机架:集成72颗Rubin GPU和36颗Vera CPU,通过NVLink 6高速互联。相比上代Blackwell平台,NVL72训练大型混合专家(MoE)模型所需GPU数量仅为四分之一,推理吞吐量/瓦特提升高达10倍,单token成本降至原来的十分之一”。\u003c/strong\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_3--\u003e\u003c/div\u003e\u003cp\u003e黄仁勋指出,Vera Rubin架构与LPX软件平台的深度协同,将通过单体算力价值的10倍跃升,开启高达3000亿美元的年收入机遇。\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_1--\u003e\u003cstrong\u003e02. Vera CPU:专为 Agentic AI 打造的新一代处理器\u003c/strong\u003e\u003c/h2\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_4--\u003e\u003c/div\u003e\u003cp\u003e英伟达正式发布了自研Vera CPU。\u003c/p\u003e\u003cp\u003e黄仁勋表示,这是全球首款专为“AI 智能体时代”与“强化学习”设计的处理器。该芯片搭载88颗自研Olympus核心,性能较传统CPU快50%,能效提升达 2倍。\u003c/p\u003e\u003cp\u003eVera CPU更像是智能体系统背后的“指挥与调度中心”。因为进入AI智能体时代后,很多工作并不只是生成答案,还需要同时管理大量并发任务,例如运行强化学习环境、调用外部工具、执行代码、校验数据结果。这类复杂的编排任务对CPU的单线程性能和带宽提出了前所未有的要求。\u003c/p\u003e\u003cp\u003e也正因为如此,Vera CPU的设计重点不只是单纯提升算力,而是让大量AI环境能够同时稳定运行,基于NVIDIA 空间多线程(Spatial Multithreading)技术,每颗核心可同时处理两个任务,确保了大规模AI服务的响应速度。\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_5--\u003e\u003c/div\u003e\u003cp\u003eVera CPU采用LPDDR5X内存,带宽高达1.2TB/s,是同类通用CPU的两倍,功耗仅为一半。结合NVLink-C2C技术,其与GPU间的互联带宽达1.8 TB/s,是传统PCIe Gen 6的7倍。\u003c/p\u003e\u003cp\u003e单个 Vera CPU机架可集成256颗液冷方案Vera CPU,支持超过22500个并发线程独立满负荷运行,专为大规模“AI工厂”而生。\u003c/p\u003e\u003cp\u003e据介绍,目前已计划部署Vera CPU的云客户包括:Meta、Oracle Cloud、CoreWeave 等;制造合作商涵盖戴尔、HPE、联想、超微电脑、华硕、富士康等。Redpanda 的测试显示,Vera在处理实时数据流时的延迟降低了 5.5倍。相关产品预计将于2026年下半年上市。\u003c!--MID_AD_3--\u003e\u003c!--EOP_3--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_3--\u003e\u003ch2\u003e\u003c!--HPOS_2--\u003e03 Groq 3 LPX/LPU:填补GPU推理短板,超低延迟推理加速器\u003c/h2\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_6--\u003e\u003c/div\u003e\u003cp\u003e\u003c!--AIPOS_0--\u003eGroq 3 LPU芯片是英伟达专为极致低延迟推理设计的全新处理器。\u003c/p\u003e\u003cp\u003e在AI智能体时代,推理侧需求正加速分化:大模型训练依赖GPU的高吞吐算力,而面对需要极高交互性、超短响应时间的智能体任务,传统GPU架构存在性能冗余。为此,英伟达正式引入LPU架构,专注于“极致低延迟的token生成”。\u003c/p\u003e\u003cp\u003e在硬件设计上,Groq 3 LPU芯片展现了与传统GPU截然不同的技术路线。它摒弃了容量大但延迟相对较高的HBM显存,单颗芯片集成了500MB的片上SRAM。虽然容量仅为Rubin GPU 的五百分之一,但其提供的带宽高达150 TB/s,是HBM4(22 TB/s)的近7倍。\u003c!--AI_MID_AD_0--\u003e\u003c/p\u003e\u003cp\u003e基于该芯片,英伟达推出了Groq 3 LPX平台(机架)。该平台采用液冷散热,单个机架配备 256颗LPU处理器,累计提供128GB片上SRAM,总扩展带宽达640TB/s。LPX平台作为Vera Rubin架构中的关键补齐,专注于承载大规模、高并发的低延迟推理工作负载。\u003c/p\u003e\u003cp\u003e当Groq 3 LPX平台与Vera Rubin NVL72结合使用时,这种混合架构实现了GPU强劲算力与 LPU极致带宽的完美互补。在百万token上下文场景下,其收益潜力可大幅提升。 该芯片及平台预计将于2026年下半年正式上市。\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_3--\u003e\u003cstrong\u003e04 Vera Rubin Space Module:AI 算力飞向太空\u003c/strong\u003e\u003c/h2\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_7--\u003e\u003c/div\u003e\u003cp\u003e\u003c!--AIPOS_1--\u003e英伟达这次还把AI算力直接送上了太空,发布了专门面向轨道数据中心(ODC)和太空操作的 Vera Rubin Space Module。\u003c/p\u003e\u003cp\u003e根据介绍,传统卫星的工作模式是拍摄后将海量数据下载到地面处理,但这套流程正被“数据洪流”压垮。因为一颗地球观测卫星每天可产生数TB数据,而星地通信带宽有限、窗口期短,大量数据积压等待传输。从拍摄到分析结果返回可能耗时数小时,错过灾害预警等场景的黄金窗口。\u003c/p\u003e\u003cp\u003eVera Rubin Space Module 的核心思路是边缘智能,让卫星在轨完成目标检测和变化分析,只下传有价值的结果而非原始数据,从而大幅降低传输压力。\u003c/p\u003e\u003cp\u003e英伟达表示,目前,像Axiom Space、Planet Labs这些太空赛道的头牌公司,已开始用英伟达的加速平台来跑下一代太空任务了。有了这种算力加持,无论是卫星自主运行还是地理空间智能分析,都将从“慢动作”变成实时响应。\u003c/p\u003e\u003cp\u003e黄仁勋表示:“相比H100 GPU,Rubin Space Module在太空推理算力上提升最高25倍,真正将数据中心级AI算力带入太空”。\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_4--\u003e\u003cstrong\u003e05 BlueField-4 STX:AI 原生存储架构\u003c/strong\u003e\u003c/h2\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_8--\u003e\u003c/div\u003e\u003cp\u003e英伟达正式发布BlueField-4 STX模块化存储参考架构,其基于BlueField-4 DPU 和CMX存储模块组件,旨在为AI智能体的长上下文推理提供底层KV Cache存储支撑。\u003c/p\u003e\u003cp\u003eBlueField-4 STX扮演着AI智能体“外部上下文记忆体”的关键角色。它打破了传统数据中心存储的性能瓶颈,使智能体在处理超长上下文、跨工具调用及多轮任务协作时,无需频繁重复计算,从而确保了推理过程的连贯性与响应速度。\u003c/p\u003e\u003cp\u003e相比传统存储架构,STX可提供高达5倍的token吞吐量及4倍的能效提升,并将数据摄取速度翻倍。\u003c/p\u003e\u003cp\u003e目前,CoreWeave、Oracle (OCI)、Mistral AI及Lambda等首批行业领先者已宣布采用 STX 作为其上下文记忆存储方案。相关系统预计将于2026年下半年正式上市。\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_5--\u003e06 NemoClaw for OpenClaw:个人AI智能体平台\u003c/h2\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_9--\u003e\u003c/div\u003e\u003cp\u003e\u003c!--AIPOS_2--\u003e英伟达面向企业和开发者推出了完整的智能体开发平台NVIDIA Agent Toolkit。\u003c/p\u003e\u003cp\u003e该平台以开源方式开放,核心定位是让AI智能体在自主高效完成任务的同时,确保环境的安全可控。\u003c/p\u003e\u003cp\u003e黄仁勋表示,该平台由四大核心组件构成:\u003c/p\u003e\u003cp\u003e●以Nemotron 3 Super为代表的开放模型(提供1200亿参数的长上下文推理能力);\u003c/p\u003e\u003cp\u003e●以AI-Q为代表的开放智能体(负责感知、规划与执行);\u003c/p\u003e\u003cp\u003e●以 cuOpt为代表的开放技能工具(扩展智能体的专业能力);\u003c/p\u003e\u003cp\u003e●以及OpenShell这一开源运行底座,负责管控智能体的行为边界与安全权限。\u003c/p\u003e\u003cp\u003e除了深耕企业级市场,英伟达此次通过发布NemoClaw技术栈,正式将触角延伸至个人智能体领域。这套方案本质上是为全球增长最快的开源项目OpenClaw提供了全栈式的底层软件支撑。\u003c!--AI_AD_1001--\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_10--\u003e\u003c/div\u003e\u003cp\u003e黄仁勋在GTC现场直言,NemoClaw的核心逻辑在于“极简部署”与“开箱即用”,用户仅需单条指令,即可完成英伟达Nemotron模型与OpenShell运行时的安装。\u003c/p\u003e\u003cp\u003e黄仁勋甚至将其高度评价为“个人AI时代的操作系统”,预示着软件领域“新文艺复兴”的开端。\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e安全性被定义为该方案的杀手锏。\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e其关键组件 OpenShell 构建了一个隔离沙箱,为智能体提供了受控的运行环境:智能体能访问何种数据、连接哪些网络,均受明确的安全护栏管控。\u003c/p\u003e\u003cp\u003e此外,该架构支持“本地+云端”的混合模式:敏感任务驻留本地处理,复杂任务则通过隐私路由器(Privacy Router)调用云端尖端模型,真正实现了隐私保护与计算能力的兼得。\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_11--\u003e\u003c/div\u003e\u003cp\u003e黄仁勋在演讲里特别提到,NemoClaw具备极强的硬件普适性。它可运行在从消费级RTX PC、工作站到企业级DGX Station、甚至最新的DGX Spark全系列硬件上,并支持24小时全时在线(Always-on)。这意味着无论是个人开发者还是大型企业,都能在私有环境下部署一套永不离线的“数字雇员”,彻底摆脱对公有云服务的过度依赖。\u003c!--MID_AD_4--\u003e\u003c!--EOP_4--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_4--\u003e\u003ch2\u003e\u003c!--HPOS_6--\u003e07 NVIDIA Dynamo 1.0:AI工厂的“操作系统”\u003c/h2\u003e\u003cp\u003e在生成式AI与AI智能体规模化落地的初期,行业普遍面临核心瓶颈:数据中心内的GPU、内存与网络资源利用率碎片化,调度机制失焦导致推理延迟高、token生成成本居高不下。企业空有算力集群,却因缺乏高效的协同框架,陷入“部署难、落地贵”的困境。\u003c/p\u003e\u003cp\u003e\u003c!--AIPOS_3--\u003e英伟达在GTC 2026上正式发布的Dynamo 1.0开源平台,正是为破解这一命题而生。\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_12--\u003e\u003c/div\u003e\u003cp\u003e若将数据中心比作一座AI工厂,Dynamo便是其“中央操作系统”。它打破了硬件间的壁垒,统一编排大规模异构资源,使成千上万颗加速芯片实现深度协同。\u003c/p\u003e\u003cp\u003e在\u003c!--VERTICAL_CARD_BEGIN_5--\u003eBlackwell架构\u003c!--VERTICAL_CARD_END_5--\u003e下,Dynamo可将推理性能最高提升7倍。\u003c/p\u003e\u003cp\u003e也就是说,基于这种负载优化,企业能够以更少的硬件冗余,支撑更复杂的智能体任务,精准切中当下“降本增效”的战略刚需。\u003c/p\u003e\u003cp\u003e目前,Dynamo已构建起强大的生态护城河。AWS、Azure、谷歌云及Oracle Cloud四大云巨头已完成深度集成;同时,从\u003c!--VERTICAL_CARD_BEGIN_6--\u003eCursor\u003c!--VERTICAL_CARD_END_6--\u003e、Perplexity等AI原生新锐到PayPal等全球化企业,均已在其推理基座中部署Dynamo。\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_7--\u003e08 物理AI爆发:机器人任务成功率翻倍,比亚迪加入英伟达自动驾驶计划\u003c/h2\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_13--\u003e\u003c/div\u003e\u003cp\u003e\u003c!--AIPOS_4--\u003e这次GTC 2026释放了一个清晰信号:物理AI正在从模型演示转向真实世界的大规模落地。无论是机器人、自动驾驶还是AI工厂,英伟达都在用一套“算力+仿真+安全”的底层体系,重新组织现实产业。\u003c/p\u003e\u003cp\u003e黄仁勋表示,英伟达正把物理AI像洪水一样推向机器人产业。\u003c/p\u003e\u003cp\u003e目前,全球头部厂商几乎都在英伟达朋友圈里,从ABB、FANUC、KUKA、安川电机这工业四大巨头,到自带流量的Boston Dynamics和Figure,全都接入了英伟达生态。\u003c/p\u003e\u003cp\u003e通过与Hugging Face合作,英伟达将Isaac和GR00T模型集成到LeRobot开源框架中,打通了机器与AI开发者之间的壁垒,让上千万开发者能直接参与训练,加速机器人进化。\u003c/p\u003e\u003cp\u003e模型层面,新发布的Cosmos 3“世界基础模型”不仅能模拟画面,还能推理物理规则。\u003c/p\u003e\u003cp\u003e同时,人形机器人模型Isaac GR00T N1.7正式开放商业授权,其特点是让机器人通过看、听、动搞定复杂操作。黄仁勋还预告了年底将发布的GR00T N2,据说它在陌生环境中处理新任务的成功率比现有模型高出一倍以上。\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_14--\u003e\u003c/div\u003e\u003cp\u003e在自动驾驶领域,英伟达的DRIVE Hyperion平台已成为车企推进L4级自动驾驶的标配,比亚迪、吉利、日产等巨头均已明确加入。\u003c/p\u003e\u003cp\u003e此外,英伟达发布了Vera Rubin DSX AI工厂参考设计,以及配套的Omniverse DSX数字孪生蓝图(正式上线),核心目的是帮助企业在建造AI工厂前,用虚拟环境完整模拟电力、冷却、网络、计算的协同运行,最大化每瓦产出的token数量,缩短投产时间。\u003c/p\u003e\u003ch3\u003e结语\u003c/h3\u003e\u003cp\u003e从新一代算力芯片、高速网络、数据存储、处理器,到各类推理加速硬件,再到操作系统、开源AI大模型,以及机器人、自动驾驶、工业制造、太空计算、边缘AI等实际应用,英伟达正在搭建一套完整闭环的AI体系。\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e黄仁勋在演讲里反复传递一个核心信息:AI智能体的时代已经来了。\u003c/strong\u003e英伟达围绕这一方向,从底层硬件到上层生态进行了全面部署。\u003c/p\u003e\u003cp\u003e当然,这套体系的效能是否能够如老黄演讲所说,还需要客户在后续的“落地”过程中检验。\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e*特约编译无忌对此文亦有贡献。\u003c/strong\u003e\u003c/p\u003e\u003cdiv powered-by=\"qqnews_ex-editor\"\u003e\u003c/div\u003e\u003cstyle\u003e.rich_media_content{--news-tabel-th-night-color: #444444;--news-font-day-color: #333;--news-font-night-color: #d9d9d9;--news-bottom-distance: 22px}.rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}.rich_media_content{color:var(--news-font-day-color);font-size:18px}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]):not(.qn-editor-copy){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content{color:var(--news-font-night-color)}}.data_color_scheme_dark .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.data_color_scheme_dark .rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}.data_color_scheme_dark .rich_media_content{color:var(--news-font-night-color)}.data_color_scheme_dark .rich_media_content{font-size:18px}.rich_media_content p[data-exeditor-arbitrary-box=image-box]{margin-bottom:11px}.rich_media_content\u003ediv:not(.qnt-video),.rich_media_content\u003esection{margin-bottom:var(--news-bottom-distance)}.rich_media_content hr{margin-bottom:var(--news-bottom-distance)}.rich_media_content .link_list{margin:0;margin-top:20px;min-height:0!important}.rich_media_content blockquote{background:#f9f9f9;border-left:6px solid #ccc;margin:1.5em 10px;padding:.5em 10px}.rich_media_content blockquote p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content blockquote{background:#323232}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content blockquote{background:#323232}}.rich_media_content ol[data-ex-list]{--ol-start: 1;--ol-list-style-type: decimal;list-style-type:none;counter-reset:olCounter calc(var(--ol-start,1) - 1);position:relative}.rich_media_content ol[data-ex-list]\u003eli\u003e:first-child::before{content:counter(olCounter,var(--ol-list-style-type)) '. ';counter-increment:olCounter;font-variant-numeric:tabular-nums;display:inline-block}.rich_media_content ul[data-ex-list]{--ul-list-style-type: circle;list-style-type:none;position:relative}.rich_media_content ul[data-ex-list].nonUnicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.5)}.rich_media_content ul[data-ex-list].unicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.8)}.rich_media_content ol:not([data-ex-list]){padding-left:revert}.rich_media_content ul:not([data-ex-list]){padding-left:revert}.rich_media_content table{display:table;border-collapse:collapse;margin-bottom:var(--news-bottom-distance)}.rich_media_content table th,.rich_media_content table td{word-wrap:break-word;border:1px solid #ddd;white-space:nowrap;padding:2px 5px}.rich_media_content table th{font-weight:700;background-color:#f0f0f0;text-align:left}.rich_media_content table p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content table th{background:var(--news-tabel-th-night-color)}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content table th{background:var(--news-tabel-th-night-color)}}.rich_media_content .qqnews_image_desc,.rich_media_content p[type=om-image-desc]{line-height:20px!important;text-align:center!important;font-size:14px!important;color:#666!important}.rich_media_content div[data-exeditor-arbitrary-box=wrap]:not([data-exeditor-arbitrary-box-special-style]){max-width:100%}.rich_media_content .qqnews-content{--wmfont: 0;--wmcolor: transparent;font-size:var(--wmfont);color:var(--wmcolor);line-height:var(--wmfont)!important;margin-bottom:var(--wmfont)!important}.rich_media_content .qqnews_sign_emphasis{background:#f7f7f7}.rich_media_content .qqnews_sign_emphasis ol{word-wrap:break-word;border:none;color:#5c5c5c;line-height:28px;list-style:none;margin:14px 0 6px;padding:16px 15px 4px}.rich_media_content .qqnews_sign_emphasis p{margin-bottom:12px!important}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{padding-left:30px}.rich_media_content .qqnews_sign_emphasis ol\u003eli{list-style:none}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep:first-child::before{margin-left:-30px;content:counter(olCounter,decimal) ''!important;counter-increment:olCounter!important;font-variant-numeric:tabular-nums!important;background:#37f;border-radius:2px;color:#fff;font-size:15px;font-style:normal;text-align:center;line-height:18px;width:18px;height:18px;margin-right:12px;position:relative;top:-1px}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis{background:#262626}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis{background:#262626}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}}.rich_media_content h1,.rich_media_content h2,.rich_media_content h3,.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{margin-bottom:var(--news-bottom-distance);font-weight:700}.rich_media_content h1{font-size:20px}.rich_media_content h2,.rich_media_content h3{font-size:19px}.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{font-size:18px}.rich_media_content li:empty{display:none}.rich_media_content ul,.rich_media_content ol{margin-bottom:var(--news-bottom-distance)}.rich_media_content div\u003ep:only-child{margin-bottom:0!important}.rich_media_content .cms-cke-widget-title-wrap p{margin-bottom:0!important}\u003c/style\u003e\u003c/div\u003e
    【纠错】【责任编辑:绿衫军19冠】