輝達執行長黃仁勳今天(17日)在GTC 2026大會上表示,AI 正從聊天機器人階段進一步邁向以 token、推理、AI 工廠、代理型 AI 與實體 AI 為核心的新時代。隨著 OpenAI、Anthropic 等 AI 原生公司快速崛起,加上企業與新創持續大舉投資,黃仁勳預估 2025 年到 2027 年間,輝達可望掌握至少 1 兆美元規模的 AI 商機。以下為《TVBS新聞網》整理重點。
一、黃仁勳演說主軸:AI 已進入「token、推理、AI 工廠、代理型 AI、實體 AI」的新階段
輝達(NVIDIA)創辦人暨執行長黃仁勳今天(17日)在 GTC 2026 主題演講中,從一開始就為整場大會定調:token 是 AI 時代的基礎單位,而未來 AI 發展的核心,將圍繞在 推理(inference)、AI 工廠(AI factory)、代理型 AI(agentic AI),以及能進入真實世界的實體 AI(physical AI)。
大會開場影片以 token 為主題,將其形容為新 AI 時代的基本積木,能用來解開星辰奧秘、建立虛擬世界,並在現實世界中開創新的道路。黃仁勳隨後登台,向現場滿場觀眾致意,並先感謝所有合作夥伴、超過 450 家贊助商、1,000 多場議程與 2,000 位講者。
二、20 年 CUDA、GeForce 與 CUDA-X:輝達如何打下 AI 時代基礎
黃仁勳在演說中先回顧輝達的技術根基,強調今年是 CUDA 問世 20 週年。他把 CUDA 形容為推動加速運算的「飛輪」,因為它支撐了 AI 從訓練到部署、從研究到產業應用的整個生命週期。
在遊戲與圖形方面,他也宣布 DLSS 5,透過 3D 導引神經渲染(3D-guided neural rendering),讓本地端硬體也能實現即時、擬真的 4K 畫質表現。
此外,他特別強調 CUDA-X 函式庫的重要性,稱其為輝達的「皇冠上的明珠」。這些函式庫覆蓋金融服務、醫療、生技、工業、媒體娛樂、量子運算、零售、機器人、電信與汽車等多元領域,構成輝達在各種 AI 向量中的平台優勢。
三、AI 熱潮未歇:新創與大企業一起推升 GPU 需求,運算需求暴增 100 萬倍
黃仁勳指出,過去一年 AI 原生公司(AI natives)大爆發,包括 OpenAI、Anthropic 等知名企業,以及更多還在崛起中的新創公司。根據他的說法,近一年已有約 1,500 億美*流入創投支持 AI 新創。
他因此把原本對 Blackwell 與 Rubin 平台的成長預期進一步上修,認為 2025 年到 2027 年之間,至少可望帶來1兆美元營收或商機。
這與先前外界看到的說法相呼應:輝達曾估計 Blackwell 與 Vera Rubin 相關市場到 2026 年底約有 5,000 億美元機會,如今把時間拉長到 2027 年,累計規模翻倍,顯示其對需求續強極具信心。
四、輝達的新主戰場:推理成為 AI 工廠核心,黃仁勳自豪是「推理之王」
黃仁勳在演說中多次反覆強調,未來 AI 真正驅動需求的,不再只是訓練,而是推理。
他提到,輝達如今在 token 成本方面全球領先,原因在於極端共同設計(extreme codesign)能力,也就是讓軟體與矽晶片從一開始就同步設計、相互優化。黃仁勳還引用分析師對輝達的形容,稱輝達是「推理之王(inference king)」。
五、Vera Rubin:輝達下一代完整平台,不只是晶片,而是整套垂直整合系統
黃仁勳此次最重要的硬體主角,仍是 Vera Rubin。
他強調,Vera Rubin 不是單一晶片,而是一次「世代級的全堆疊運算躍進」,涵蓋:
* 7 顆突破性晶片
* 5 套機櫃級系統
* 1 台為代理型 AI 打造的革命性超級電腦
平台還包括:
* 新一代 NVIDIA Vera CPU
* BlueField-4 STX 儲存架構
黃仁勳說,當輝達談 Vera Rubin 時,並不是只在談一顆處理器,而是在談整個垂直整合、端到端延伸、當作單一巨型系統優化的完整平台。
這與他先前提到的新 AI 工廠思維一致:未來競爭不是單點晶片效能,而是從運算、記憶體、儲存、網路到安全的整體協同能力。
六、Vera Rubin + Groq LPU:新旗艦系統主打推理,速度較 Hopper 快 350 倍
在具體產品上,黃仁勳發表了一套新的 AI 推理系統,將整合:
* 72 台 Vera Rubin 伺服器
* 256 顆 Groq LPU(語言處理器)
黃仁勳形容,這就是 AI 未來要去的方向,因為它是專為推理而打造的。輝達表示,這套系統每秒可產生 7 億個 tokens,運算速度約為前前代 Hopper GPU 的 350 倍。
七、Groq 技術正式納入輝達體系:LPU 補足低延遲推理與記憶體擴展
黃仁勳也正式介紹 Groq 3 LPU(Language Processing Unit)。這是輝達首次把來自 Groq 的技術納入官方產品線。
Groq 的創辦團隊來自 Google TPU 團隊。去年 12 月,輝達透過約 200 億美元的資產/技術交易取得關鍵技術與人才,被外界視為實質上的收購。Groq 3 LPU 預計於第三季出貨。
LPU 的設計目標,是強化大型語言模型推理效能,其特點是:
* 強調低延遲
* 適合即時文字生成
* 將高速記憶體更緊密整合在晶片內
黃仁勳表示,這些 LPU 並不是取代 GPU,而是與 GPU 互補:
* GPU 負責高吞吐、複雜多步驟任務
* LPU 負責更快速、更低延遲的推理反應
他還說,即使整合兩種差異極大的處理器,AI 系統仍需要大量記憶體,因此輝達的做法就是加入更多 Groq 晶片,來擴大記憶體能力與整體推理效能。
八、Groq 3 LPX 機櫃:讓 Rubin GPU 每瓦 token 效能提升 35 倍
除了單顆 LPU 外,黃仁勳也展示 Groq 3 LPX rack,這是一整櫃專門安裝 Groq 加速器的系統,可放入 256 顆 LPU,並與 Vera Rubin 機櫃並排搭配運作。
根據黃仁勳說法,這個 LPX 機櫃可讓 Rubin GPU 的每瓦 token 效能提升 35 倍。在 AI 資料中心遭遇供電與散熱壓力的當下,這項提升格外重要。
九、從 Vera Rubin 走向 Feynman:下一代架構全面升級 AI 工廠五大支柱
在 Vera Rubin 之後,黃仁勳也首度進一步描述下一個重大架構世代:Feynman。
他表示,Feynman 將搭配全新 CPU Rosa,名稱取自發現 DNA 結構關鍵證據的科學家 Rosalind Franklin。黃仁勳用比喻解釋,正如 Franklin 揭示生命的隱藏結構,Rosa 的任務是協調代理型 AI 工作負載的完整結構,讓資料、工具與 token 能在 GPU、LPU、儲存與網路之間有效流動。
Feynman 平台還將結合:
* LP40:下一代 LPU
* BlueField-5
* CX10
* Kyber:支援銅線與共封裝光學的 scale-up
* Spectrum 級光學 scale-out
黃仁勳說,Feynman 世代將同步推進 AI 工廠的五大支柱:
* 運算(compute)
* 記憶體(memory)
* 儲存(storage)
* 網路(networking)
* 安全(security)
十、Kyber、DSX 與 Omniverse:打造 AI 工廠的模擬與參考設計
除了晶片與機櫃本身,黃仁勳也公布更多 AI 工廠基礎建設方案,包括:
* NVIDIA Vera Rubin DSX AI Factory reference design
* NVIDIA Omniverse DSX Blueprint
這些工具用來幫助企業更快擴大 AI 基礎設施規模。
其中,DSX Air 是 DSX 平台中的軟體即服務(SaaS)工具,可用來對 AI 工廠進行邏輯模擬。也就是說,企業未必要先把整座 AI 工廠真的蓋出來,就能先在軟體中模擬配置、設計與擴張方式。
這也再次呼應輝達近年的發展路線:不只是賣晶片,而是連資料中心規劃與虛擬模擬工具都一起包進來。
十一、輝達甚至要把 AI 資料中心送上太空
黃仁勳在演說尾聲還丟出一個高度前瞻的概念:輝達將進軍太空。
他表示,Vera Rubin 架構向發現暗物質的重要天文學家 Vera Rubin 致敬,而未來像 NVIDIA Space-1 Vera Rubin*這樣的系統,正在被設計為把 AI 資料中心帶入軌道,讓加速運算從地球延伸到太空。
十二、NemoClaw、OpenShell 與 OpenClaw:代理型 AI 平台全面鋪開
軟體與 AI 代理方面,黃仁勳把 OpenClaw 視為關鍵焦點之一。
輝達推出針對 OpenClaw(被稱為養龍蝦) 智慧平臺的 NemoClaw ,目標是讓原本偏開源、偏開發者導向的 AI 代理技術,能真正進入企業環境,變成可部署、可管理、可控管風險的系統。他稱 OpenClaw是開發者 Peter Steinberger 推出的開源專案,甚至形容它是「人類史上最受歡迎的開源專案」。黃仁勳認為,OpenClaw 已經把「代理型電腦的作業系統」開源化,讓人們有機會真正建立個人代理人(personal agents)。
更多新聞:輝達推「NemoClaw」是什麼?與OpenClaw的差異、優勢與安裝教學全攻略
他表示,開發者只要一個指令,就能下載 OpenClaw、建立 AI agent,然後再加入工具與上下文延伸能力。因此他認為,現在全世界每一家公司都必須要有自己的 OpenClaw 策略。
為了讓這項技術能在企業內部安全部署,黃仁勳也推出:
* NVIDIA OpenShell runtime
* NVIDIA NemoClaw stack
這兩套技術結合:
* 政策規則執行(policy enforcement)
* 網路防護欄(network guardrails)
* 隱私路由(privacy routing)
黃仁勳說,這些工具未來甚至可以成為「全球所有 SaaS 公司的政策引擎」。
十三、Nemotron Coalition:輝達擴大開放模型生態系
黃仁勳同時宣布成立新的 Nemotron Coalition,進一步擴大輝達開放模型生態系,集結合作夥伴圍繞六大前沿模型家族發展:
* NVIDIA Nemotron:語言與推理
* NVIDIA Cosmos:世界模型與視覺
* NVIDIA Isaac GR00T:通用機器人
* NVIDIA Alpaymayo:自動駕駛
* NVIDIA BioNeMo:生物與化學
* NVIDIA Earth-2:天氣與氣候
這表示輝達不只提供晶片與系統,也正把自己的 AI 模型平台往多領域擴張,企圖成為 AI 基礎設施與模型工具的雙重供應者。
十四、Physical AI:把 AI 從數位代理,推向真實世界中的機器與系統
黃仁勳在演說中明確指出,輝達正把 AI 從數位代理延伸到實體AI,也就是能在現實世界中移動、感知、互動與執行任務的系統。
他表示,輝達針對 robotaxi 所打造的平台,正在吸引更多車廠加入,包括:
* BYD(比亞迪)
* Hyundai(現代)
* Nissan(日產)
* Geely(吉利)
他形容,未來可上路的 robotaxi-ready 車輛數量將會「非常驚人」。
此外,輝達也正與 Uber 合作,把這些自駕車部署到叫車網路之中,先前公布的規劃是至 2028 年在四大洲 28 個城市推出相關服務。
十五、從工廠機器人到電信基地台:實體 AI 版圖同步擴張
在車廠之外,黃仁勳也提到,輝達正與多家工業軟體與機器人龍頭合作,包括:
* ABB
* Universal Robots
* KUKA
目標是把輝達的實體 AI 模型與模擬工具導入製造產線,部署更智慧的工業機器人。
同時,輝達也與像 T-Mobile 這樣的電信商合作,因為未來基地台也會逐漸演變成邊緣 AI 平台。這代表輝達不只關注雲端資料中心,還想切入工廠端、交通端與電信端的邊緣運算場景。
十六、雪寶登台:用實體 AI、物理引擎與 Omniverse 展示數位角色走入現實
演說最後的高潮,是迪士尼《冰雪奇緣》角色雪寶Olaf 突然登台。
黃仁勳介紹說,雪寶並不是預先渲染好的動畫,而是由輝達的實體 AI 堆疊、Newton 物理引擎與 Omniverse 模擬平台所驅動,從數位畫面中「走進」真實舞台。
黃仁勳還開玩笑對雪寶說:「我知道你為什麼會動,因為你的電腦是我給你的——Jetson。」當雪寶 問那是什麼時,他回說:「它就在你肚子裡,而且你是在 Omniverse 裡學會走路的。」
黃仁勳 GTC 2026 十大重點
1. AI 已進入 token 與推理驅動的新時代黃仁勳將 token 定義為 AI 新時代的基本單位,並強調未來需求核心在推理、AI 工廠、代理型 AI 與實體 AI。
2. 輝達看見 2025 至 2027 年至少 1 兆美元商機
受 AI 新創與企業大舉投入帶動,黃仁勳估計未來三年可創造至少 1 兆美元營收或訂單機會。
3. Vera Rubin 是整套平台,不只是晶片
Rubin 平台涵蓋多顆晶片、多套機櫃系統與超級電腦,強調端到端垂直整合。
4. Rubin 搭配 Groq LPU,主打 AI 推理
新系統整合 72 台 Rubin 伺服器與 256 顆 LPU,每秒可產生 7 億 tokens,速度為 Hopper 的 350 倍。
5. Groq 正式納入產品線,補足低延遲推理能力
Groq 3 LPU 預計第三季出貨,可與 GPU 搭配,提升即時生成與記憶體擴展能力。
6. 下一代 Feynman 架構全面升級 AI 工廠五大支柱
包括運算、記憶體、儲存、網路與安全,並導入新 CPU Rosa、LP40、BlueField-5、CX10 與 Kyber。
7. NemoClaw 與 OpenShell 推進企業級代理型 AI
輝達全面支援 OpenClaw,並推出企業部署所需的安全、政策與隱私工具。
8. Nemotron Coalition 擴大模型生態系
涵蓋語言、視覺、機器人、自駕、生物化學與氣候等六大模型家族。
9. 實體 AI 與 robotaxi 成為下個重點場景
輝達與多家車廠、Uber、ABB、KUKA、T-Mobile 等合作,把 AI 帶向自駕、工業機器人與邊緣基地台。
10. 從 Omniverse 到太空資料中心,輝達企圖主導 AI 基礎設施全局
黃仁勳不只談資料中心,也談模擬平台、邊緣部署,甚至把未來 AI 基礎設施延伸到太空。



