黃仁勛的“汽車野心”,不止于芯片
關鍵詞: 物理AI 自動駕駛 NVIDIA AGX Thor Alpamayo
在數字技術飛速發展的今天,一場新的智能革命正悄然來臨——物理AI將計算的力量從虛擬的信息空間帶入真實的物理世界。這意味著,計算的力量不再只局限于5萬億美元的信息市場,而是可以進入到100萬億美元的物理世界市場,而自動駕駛則成為這場革命的關鍵橋梁之一。
不過,在過去依賴摩爾定律的日子里,計算能力會以指數速度增長,例如每五年性能提升10倍,十年提升100倍。但現在,隨著摩爾定律在CPU和通用計算機上的效用逐漸終結,單純依靠這一定律已經不足以解決許多問題,打造針對特定算法的專用計算機,正成為新的趨勢。
物理AI,將計算帶入現實世界
為此,在CES 2025大會上,NVIDIA CEO黃仁勛就再次提出了著名的“三臺計算機”理念,并將其作為NVIDIA推動“物理AI”在自動駕駛等領域發展的核心技術體系。
● 本體計算機。嵌入在自動駕駛汽車或人形機器人中。AGX Thor就屬于這一類,黃仁勛稱它為“實時推理機器”,也是迄今為止NVIDIA發布的最強輔助駕駛大腦芯片。
● AI工廠計算機。在使用本體計算機之前,必須先開發它的“大腦”,這就需要依賴DGX系統,處理海量原始數據,生成物理AI算法、物理AI模型和神經網絡,再部署到智能汽車上。
● 仿真計算機。物理世界的數據無法直接從互聯網獲取,只能通過真實世界傳感器采集,或基于物理定律和世界規則進行計算機仿真生成。仿真不僅能生成數據,還能在部署前測試車輛,確保它們在真實環境中安全運行,且測試速度可快于現實時間。

NVIDIA方面認為,Al能力的高低,不僅取決于紙面上的算力規格,更離不開堅實的硬件參考設計、穩定的底層軟件、豐富的中間件以及高效的AI編譯器。
這也是NVIDIA推出完整Isaac平臺、NVIDIA Cosmos世界基礎模型平臺的原因所在,前者結合了三臺計算機所需的軟件棧,包括:運行時和計算環境、仿真工具、訓練框架;后者是世界基礎模型及框架等的集成平臺,支持構建理解物理世界的AI,并與Omniverse等仿真平臺結合,來生成更精確、更大規模的數據。

NVIDIA Cosmos
從這個角度來說,這些“世界基礎模型”是能理解世界物理規律的AI模型,人們可以將真實世界數據和可信仿真數據輸入這些模型進行訓練。一旦有了這樣理解世界的AI基礎模型,就可以將其與傳統仿真結合,構建更精準、更高效的仿真平臺。
于是,我們看到在車端Al芯片及軟件領域,NVIDIA嚴格遵循ASPICE流程與功能安全標準,將芯片與軟件作為兩個獨立的SEooC交付給客戶,從而為客戶構建了一個穩定、可靠的開發平臺,助力其高效打造先進的輔助駕駛系統。
自動駕駛的大腦,再強都不為過
前文既然談到了NVIDIA DRIVE AGX Thor,那不妨再花些筆墨,回顧一下NVIDIA自動駕駛平臺的核心能力。
先來看看NVIDIA DRIVE AGX Orin,作為新一代電動汽車、無人駕駛出租車、班車和卡車引擎的集中式輔助駕駛和AI計算機,DRIVE Orin在2022年3月已經開始出貨。該芯片每秒可完成254萬億次運算(TOPS),旨在處理輔助駕駛汽車中同時運行的大量應用程序和深度神經網絡(DNN),并同時達到了ISO 26262、ASIL-D等系統安全標準,可支持L2+至L5級自動駕駛功能。

NVIDIA DRIVE AGX Orin
而單顆算力達到 1000TOPs(FP8)、2000TOPs(NVFP4)的集中式車載計算平臺“NVIDIA DRIVE Thor”更是一經宣布便技驚四座,套用黃仁勛的話來說,“這顆芯片就是為汽車的中央計算架構而生”。

NVIDIA DRIVE AGX Thor SoC
在此基礎上,NVIDIA搭建起了全球智能汽車領域最具影響力的L4級自動駕駛參考平臺DRIVE AGX Hyperion? 10,其“大腦”由兩顆DRIVE AGX Thor芯片組成,支持DriveOS操作系統和最新發布的Alpamayo1大模型,安全框架NVIDIA Halos貫穿始終,并深度融入NVIDIA的“三臺計算機-DGX+OVX+AGX”閉環生態。

NVIDIA DRIVE AGX Hyperion 10
因此,DRIVE AGX Hyperion? 10在本質上就是一個高度集成、預驗證、可量產的參考設計,旨在讓車企和自動駕駛公司跳過繁瑣的底層集成,直接基于該平臺開發上層應用,可被視作“自動駕駛領域的Android”。
AI模型,對全世界開放
再來談一談CES 2026期間,NVIDIA重磅發布的面向自動駕駛的VLA推理大模型Alpamayo。作為將AI引入各個領域的全面舉措的一部分,黃仁勛在主題演講中強調說,Alpamayo的發布標志著“物理AI的ChatGPT時刻已然到來,機器開始具備理解真實世界、推理并付諸行動的能力。無人駕駛出租車將是最早受益的應用之一。”

NVIDIA Alpamayo
VLA即Vision-Language-Action(視覺-語言-動作),是自動駕駛領域繼“BEV”和“端到端”之后最熱門的詞匯。其核心突破是解決了傳統自動駕駛系統決策可解釋性不足、“長尾”場景適配薄弱兩大痛點,實現從“感知-執行”到“類人推理”的技術躍遷。簡單而言,就是在自動駕駛中,模型會將傳感器數據先變成語言和符號,再通過推理形成決策交由車輛執行,從而避免“黑箱”情況。
這就打破了傳統自動駕駛“感知-決策-執行”的線性流程壁壘,通過語言作為中間載體實現跨模塊的語義貫通,從根源上解決了決策可解釋性問題。黃仁勛表示:“ Alpamayo做了一些非常特別的事情。它不僅接收傳感器輸入并激活方向盤、剎車和加速,它還推理它將要采取的行動。它告訴你它將要采取什么行動,它得出那個行動的理由,當然還有軌跡。”
按照NVIDIA的官方說法,Alpamayo并不是直接部署于車端的模型,而是作為大規模教師模型,供開發者調優、蒸餾,成為其完整輔助駕駛技術棧的核心基礎。除模型開放外,NVIDIA還在Hugging Face開放超1700小時物理AI數據集,覆蓋廣泛的地理區域和環境條件;AlpaSim全開源端到端仿真框架提供逼真的傳感器建模、可配置交通動態,以及可擴展的閉環測試環境,支持快速驗證與策略優化。

NVIDIA TensorRT Edge-LLM
其實,還有一款開源工具也很值得一提,那就是NVIDIA ACCV-Lab(Accelerated Computer Vision Lab)。這是英偉達在2025年12月推出的一套面向高級駕駛輔助系統(ADAS)的系統化的工具集,能夠解決自動駕駛研發中最耗時、最繁瑣的環節——海量視頻數據的高效訓練。

NVIDIA ACCV-Lab
正在攻堅自動駕駛的團隊可以將ACCV-Lab視作自動駕駛訓練的“效率加速器”。它不直接提供感知模型,而是通過優化數據預處理與訓練流水線,讓開發者能把精力聚焦在算法創新上,而非被底層工程細節拖累。
結語
正如DeepSeek將推理能力帶入開源領域一樣,NVIDIA也正在構建一個由DRIVE Orin/Thor硬件平臺、業界首款面向移動出行領域的開放式大規模視覺-語言-動作推理模型Alpamayo 1、DRIVE Hyperion自動駕駛參考架構、物理級精確仿真平臺NVIDIA DRIVE Sim、世界基礎模型Cosmos組成的“完整的、開放的推理型自動駕駛生態”。
“這些模型對全世界開放。”黃仁勛說,“如今,NVIDIA以一種非常獨特的方式在平臺上打造了前沿的AI模型。我們以完全開放的方式構建AI模型,以便讓每家公司、每個行業、每個國家都能參與到這場AI變革中來。”