從Vera Rubin到AI代理,再到太空運算 在GTC大會上,黃仁勳坦率而清晰地回答了外界的關鍵提問。從中可以了解,輝達不再只是晶片供應商,而是要主導從資料中心到太空運算的下一代平台規格。 文/楊喻斐、林信男
▲在與全球媒體問答會上,黃仁勳不只邏輯清晰的回應每一個問題,還不忘幽默與媒體互動。(達志) 備受矚目的輝達GTC大會,三月十六日至十九日於美國聖荷西舉辦;這場被譽為「AI運算發展風向球」的活動,不僅是單純的技術研討會,更是引領全球科技產業轉型與定義未來運算規格的關鍵盛會。 突破|從大語言系統到AI代理系統 輝達執行長黃仁勳於大會主題演講隔日,照例舉行全球媒體問答會。在長達兩個多小時的問答中,黃仁勳坦率地分享他的見解;從AI產業趨勢、推論市場、資料中心架構,到太空運算與供應鏈,幾乎無所不包。《財訊》特別整理出五大核心提問,讀者可從中清楚掌握黃仁勳對AI下一階段競賽的戰略藍圖。 問:輝達在新技術的發展與突破? 黃仁勳:我們最近宣布的一個重要概念是「極致協同設計」(Extreme Co-Design)。在過去十年裡,摩爾定律大約提升一百倍,輝達的計算效率提升了約百萬倍;也就是說,我們的進步速度遠遠超過摩爾定律,而這並不是單單靠製程或精度做到的,架構設計才是關鍵! 例如,去年我們展示的FP4運算架構,它的特點是功耗幾乎沒有增加,性能卻提升約三十五倍,這就是為什麼極致協同設計這麼重要。因為真正的突破來自於GPU、CPU、網路、記憶體、軟體、系統架構,全部都一起設計。 我們設計系統時,永遠是從一個問題出發:需要完成什麼樣的工作?只要把這個問題想清楚,就會自然得到正確的系統設計;因此,VeraRubin、CPU、儲存系統、網路、GPU、Groq,全部都是為了特定AI工作負載設計的。像OpenClaw這樣的系統,其實是一個非常好的例子,說明未來AI工作負載長什麼樣子。如果在資料中心運行這類系統,整個VeraRubin架構是非常理想的設計。 未來的突破不只是在大型語言模型上。真正的未來在於AI代理型系統。當AI從單一模型變成AI代理系統時,「問題空間」會突然大幅擴展;而當問題空間擴展時,我們就有更大的機會找到下一次巨大的計算突破。 問:輝達如何布局AI推論以及AI代理市場? 黃仁勳:我是推理之王(笑)。隨著市場持續演進,我提出了一個新的概念:每一個Token(符元)並不相同。因為Token可能是由不同規模的模型生成的:小型模型、較大型模型、超大型模型;此外,輸入的上下文長度也可能從很短到非常長。因此,在不同情境下,AI系統的需求與能力都會不同。
▲在與全球媒體問答會上,黃仁勳不只邏輯清晰的回應每一個問題,還不忘幽默與媒體互動。(達志)
市場|推理製造需求 現在才正要爆發 在早期,例如ChatGPT剛推出時,基本上只有單一產品層級,之後推出了每月二十美元的付費方案。當o1和o3等新模型出現時,又增加了新的產品層級。這些不同的層級,其實就是不同的產品市場區隔;之所以會出現,是因為市場正在快速擴大。現在我們看到,開發者開始使用AI代理,像CloudCode、Codex這樣的工具。這些工具非常有用,因此市場又出現了新的產品層級。 這其實與輝達早期的GPU發展非常類似,一開始只有一個產品,但現在已經有很多不同型號,產品線變得非常完整,這也與iPhone的發展過程很相似;因此我們一直在整個市場光譜上建立完整產品組合。 到目前為止,我們出貨的大部分系統都還是拿來做訓練,但是現在推理的轉折點已經到來了。像是OpenClaw這類的系統已經出現,AI代理型系統也開始被廣泛使用;因此,真正用於推理的Token製造需求,現在才正要開始爆發。 目前Token的需求仍然非常強勁,而且未來仍會持續成長。但我們認為市場中將會出現一個新的區隔,這個區隔需要同時滿足三個條件:模型規模非常大,上下文非常長,以及延遲極低、速度極快。 目前的Groq系統可滿足其中的一部分,但還無法同時滿足全部三個條件。然而,如果結合VeraRubin與Groq,就可以同時達成上述三個目標。因此,我們提出Groq,就是為了創造這個全新的市場區隔。 如今,輝達已經變得比一家單純的晶片公司更加多元化,原因在於我們是一家全堆疊(垂直整合)公司,我們可以協助客戶在任何地方建立AI工廠。在一座AI工廠中,我預期配置大概會是七五%純VeraRubin系統,以及二五%VeraRubin+Groq的組合;其中,VeraRubin平台仍然會是整個系統的核心。今天在推理領域的王者是GraceBlackwell,但未來VeraRubin將會成為新的推理王者,當然還會有新一代架構不斷推出。
▲太空運算的時代來臨,由黃仁勳親自揭示最新的太空運算產品。(CFP)
商機|客戶不只買晶片 而是整個平台 問:輝達要如何在二○二七年要做到一兆美元的生意? 黃仁勳:這個一兆美元,是我們目前可見並有信心對應的需求與訂單,時間範圍到二○二七年,而且只計算兩個產品:Blackwell架構與VeraRubin平台。 為什麼我只計算這兩個?其實輝達已經有更多產品,例如獨立銷售的CPU、Groq推論系統、AI專用儲存系統、BlueFieldDPU、Feynman系列技術等等。就像Groq本身就可能為系統增加約二五%的經濟價值;也就是說,如果是一個1GW的資料中心,加入Groq之後,整體經濟規模可能會增加二五%。 我去年在GTC曾經說過,在二六年之前,Blackwell+Rubin的市場機會是五千億美元。如果今年突然把CPU、Groq、儲存系統等都算進去,就會把兩件不同的事情混在一起,讓市場難以比較。因此,這次我仍然只用Blackwell+VeraRubin來計算。 目前我們大約四○%的業務來自於企業市場、超大規模企業、工業應用、物理AI、自動駕駛、機器人、各地區的輝達雲端合作夥伴(NVIDIA Cloud Partner),以及主權AI。這些市場並非雲端服務商可以完全服務,上述客戶不是買晶片,而是買整個平台。另外六○%的業務來自CSP雲端市場,我們直接將產品銷售給雲端服務商,也包含像戴爾、甲骨文等基礎設施供應商。 問:你提到CPU在資料中心的商機將達數十億美元,傳統x86CPU發展性如何? 黃仁勳:輝達的GraceCPU與VeraCPU,其實代表一種全新Arm架構的CPU類型,是為資料密集型工作負載、高單執行緒性能,以及電力受限的資料中心所設計。 為什麼資料中心對CPU的需求改變?因為電力是最大限制。如果資料中心只有一GW電力,你會希望把最多的電力分配給GPU,而不是CPU。原因很簡單:GPU負責生成Token,而Token代表AI的經濟價值;CPU並不直接產生Token,因此我們希望把能源優先給GPU。 想像一個AI資料中心:有五百億美元的GPU,只搭配十億美元的CPU,你絕對不希望GPU閒置等待CPU。因此,CPU的任務是盡快完成工作,讓GPU永遠保持運作。這也是為什麼我們的CPU設計完全不同。 太空|攜手合作夥伴 技術延伸地球外 問:輝達在太空運算的進展為何? 黃仁勳:去年十一月,新創公司Starcloud將一顆輝達的H100CPU搭載在衛星上發射升空,使這顆晶片成為首個在太空運作的AI模型處理器。輝達在這次GTC大會上也發表了可適用於太空環境的Space-1VeraRubin模組。 太空運算的時代來了。AI必須存在於任何能夠生成資料的地方,橫跨太空和地球表面系統的AI處理能力,可實現即時感測、有助制定決策,把軌道資料中心轉化為探索工具,將太空船轉化成自主導航系統。 我們和合作夥伴共同攜手,把輝達的技術延伸到地球之外,大膽地把AI帶往過去未能觸及的地方。共同研發可用於軌道資料中心的新型電腦,但仍有一些工程上的關卡待克服;例如,太空中沒有對流,只有輻射,因此必須設法讓系統在太空中冷卻,許多優秀的工程師正在設法解決這個問題。 …本文摘錄自 《財訊》 2026/4月 第760期
閱讀完整內容
▲太空運算的時代來臨,由黃仁勳親自揭示最新的太空運算產品。(CFP)
商機|客戶不只買晶片 而是整個平台 問:輝達要如何在二○二七年要做到一兆美元的生意? 黃仁勳:這個一兆美元,是我們目前可見並有信心對應的需求與訂單,時間範圍到二○二七年,而且只計算兩個產品:Blackwell架構與VeraRubin平台。 為什麼我只計算這兩個?其實輝達已經有更多產品,例如獨立銷售的CPU、Groq推論系統、AI專用儲存系統、BlueFieldDPU、Feynman系列技術等等。就像Groq本身就可能為系統增加約二五%的經濟價值;也就是說,如果是一個1GW的資料中心,加入Groq之後,整體經濟規模可能會增加二五%。 我去年在GTC曾經說過,在二六年之前,Blackwell+Rubin的市場機會是五千億美元。如果今年突然把CPU、Groq、儲存系統等都算進去,就會把兩件不同的事情混在一起,讓市場難以比較。因此,這次我仍然只用Blackwell+VeraRubin來計算。 目前我們大約四○%的業務來自於企業市場、超大規模企業、工業應用、物理AI、自動駕駛、機器人、各地區的輝達雲端合作夥伴(NVIDIA Cloud Partner),以及主權AI。這些市場並非雲端服務商可以完全服務,上述客戶不是買晶片,而是買整個平台。另外六○%的業務來自CSP雲端市場,我們直接將產品銷售給雲端服務商,也包含像戴爾、甲骨文等基礎設施供應商。 問:你提到CPU在資料中心的商機將達數十億美元,傳統x86CPU發展性如何? 黃仁勳:輝達的GraceCPU與VeraCPU,其實代表一種全新Arm架構的CPU類型,是為資料密集型工作負載、高單執行緒性能,以及電力受限的資料中心所設計。 為什麼資料中心對CPU的需求改變?因為電力是最大限制。如果資料中心只有一GW電力,你會希望把最多的電力分配給GPU,而不是CPU。原因很簡單:GPU負責生成Token,而Token代表AI的經濟價值;CPU並不直接產生Token,因此我們希望把能源優先給GPU。 想像一個AI資料中心:有五百億美元的GPU,只搭配十億美元的CPU,你絕對不希望GPU閒置等待CPU。因此,CPU的任務是盡快完成工作,讓GPU永遠保持運作。這也是為什麼我們的CPU設計完全不同。 太空|攜手合作夥伴 技術延伸地球外 問:輝達在太空運算的進展為何? 黃仁勳:去年十一月,新創公司Starcloud將一顆輝達的H100CPU搭載在衛星上發射升空,使這顆晶片成為首個在太空運作的AI模型處理器。輝達在這次GTC大會上也發表了可適用於太空環境的Space-1VeraRubin模組。 太空運算的時代來了。AI必須存在於任何能夠生成資料的地方,橫跨太空和地球表面系統的AI處理能力,可實現即時感測、有助制定決策,把軌道資料中心轉化為探索工具,將太空船轉化成自主導航系統。 我們和合作夥伴共同攜手,把輝達的技術延伸到地球之外,大膽地把AI帶往過去未能觸及的地方。共同研發可用於軌道資料中心的新型電腦,但仍有一些工程上的關卡待克服;例如,太空中沒有對流,只有輻射,因此必須設法讓系統在太空中冷卻,許多優秀的工程師正在設法解決這個問題。 …本文摘錄自 《財訊》 2026/4月 第760期



