AI教主黃仁勳:OpenAI一兆神預言


Nvidia產品規劃上,從Blackwell系列到明年要推出的Rubin和Rubin CPX,以及將推出的Vera Rubin產品,正是Nvidia一步步轉型到AI基礎設施全套供應商;這套AI升級規模,是黃仁勳眼中真正的機遇所在。

文 ● 魏聖峰

輝達(Nvidia)執行長黃仁勳日前接受網路媒體專訪時開宗明義地指出,我們正在經歷需求的深度和需求的廣度,這兩個指數等級的成長,會使得總計算需求的指數呈現爆炸性成長。這是黃仁勳認為,未來AI需求的成長模式,並支持Nvidia估值的核心價值。面對這樣的需求,Nvidia正在部署一個AI生態系的計畫,讓競爭者追不上來。未來數據中心瓶頸是電力和土地,在AI時代,智慧能被以Token方式被量化、被定價,成為像水和電一樣可以被生產與消費的商品。

在Nvidia產品規劃上,目前Blackwell系列產品B100、B200和GB300機櫃正大量出貨,預計明年要推出Rubin和Rubin CPX系列產品,二六年將要推出Vera Rubin,目前Vera Rubin平台的六款晶片已經在完成設計定案(tape-out)。Blackwell系列產品屬於單一機櫃,接下來的Rubin架構平台是好幾個機櫃組成的一個資料中心,且所有機構都要被串聯來產生算力。至於Vera Rubin平台則是由好幾個資料中心組成的一台超級電腦,不但每個機櫃都要串聯,不同的資料中心也需要串聯在一起。這就是黃仁勳在訪談中強調的AI工廠概念。由好幾個資料中心串連成的超級電腦,可算是一台超級電腦。其所堆砌而成的算力,是單一資料中心的好幾十倍以上。這樣的算力才能因應AI指數等級的需求成長。

算力升級無極限

黃仁勳認為,AI計算是一種全新思維,他承認單一GPU有極限,以AI計算的加速計算,就是擁有數千個核心系統的超大型GPU,可以同時進行大量的運算,並能處理極耗費資源的特定任務,可以同時進行大量運算,讓整個系統的效率呈現指數等級的提升。這樣的替代規模,才他眼中真正的機遇所在。如果對照上述Nvidia產品推出進度,Blackwell和Rubin架構產品屬於一般的GPU,還不能發揮最大效能來產生需要的算力,Vera Rubin架構才比較能符合未來能因應AI指數型需求成長的平台。

現在能生產AI晶片架構的公司,包括Nvidia、超微、英特爾和博通在內,在黃仁勳眼中僅屬於能運作通用計算的目的,雖然靈活也能處理各項任務,但還沒一項都能做到極致。唯有把通用計算全面升級到加速運算,才能解決過去十幾年我們依賴摩爾定律的物理極限。Nvidia的市場,正是對現存的基礎設施,進行一場全面的升級替換。這場替換規模,才是他眼中真正的機遇所在。


對Meta、谷歌等資料中心巨頭來說。升級到AI不是一個選項,而是一場生存之戰,如果你的演算法讓用戶停留時間比對手少十%,你就輸了。在各大資料中心都在全力爭奪用戶時間的競賽中,沒有人敢在算力的提升上落後給對手。

面對Meta、谷歌和亞馬遜等資料中心巨頭自己研發的客製化ASIC晶片,以降低對Nvidia AI晶片的依賴,還能降低營運成本等。面對這樣的局勢,Nvidia是否還能維持現有的霸主地位?對此,黃仁勳認為,競爭對手頭一開始就搞錯戰場,這場戰爭的核心從來都不是關於哪塊晶片比較便宜,而是在於哪座AI工廠更賺錢。Nvidia現在做的事已經不是那一顆晶片更好,而是在設計與建造一座AI工廠。如果從黃仁勳擘劃的「Nvidia護城河」來看,Nvidia已經把競爭對手AI晶片製造商擴大到亞馬遜、谷歌,甚至於高通和蘋果都是潛在的競爭對手。這代表Nvidia正在籌設一座AI等級的資料中心,而這類的AI資料中心的效能,比現有傳統資料中心業者效能大上十幾倍甚至上百倍。意味著Nvidia要從打造AI零組件一直做到建造一座AI工廠。


讓AI工廠更賺錢才是重點

這座AI工廠不僅包含GPU,還有CPU、NVLink(高速連結)、Spectrum-X(網路技術)和CUDA(軟體平台)。Nvidia還提供極致協同設計的策略,就是幫客戶每年同時升級這座AI工廠的所有部分,讓客戶每年都能與Nvidia的最佳等級AI平台同步更新,以追求整體效率最大化。基於這樣的整體作戰能力,Blackwell系統就比前一代Hopper,性能實現三○倍的躍升能力。這等於是建構很難讓競爭對手追上來的護城河。

除了傳統資料中心業者不斷向Nvidia購買最新AI系統晶片機櫃,好把傳統資料中心升級為AI等級資料中心。超微、英特爾和博通等AI晶片製造競爭對手,也都還處於設計單一AI晶片或客製化單一晶片的階段,或許超微已把AI晶片逐漸升級到AI機櫃等級,這距離打造一座AI工廠還差好幾個級距。

很多AI晶片客戶都認為Nvidia的AI GPU價格很貴,影響客戶升級意願。黃仁勳提出一個有趣的觀點:未來數據中心最大瓶頸不是採購晶片的成本,而是電力、土地以及讓他的客戶停留在資料中心時間的長短,還有平台系統產生的算力問題。使用Nvidia系統的方案,採購價格固然很高,卻能在○.四吉瓦(GagaWatt)電力下,它能產生×數量的頂級算力。另一個方案是,使用其他更便宜的方案。由於性能功耗只有Nvidia的一半,它只能產生○.五×的頂級算力。這個方案中,你服務的客戶可能因此減半,直接損失最高利潤的營收,並在算力競賽中落後給競爭對手。未來AI競爭中,AI資料中心的營收就是時間乘上算力,如何在最短期間內取得最大的營收,才是贏家。


提供服務乃資料中心等級

除了建造AI工廠外,Nvidia也布局多項他們前景看好的產業。就以最近最熱門Nvidia投資OpenAI一千億美元為例,市場普遍認為這是一套資金用投資綁未來營收策略的循環模式。對此,黃仁勳把OpenAI列為下一個市值會超過上兆美元的企業。過去,Nvidia透過微軟Azure來支持OpenAI,現在直接與OpenAI合作。Nvidia正在幫OpenAI建立自己的AI基礎設施,這會讓OpenAI成為全面營運的超大規模公司。他把與OpenAI的策略合作模式當作單純的財務投資機會。投資OpenAI是一個機會,既然他在未來會成為上兆美元的公司,為什麼現在不成為他的投資者呢?

從Nvidia的官網來看,該公司已經投資資料科學、生成式AI、資訊科學、醫療照護、工業AI(Omniverse)和機器人等項目。此外,Nvidia也提供AI推論解決方案,雲端AI影片串流、AI企業平台以及網路安全等。從Nvidia的投資項目以及提供客戶的AI相關服務來看,Nvidia早已超越AI晶片製造商的範疇,轉型成為AI資料中心的提供業者。

中國在AI落後差距不大

AI的地緣政治鬧得沸沸揚揚,先是川普政府禁止H20晶片出口到中國,也把禁止出口到中國的半導體製程界定在七奈米以後設備製程,以確保美國和西方國家在AI進度領先到三到五年的時間。現在則是中國政府要求該國資料中心和生成式AI業者不要用Nvidia H20晶片。關於中國AI落後美國的問題,黃仁勳認為它們只落後我們「幾奈秒」而已。在他看來,中美兩國在基礎人才與科技研發能力上的差距不大,甚至於美國的管制政策,在現實中可能產生與先前完全相反的效果。

將Nvidia與其他美國公司排除中國市場之外,不僅讓Nvidia和其他美國企業喪失巨大的中國市場收入,更關鍵是它剛好幫中國本土競爭者華為創造一個沒有外部競爭、受保護的練兵場。他認為,一個更從聰明的策略是讓美國最優秀的科技公司在國市場正面競爭。他倡導的主權AI,實質上是幫Nvidia創造一個全球性、永續的增量市場,每個國家都需要建立自己的智慧發電廠,而Nvidia正是「賣發電廠全套設備」的唯一供應商。 閱讀完整內容
先探投資週刊2025/10月 第 2373期

本文摘錄自‎

AI教主黃仁勳:OpenAI一兆神預言

先探投資週刊

2025/10月 第 2373期