Nvidia這次公布的財報雖未帶來驚艷,卻不擔心長期發展。總能給全村希望的Nvidia,發布未來三年產品藍圖,從AI晶片供應商轉型為大型AI基礎平台架構供應商,若能達成目標,AMD、博通可能就更難與其相抗衡。 文●魏聖峰 全球資本市值最高企業的布財報顯示,即使財報內容與對本Nvidia最新公季的財測均優於市場預期,卻因為資料中心部門營收連續兩季呈現季減,財報內容並非無懈可擊;加上市場最近擔心AI泡沫化,以及Nvidia目前的高本益比壓力,造成公布財報後股價下跌。短線股價可能進入震盪整理,長線上AI霸主的地位尚無人可以挑戰。日前Nvidia舉行一場亞太媒體分享會,揭櫫未來三年藍圖計畫,一旦成形會讓Nvidia轉型為AI基礎設施架構的設計者。 從第二季四大CSP服務商發布的財報中,光是四大CSP今年的資本支出就會達到三三八○億美元,這些資本支出絕大部分都與AI相關,也有很大的部分都流向Nvidia。當前高階AI晶片市場僅Nvidia和超微,而Nvidia的市占率超過九成。但從Blackwell架構開始,Nvidia向客戶提供的高階AI晶片已經不再是單從的系統單晶片,而是一個機櫃。機櫃內容包含HBM、高階CCL、液冷系統以及電源備援系統(BBU)等零組件。對客戶來說,機櫃內容可以客製化,機櫃出貨給客戶後,安裝容易。
Blackwell出貨提高毛利率 Blackwell原本去年底陸續出貨的產品,卻因為散熱問題延到今年第二季才能大量出貨。根據Tom’sHardware報導指出,今年GB200NVL72機櫃的出貨預估為二.五萬∼三.五萬台,低於先前預估的五萬∼八萬台。大多數的供應商認為,技術問題已經解決,廠商正在加速生產,預期下半年會有更快的出貨速度。從Nvidia的營運內容來看,營收、EPS維持穩定的向上成長模式。在毛利率與營益率趨勢來看,二六財會年度第一季因為H20遭美國政府限制無法出貨,當時Nvidia被迫打消四五億美元庫存,以至於該季的毛利率、營益率突然明顯下滑。執行長黃仁勳當時表示,假如H20能順利出貨,可以多增加八○億美元營收。最近川普政府對H20出貨給中國開綠燈,但在第二季期間,Nvidia仍沒有向任何中國客戶銷售H20,僅向一個非中國客戶出貨H20。即便如此,Nvidia上季毛利率與營益率明顯回升,並分別重回七二.五三%與六一.○三%。據此推測,Blackwell第二季逐漸正常出貨,對Nvidia提升毛利率和營益率有正面貢獻。 即便Nvidia上述財務數據都正向表列,但本益比超過五○倍、資本市值四.二三兆美元的公司,華爾街市場對Nvidia財報數據的檢驗也毫不客氣。要有上述身價,財報得要毫無瑕疵財可能讓市場接受。資料中心是Nvidia營運最大成長來源,這部分得要滿足市場的挑剔。雖然資料中心的營收都維持正成長,上季已來到四一○.九六億美元並維持創新高表現。但如果從每季增加的趨勢來看,Nvidia資料中心營收已經連續兩季成長遞減。加上先前MIT發布報告說很多AI新創公司呈現虧損擔心有泡沫化疑慮,Nvidia這次公布的財報與財測內容被市場認為平淡、沒有驚喜,造成財報公布後股價下跌。另外,Nvidia上季庫存增加到一四九.六二億美元,季增三二%、年增一二四%,也讓市場擔心這是客戶需求不佳,還是因為B100、B200以及未來GB300機櫃推出後,造成舊款H100/200需求停滯所致。最近市場傳言阿里巴巴將自研AI晶片,不再依賴Nvidia,造成股價下跌。但我們認為,這都僅是Nvidia股價創新高後的回檔,對Nvidia實質的影響不大。 不過,這都已經過去,Nvidia總能給市場無窮的希望。八月下旬黃仁勳無預警來台灣與台積電高層會晤,討論接下來的Rubin架構平台。他向媒體透露,Nvidia有六款全新晶片要與台積電合作,包括新款CPU、GPU、NVLink交換器晶片、網通晶片、矽光晶片等都要與台積電密切合作。黃仁勳所透露的六款全新晶片內容,似乎就是Nvidia未來三年產品架構。
新架構藍圖顯現企圖心 Nvidia在八月二十二日舉行一場亞太媒體分享會中揭櫫該公司未來三年的產品藍圖計畫,將陸續推出的GPU架構將從目前的Blackwell演進到Rubin、Feynman。將從現有單一AI機櫃伺服器走向多資料中心串連在一起的超級運算中心架構。目前建構AI資料中心基礎設施連結主要有,垂直擴展(ScaleUp)和水平擴展(Scale-Out),未來將會變成由數個資料中心互聯的Scale-Across,形成一個跨區的超級運算中心體系。以因應AI模型規模變大後,動輒數百兆個Token在幾秒內快速傳輸,單一資料中心難以負荷如此量大的傳輸。還有機房空間不足的問題也需要分散部署,必須建構成跨資料中心的連結才能在最短時間內完成最大的工作量。若能達成上述目標,Nvidia將從AI晶片設計公司轉型為AI基礎架構平台服務商,目的是要讓AI資料中心都能在由Nvidia提供的基礎架構平台上,使得Nvidia在未來的AI產業發展中變成不可或缺的元素。
多個資料中心光學互聯 從NvidiaGPU未來三年路線圖來看,屬於單一機櫃的Blackwell架構內涵HBM3e記憶體,採用GraceCPU和NVLink交換器。在這個機櫃中,在空間內儘量增加CPU和GPU資源,採用垂直連結。在二六年要推出的Rubin架構中,記憶體提升到HBM4,使AI推理效能更高。在Rubin架構中,在單一資料中心內將由多個機櫃組成,屬於多台伺服器集群,採用水平擴展的連結模式。Rubin架構內,CPU提升到VeraCPU、交換器提升到Spectrum-X,會比Blackwell晶片效能提升兩唄。由於有多個伺服器集群,將會使開始用到矽光子技術(CPO),取代傳統銅線傳輸。CPO技術有更大頻寬、低延遲等特性,雖然價格不斐,客戶長期使用下來,能在高倍速運算能達到降低成本目的。 在二八年的Feynman架構,會有多個資料中心的連結技術,記憶體採用HBM4e,會比Rubin架構的AI推理能力至少增加數倍,CPU至少也是VeraCPU等級。該架構的交換器會提升到Spectrum-XGS。XGS代表的是Gigascale,專門為大規模資料中心所設計的高倍速交換器,也是採用CPO技術的光學互聯。Feynman架構中,不僅在單一資料中心內互聯,還要達到多個資料中心互聯的目的。其所採用的連結技術是Scale-Across,Nvidia將透過新一代乙太網路技術,把數個分散式資料中心,組合成一座超級運算中心。
當前的資料運算中心僅是一個單一的資料中心,Feynman架構中則由數個資料中心互聯而成的一個超大型運算中心,內含GPU至少是數十萬顆GPU組成,甚至未來有可能達到百萬顆,以期將能在最短的時間內達到最高的運算效能,並廣泛運用在各個領域內。以自動駕駛為例,由Feynman架構訓練出來的自動駕駛,應該有能力達到全自動駕駛的目的。不過,Feynman架構仍有許多問題要克服,尤其在冷卻系統上採用液冷技術,而目前的液冷能否有效處理這麼多GPU排放出來的熱氣仍需要不斷地檢驗才能達成。 在Nvidia的架構藍圖不難看到該公司在未來AI產業的企圖心非常強烈,且該公司的AI技術不斷往前奔跑。黃仁勳在這次財報會議中表示,Nvidia的平台高度複雜,它是一個全棧式(full-stack)協同設計問題,這與ASIC有根本上的區別。還有,Nvidia在每個雲端、從雲端到的地端、邊緣運算到機器人都可以使用,採用相同的程式設計模型,和軟體支援。看起來,Nvidia設計的平台架構,基本上會壓縮競爭者生存的空間,這對超微、博通來說不是一件好事…
閱讀完整內容本文摘錄自
黄仁勳公布 輝達AI基建大升
先探投資週刊
2025/9月 第2368期
相關