AI的發展正式從工具化為主體,代理型AI正式來臨,未來的AI將能自主規劃、決策到任務執行。AI真的能在部分重複、繁瑣的工作上取代人力,AI推論能不斷產生需求,將會是AI變現的開端。 文●魏聖峰 AI的價值重心,已經從生成內容轉向執行任務。四月下旬舉行的Google Cloud Next 2026會議上明確釋出這樣的產業訊息。AI發展的重心正在從工具進化為主體,產業正式邁入第二階段的競爭模式,就是代理型AI(Agentic AI)的時代正式來臨。未來的AI將能自主規劃、決策與執行任務,收費模式也可能跟著改變,並可能從現有的訂閱制演變成任務型收費制。
代理型AI需求湧現 生成式AI從二○二二年底,由OpenAI推出的ChatGPT,掀起生成式AI發展風起雲湧,代表性的產品包括ChatGPT、Copilot等,市場關注焦點集中在模型能力、參數規模以及訓練成本。從今年開始的AI發展,產業聚焦的重點在於代理型AI。什麼是代理型AI?簡單來說,就是一個具備自主規劃任務、多步驟執行、即時決策以及與外部系統互動的能力。過去生成式AI,這階段的AI功能在於回答問題和生成內容。它的主要角色作為輔助的工具。在代理型AI的發展上,能夠從規劃、決策到執行完成任務,並且這個流程能不斷地重複。此時,AI的角色已不再只是輔助工具而已,而是一個能完成任務的個體。如果在企業內,此時AI的角色就是扮演員工的角色。很多不斷重複且繁雜的工作任務,就交給這個代理型AI來完成。 這樣的轉變點出AI發展的關鍵性轉型,AI正從單純對話,進化到實際行動。生成式AI階段,AI主要是生成文字或圖片,這對企業來說雖然有趣,但很難直接轉化為實際的產值。Google Cloud Next 2026強調的代理式AI,具備連結企業內部資料(ERP/CRM)並執行動作的能力(例如:自動處理訂單、調整供應鏈、完成報帳)。 當AI能完成工作而不再只是建議工作內容時,企業會更願意支付高額費用,因為它直接節省人力成本並提高精確度。為了讓這些AI代理能真正隨處可用且降低成本,技術上將逐漸向邊緣端或更靈活的架構靠攏。最近微軟、Meta宣布要透過優惠退休方案減少員工數量,顯然是AI逐漸替代掉部分人力,讓企業可以更優化員工。留下來的員工屬於技術含量較高,或者是執行更高階決策任務的人力。不僅如此,微軟、Meta甚至谷歌最近幾年也都有固定裁員的計畫,而這些大型企業這幾年獲利都很好卻還是裁員,這些都是AI已經在現實上替代人力的結果。
谷歌搶攻更強的AI話語權 谷歌發表專為推論(Inference)優化的TPUv8i晶片是這次大會的重頭戲之一。推論是AI運算的下半場,也就是AI在現場(可能是雲端邊緣或設備端)做決定的過程。如果所有運算都要回傳到昂貴的超大型伺服器,將會造成變現成本高的問題。若能將推論過程移往更靠近使用者的邊緣端或優化後的推論架構,就能大幅降低運作成本。這樣的模式,代表AI進入應用的紅利期,在資料中心的雲端主機,負責重型訓練和大規模代理的調度。在邊緣或是推論端,負責低成本和高效率的執行動作,這樣的分類才能讓AI成為真正規模化變現的獲利模型。 更重要的是,先前的AI模型訓練是屬於一次性的成本支出,而從現在開始的推論則是持續性的收入,因為每一個代理型AI都會產生長期推論的需求,讓AI推論不斷地創造收入,凸顯推論才是AI變現的開端。谷歌這時候推出專門推論用的晶片有其在AI戰略上的布局。由Nvidia主導的AIGPU主導AI訓練大型模型用的晶片,谷歌TPU推論型晶片強攻代理型AI優化用的推論晶片,形成訓練用GPU加上TPU推論雙軌制。谷歌TPU性能不輸亞馬遜、Meta等自研ASIC,先把這塊ASIC市場搶下來,形成在ASIC領域上有更強的話語權。 谷歌在這次Google Cloud Next 2026大會中發表兩款TPU,除了上述推論用的TPUv8i外,也推出作為訓練用的TPUv8t。這是專為大規模模型的訓練而設計,其目標是縮短開發頂尖模型(如Gemini之後的次世代模型)所需的周期,目標是要把開發尖端模型的周期從以「月」計算縮短為「周」。再者,其單一訓練任務可串聯高達九六○○顆晶片,提供強大的集群算力。根據谷歌揭露的資料顯示,訓練速度較前代提升到兩倍,且每美元能效提升約二.七倍。為了減少大規模運算時資料傳輸的延遲性,TPUv8t採用巨型網路拓撲架構。
拓墣架構技術含金量高 這裡的拓墣架構是指谷歌自行研發的3D環狀架構和光學電路交換(OCS),OCS技術中谷歌運用微型小鏡子反射光束,直接在光學層面切換數據路徑,而非依賴傳統的電子數據交換機。讓TPU內數據傳輸能夠在不重新配置線路的情況下,隨時動態調整網路連線方式。若某區域的晶片發生故障,網路會自動繞行,確保訓練過程不受中斷,以消除通訊瓶頸。3D環狀架構是讓晶片連結變成一個立體的方格網絡,最邊緣的晶片會繞回連結到另一頭的邊緣,形成一個封閉的循環,以消除末端的概念。無論那兩顆晶片要傳資料,路徑都極短,且永遠有替代路徑可走,讓數據直接在晶片間的高速通道流動。谷歌的拓樸架構與NvidiaCPO的功能類似,目的都是在晶片內用來傳輸大量數據的技術。 TPUv8t未來的定位作為AI超級電腦的運算核心,來處理基礎模型的大量參數訓練與參數優化工作。講到這裡,各位是不是覺得谷歌推出這款訓練晶片是不是要挑戰Nvidia的AIGPU現有地位?沒錯!谷歌在AI的發展不讓Nvidia獨霸於前,而是有計畫地挑戰Nvidia在AIGPU的地位,目前谷歌TPU的確已經吸引Meta、Anthropic和OpenAI等地客戶簽署數十億美元合約採用其TPU。以TPUv8t在算力效能上,標的是瞄準是現有NvidiaBlackwell系列B200等級的AI加速器。

TPU晶片的IP 谷歌這次推出訓練用的TPUv8t和推論用的TPUv8i,也不是自己獨家研發出來,而是分別與博通和聯發科合作採用他們的IP架構設計而成。谷歌研發TPU的開端就與Nvidia的通用型GPU策略不同,而是開發專用晶片。訓練用的TPUv8t與博通合作,博通擁有業界最強的高速通訊技術(SerDes)與複雜系統整合能力。谷歌支付研發IP費用,讓博通處理最難的資料傳輸與3D環狀拓墣架構的問題,谷歌本身專注於AI演算法加速。博通的SerDes和網路交換(Switching)技術是現在業界最強的,能確保低延遲和超高頻寬。谷歌最近與Marvell合作,使用該公司IP是要來優化在OCS與大規模網路的效能。Marvell的IP能確保數據在經過光纖與OCS交換器時,訊號不會衰減或產生雜訊。 谷歌在TPUv8i與聯發科合作,這款晶片需要處理大量的數據推論,這涉及與HBM的高效連結。聯發科在行動裝置上累積豐富的低功耗、高整合經驗,其IP能讓晶片在有限的功耗環境,發揮最大的資料讀取效率。聯發科的IP協助谷歌將複雜的計算單元、記憶體介面與I/O完美整合,讓推論過程成本更低、速度更快,這對於AI變現非常重要。博通、Marvell和聯發科的IP協助谷歌研發的這兩款晶片,讓谷歌繞過Nvidia在AIGPU的壟斷,建立一套自己的AI系統架構。不論是TPUv8t還是TPUv8i任務很單純,一個是訓練、另一個是推論,都與Nvidia通用型GPU不同,TPU的性價比高,不論在價格還是在功耗上都比Nvidia通用型GPU低,將更能省電,是TPU的優勢所在。 Google Cloud Next 2026揭示谷歌已能從晶片、雲端資料中心、Gemini AI作業系統到整個全棧AI戰略,建立一個完整的AI生態圈,是谷歌在未來代理型AI中搶攻AI話語權的重要工具,未來AI員工時代正式來臨。未來的AI產業競爭將從誰的模型最強演化到誰能建立完善的AI經濟體系。 …本文摘錄自 先探投資週刊 2026/5月 第2402期
閱讀完整內容本文摘錄自
Google的TPU奇蹟 完整供應鏈全解析
先探投資週刊
2026/5月 第2402期
相關