華碩在 NVIDIA GTC 2026 大會上展出針對 NVIDIA Vera Rubin 平台設計的全液冷 AI 基礎架構;為降低資料中心的能源使用效率(PUE)與總體擁有成本(TCO),華碩推出 ASUS AI POD 液冷裝置,提供高負載運算所需的客製化散熱與備援機制,並涵蓋基礎架構部署與專家諮詢等整合式服務。

在機櫃級解決方案中,XA VR721-E3 為百分之百液冷設計,其熱設計功耗(TDP)支援高達 227kW(MaxP)或 187kW(MaxQ),主要針對兆級參數模型的運算需求。華碩同時與 Schneider Electric 及 Vertiv 等基礎設施大廠合作,確保在不同的電力與液冷部署環境下,維持運算系統的高效能與冗餘性。
資料中心伺服器擴編與數位分身應用

針對資料中心轉型需求,華碩推出支援 NVIDIA HGX Rubin NVL8 系統的伺服器,單機能搭載八顆透過第六代 NVLink 串接的 Rubin GPU,每顆具備 800G 頻寬,企業可依散熱規劃選擇 XA NR1I-E12L(GPU 液冷搭配雙 Intel Xeon 6 處理器氣冷的混合散熱),或全液冷設計的 XA NR1I-E12LR。
同時,華碩也發表搭載 NVIDIA HGX B300 的 XA NB3I-E12、採用 NVIDIA MGX 架構與 ConnectX-8 SuperNIC 的 ESC8000A-E13X,以及內建 RTX PRO 4500 / 6000 Blackwell GPU 的 ESC8000A-E13P。
在實際應用層面,華碩 ESC8000 系列已能支援 NVIDIA Omniverse 平台的生產線數位分身技術,進行遠端模擬。
為因應龐大的資料量,華碩亦與 IBM、DDN、Weka 及 VAST Data 合作,部署 VS320D-RS12 區塊儲存與 OJ340A-RS60 物件儲存等高擴充性軟體定義系統。
涵蓋桌機至邊緣端的實體 AI 開發環境
在實體 AI(Physical AI)領域,華碩提供了涵蓋模型開發到終端部署的算力硬體。針對本地端開發,ASUS ExpertCenter Pro ET900N G3 桌上型超級電腦搭載 NVIDIA Grace Blackwell Ultra 平台,內建 NVLink-C2C 互連技術與 748GB 一致性記憶體,可處理大型 AI 模型訓練。
另一款微型設備 ASUS Ascent GX10 則配備 NVIDIA Grace Blackwell Superchip,具備 Petaflop 等級算力,適合模型快速迭代;上述開發環境所產出的模型,可直接部署於內建 NVIDIA Jetson Tho 推論引擎的 ASUS PE3000N 設備上。該設備提供高達 2,070 TFLOPS 的算力,並相容 NVIDIA Cosmos 開放模型與 Metropolis 視覺庫,專注於感測器融合與自動導航等邊緣運算任務。
支援 NemoClaw 平台的代理 AI 本地端部署
在 AI 軟體部署與安全性方面,華碩 Ascent GX10 與 ExpertCenter Pro ET900N G3 皆相容於 NVIDIA 最新的 NemoClaw 開源平台;開發人員可藉此簡化 OpenClaw AI 助理的建置流程,並透過安裝 NVIDIA OpenShell 支援 Nemotron 等開源模型。
此架構允許開發者在本地端建立全天候運作的自主代理 AI(Agentic AI),利用沙箱環境隔離、權限控管與裝置端獨立推論等機制,大幅提升 AI 商業應用的資料安全性。
