Nutanix GenAI Agentic AI K8S Nutanix Cloud Platform Cloud Native AOS

資料主權與AI推論並行 K8s成為企業新中介層

運算架構不再圍繞虛擬化 IT平台走向多雲自治

2025-12-23
生成式人工智慧(GenAI)與代理型AI(Agentic AI)推動企業運算架構走向平台化,原本以虛擬化或混合雲為核心的基礎架構,逐漸轉向跨多雲的分散式運算平台。

企業不再只關注虛擬機部署效率,而是需要能在資料中心、公有雲與邊緣(Edge)之間提供一致配置、治理與資料移動路徑管理的運算架構,並且支援容器化與GPU密集工作負載的運行環境。

Nutanix全球技術資深副總裁Mike Phelan指出,企業正在重新檢視資料中心拓撲,評估工作負載在不同環境間的布建方式,包括在哪裡訓練模型、哪些推論部署在靠近資料源的邊緣、哪些應用維持於私有環境以符合資料主權要求等。

Mike Phelan以平台演進的四個階段來回顧運算架構變化。他表示,第一階段聚焦以超融合架構(HCI)承載線上工作負載,包括Web後端與桌面虛擬化。第二階段則進入關鍵應用核心系統,包含後端資料庫,重點在於提升可靠性與維運效率。第三階段將平台延伸至公有雲,使企業能在AWS、Azure與Google Cloud上以一致堆疊進行災難復原與雲端擴展,其技術基礎來自跨環境保持一致的基礎設施抽象層,而非單點協作工具。

當前第四階段則由AI與無狀態(Stateless)應用主導,平台調度核心轉向以Kubernetes(K8s)為主,並需具備跨資料中心、公有雲與邊緣(Edge)節點之間的工作負載可移動性。關鍵不在於取代虛擬化層,而在於讓虛擬化與容器、AI推論共享同一資料平台與控制平面,使治理與生命週期管理不再需要多套工具並存,避免形成「虛擬機環境一套、K8s環境一套、AI叢集再一套」的平行架構。

Nutanix Cloud Platform(NCP)採單一程式碼來源構建資料平面與控制平面,涵蓋儲存引擎(AOS)、生命週期管理、網路與安全治理(Flow),並支援多種運算執行層,包括AHV Hypervisor、裸機節點及CNCF認證K8s環境。企業可依資料位置、成本與法規要求選擇部署環境,同時維持相同治理與觀測能力。Mike Phelan表示,整合式架構能避免企業同時維護多套平台版本,讓虛擬化、容器與AI推論採用相同資源管理與資料一致性模型,使跨雲部署不再依賴額外整合工具,強化營運彈性。

資料平台雲原生化成為基礎層

面對容器化與AI工作負載成長,資料層與跨雲存取能力逐漸取代虛擬化層成為架構核心。Nutanix發布的Cloud Native AOS解決方案將資料平台直接運行於雲原生與裸機環境,不再依賴Hypervisor,使Cloud Native AOS支援跨雲災難復原、資料複製,讓容器化工作負載能在資料中心、公有雲與邊緣端運行。 Mike Phelan表示,若以傳統方式建置AI,往往需要先擴大儲存架構與加速硬體,再引進多種類型軟體工具搭建資料存取路徑,成本高且擴展速度難以滿足AI工作負載潛在高峰值運算需求。他認為,具備彈性擴展能力的資料平台更能因應AI推論與容器工作負載隨需求擴展,依資料來源調整運算位置,而不需預先以峰值容量配置硬體。

Cloud Native AOS支援跨可用性區域與本地部署的整合式資料保護,讓容器化工作負載能在資料中心、公有雲與裸機架構間調度,並能透過Kubernetes API管理資料生命週期,使資料治理方式與應用部署流程一致,減少基礎架構團隊手動維護工作。該能力目前已在Amazon EKS進入早期測試,未來將擴展至更多雲原生部署場景。

K8s與多雲協作落實統一治理

AI部署逐漸從單一模型推論轉向任務導向與跨系統協作的代理(Agentic AI)。企業需要的不只是生成內容,而是能理解目標、執行工作流、呼叫企業內部系統並具備治理能力的代理。Nutanix最新Enterprise AI以K8s與多雲抽象層作為執行架構,整合NVIDIA AI Enterprise,包括NIM微服務與NeMo框架,使企業能在資料中心、邊緣節點或公有雲上以同一堆疊部署推論端點,並由控制層統一治理。

Nutanix亞太及日本地區副總裁暨總經理Jay Tuseth(左)、全球技術資深副總裁Mike Phelan(中)、台灣總經理劉國龍(右)共同闡述以統一資料平面與控制層支援虛擬機、Kubernetes與AI推論的多雲架構戰略。

平台支援共享LLM模型端點,使模型能成為跨應用基礎服務,提升GPU使用率並降低重複訓練與部署成本。模型治理不僅涵蓋內容過濾與越獄防護,也提供端點防護能力,使模型使用方式符合企業風險管理與隱私合規要求。Enterprise AI同時整合資料平台服務,可處理非結構化與結構化資料,並支援NVIDIA GPUDirect Storage,使資料以更低延遲進入GPU,避免瓶頸落在前置處理階段。

企業採用AI的速度不只受制於運算與儲存架構,也受資料主權、雲端可用性與合規要求影響。Nutanix亞太及日本地區副總裁暨總經理Jay Tuseth表示,亞太企業導入AI的關注焦點不在模型研究本身,而是讓AI靠近資料來源部署,同時保留向外擴展能力。

Jay Tuseth引述《Nutanix 2025企業雲端指數》調查報告指出,亞太區約六成企業已具備生成式AI策略,八成導入容器化應用,說明企業正將K8s視為新一代應用協作層,並將資料主權與隱私列為跨雲部署優先要件。台灣市場呈現相同現象。Nutanix台灣總經理劉國龍表示,企業架構正從單一虛擬化堆疊轉向裸機、K8s與GPU工作負載並行,使既有生產系統與新型AI應用共享同一資料平面與治理模式。企業無須拆除既有虛擬化平台,即可在同一架構上引入容器與推論環境,降低整合成本並加速導入。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!