NVIDIA創辦人暨執行長黃仁勳疫後的首場直播主題演講為2023年台北國際電腦展(COMPUTEX 2023),並宣布企業可以利用這些平台來駕馭生成式人工智慧在當代歷史上所掀起的巨大浪潮,這股浪潮改變了從廣告、製造到電信等各行各業。
!此為分頁標誌前台不顯示!
黃仁勳宣布推出具有龐大記憶體的人工智慧超級電腦DGX GH200,供需要極致人工智慧效能表現的企業使用。DGX GH200使用NVIDIA NVLink網路技術,將256個NVIDIA Grace Hopper超級晶片連接成一個資料中心大小的GPU。
黃仁勳也宣布GH200超級晶片現已全面投產。它將具有絕佳能效的NVIDIA Grace CPU與高效能NVIDIA H100 Tensor核心GPU集合在一個模組內。
DGX GH200的運算效能達到1 exaflop,擁有144 TB的共享記憶體,表現比一具NVIDIA DGX A100 320GB系統高出近500倍。這使得開發人員可以用它來開發用於生成式人工智慧聊天機器人的大型語言模型、用於推薦系統的複雜演算法,以及用於偵測詐欺及資料分析的繪圖神經網路。
Google Cloud、Meta與微軟率先使用DGX GH200來探索處理生成式人工智慧工作負載的能力。
黃仁勳向台北的聽眾表示,DGX GH200人工智慧超級電腦整合NVIDIA最先進的加速運算及網路技術,來突破人工智慧發展界線。
NVIDIA同樣在打造自家的大型人工智慧超級電腦NVIDIA Helios,預計將於2023年上線。它將使用NVIDIA Quantum-2 InfiniBand網路技術來連結四套DGX GH200系統,提供最高每秒400GB的頻寬,以強化訓練大型人工智慧模型所需的資料處理能力。
DGX GH200構成了在本次主題演講中公布數百款使用NVIDIA最新GPU和CPU之系統的巔峰之作。它們共同將生成式人工智慧與加速運算技術交到數百萬名用戶的手上。
從更大的格局來看,黃仁勳宣布有超過四百款搭載NVIDIA Hopper、Grace及Ada Lovelace架構的系統配置即將上市。這些電腦將用於處理人工智慧、資料科學與高效能運算方面的複雜難題。
黃仁勳宣布推出用於打造加速伺服器的模組化參考架構NVIDIA MGX,以滿足各種規模大小之資料中心的需求。系統製造商將使用NVIDIA MGX 架構,快速以符合成本效益的方式開發百種以上的伺服器配置,以配合多種人工智慧、高效能運算及NVIDIA Omniverse應用程式的需求。
MGX讓製造商使用通用架構及模組化的零組件來建構CPU架構和加速運算伺服器。它在各式氣冷式及液冷式機箱中,支援NVIDIA的全線GPU、CPU、資料處理單元(DPU)及網路卡,以及x86和Arm架構處理器。
雲達科技與美超微將率先在八月推出採用MGX設計的機型。美超微在COMPUTEX宣布推出的ARS-221GL-NR系統將採用Grace CPU,而雲達科技同樣在COMPUTEX宣布推出的S74G-2U系統則是將使用Grace Hopper超級晶片。