NVIDIA(輝達)推出首個採用Arm架構的資料中心CPU(中央處理器),其針對最複雜的人工智慧(AI)與高效能運算作業負載的效能是當今最快之伺服器的十倍。
超過一萬年工程心血結晶的NVIDIA Grace CPU,旨在滿足全球最先進應用程式的運算需求,包括自然語言處理、推薦系統與AI超級運算,由於這些應用必須分析龐大的資料集,因此需要超快速的運算效能與大量的記憶體。Grace CPU整合節能的Arm CPU核心與創新的低功率記憶體次系統,達到高效能且節能的設計。
Grace 是具高度特定性的處理器,專為如訓練超過一兆個參數的次世代自然語言處理模型的作業負載所設計。一套基於Grace CPU架構的系統與NVIDIA GPU緊密結合時,將提供較當今基於x86 CPU運行的最頂尖NVIDIA DGX架構系統提升十倍的效能。
預計絕大多數的資料中心將繼續由現有的CPU提供服務,而為紀念美國電腦程式設計先驅Grace Hopper而命名的Grace CPU,將服務特定的運算領域。
由於資料量與AI模型大小呈指數成長,NVIDIA宣布推出Grace。當今最大型的AI模型包含數十億個參數,且每兩個半月就會增加一倍。訓練這些模型需要一個能與GPU緊密結合的全新CPU,才能消除系統瓶頸。
NVIDIA利用Arm資料中心架構極為優異的彈性來打造Grace。藉由導入全新伺服器級的CPU,NVIDIA正在AI與高效能運算社群推動科技多元化的目標,而選擇解決方案是解決全球最為迫切問題所需的創新關鍵。
提供具突破性的效能
Grace效能的基礎是第四代NVIDIA NVLink互聯技術,其可以在Grace CPU與NVIDIA GPU間,提供創紀錄的900 GB/s 連結傳輸速度,與當今技術領先的伺服器相比,聚集頻寬提升三十倍。
Grace也將採用創新的LPDDR5x記憶體次系統,與DDR4記憶體相比,提供兩倍的頻寬以及十倍的能源效率。此外,全新的架構利用單一記憶體位址空間,提供統一的快取記憶體一致性,並結合系統與高頻寬記憶體(HBM)GPU,簡化可編程性。
Grace將由NVIDIA高效能運算軟體開發套件以及全套的CUDA與CUDA-X函式庫支援,可以加速超過2,000個GPU應用,並為從事全球最重要挑戰的科學家與研究人員,加速探索的腳步。
NVIDIA創辦人暨執行長黃仁勳表示,頂尖的AI與資料科學正在推進當今電腦架構的極限,因為要處理的資料量多到無法想像。NVIDIA採用授權的Arm IP打造出專為大型AI與高效能運算設計的Grace CPU。結合GPU與DPU,Grace為我們帶來第三個基礎運算技術,以及重新架構資料中心並推進AI的能力。NVIDIA現在是提供三種晶片的公司。