Red Hat推出能橫跨混合雲環境的Red Hat Enterprise Linux AI(RHEL AI)。作為Red Hat的基礎模型平台,RHEL AI賦能使用者更無縫地開發、測試和執行生成式AI(GenAI)模型,並驅動企業應用程式。此平台整合開源授權的Granite大型語言模型(LLM)系列和基於聊天機器人大規模對齊(Large-scale Alignment for chatBots,LAB)方法的InstructLab模型對齊工具,並以最佳化、可啟用的 RHEL 映像檔模式,支援跨混合雲的單一伺服器部署。
儘管生成式AI前景無限,然而採購、訓練和微調LLM的相關成本卻可能相當高昂,部分頂尖模型的訓練成本在上線前甚至高達近兩億美元。此金額尚未包含針對企業的特定需求或資料進行調整的成本,而此類調整通常需要資料科學家或高度專業的開發人員協助。效率和敏捷性對於實際生產環境中的AI功能至關重要,無論為特定應用程式選擇了何種模型,都需將模型對齊以符合企業特定的資料和流程。
Red Hat副總裁暨基礎模型平台總經理Joe Fernandes表示,若要讓生成式AI應用程式在企業中發揮真正的價值,便需開放給更多企業和使用者,並更貼近特定業務應用情境。資料科學家和領域專家皆能在混合雲環境中藉由RHEL AI為特殊用途的生成式AI模型做出貢獻,同時IT企業也能透過Red Hat OpenShift AI將這些模型擴展至生產環境中。
Red Hat相信在未來十年內,更小型、更有效率且為特定目的建置的AI模型,將與雲端原生應用程式一同成為企業IT堆疊的關鍵組合。為實現此目標,從成本、貢獻者至混合雲上的執行位置等各方面,生成式AI必須更容易存取和使用。過去幾十年來,藉由來自多元使用者族群的貢獻,開源社群已成功解決與複雜軟體問題相似的挑戰;此相同的模式同樣適用於生成式AI,得以有效降低其採用的門檻。
RHEL AI欲解決的挑戰為:在混合雲環境中,CIO和企業IT組織得以使用更易於存取、更有效率且更有彈性的生成式AI。RHEL AI可協助:
- 藉由企業級且開源授權的Granite模型驅動生成式AI創新,滿足各式各樣的生成式AI 應用情境。
- 利用InstructLab工具簡化生成式AI模型與業務需求的對齊過程,讓企業中的領域專家和開發人員在不具備豐富的資料科學技能的情況下,也能為其模型貢獻特殊的專業技能和知識。
- 透過提供生產環境中伺服器所需的調整和模型部署相關的所有工具,無論相關資料位於何處,在混合雲的任何環境中皆可訓練和部署生成式AI。RHEL AI也提供與Red Hat OpenShift AI的匝道,開發人員得以在使用相同工具和概念下,大規模地訓練、調整和提供這些模型。
RHEL AI同樣享有訂閱Red Hat所提供的服務,包含可信賴的企業級產品發行版、24小時全天候生產環境支援、擴展模型生命週期支援和開放原始碼擔保的法律保護。
對於支援生產型AI的策略而言,讓更一致的基礎模型平台更貼近企業資料的所在位置至關重要。RHEL AI為Red Hat混合雲產品組合的延伸,涵蓋從地端資料中心、邊緣環境至公有雲等近乎所有的企業環境。這意味著客戶可直接從 Red Hat、Red Hat原始設備製造商(original equipment manufacturer,OEM)合作夥伴取得RHEL AI,並可運行於全球最大的雲端供應商上,包含AWS、GCP、IBM Cloud和Microsoft Azure,賦能開發人員和IT企業得以運用超大規模運算資源的力量,藉由RHEL AI建置創新的 AI 概念。
IBM Infrastructure技術長暨創新總經理Hillery Hunter說明,藉由IBM Cloud上的RHEL AI,將開放原始碼創新推向採用生成式AI的重要位置,有助於更多企業和個人得以輕鬆取得、擴展和運用AI的力量。藉由RHEL AI整合InstructLab與IBM Granite模型系列的強大功能,正共同打造生成式AI模型,幫助客戶能夠在整個企業中推動實際業務成效。