AI

積極應對AI治理四大挑戰

2024-07-05
在2024年台北國際電腦展上,科技大廠紛紛宣布擴大部署AI(人工智慧),AI「規模化」的時代儼然到來。然而,今年五月歐洲議會通過全球第一部AI監管法規《EU AI Act》,規範相當嚴格。

當企業對於「如何釋放AI價值」躍躍欲試之際,需要同步思考以下常見的AI治理挑戰與應對策略,消弭部署AI的各種可能風險。

挑戰一:缺乏數據基礎建設與制度,無法全面釋放AI價值

AI模型開發與部署過程需要大量資料來訓練模型,因此AI治理的成敗與資料治理高度相關。企業AI應用試行階段,若未先建立完善的數據基礎建設和管理體系,將造成數據的收集、處理和資安等系統穩固性與隱私保護的風險。

挑戰二:AI治理與企業的AI策略脫鉤

企業在推動AI應用時,常缺乏對自身發展AI環境與能力現狀的了解,導致企業治理策略與AI應用策略脫鉤,未能結合達到綜效。企業應進行AI成熟度分析,包括從AI策略、數據、技術、人才等構面,評估自身定位,確定優先投入資源進行改造的領域,並擬定短、中、長期的AI治理策略藍圖,以實現最佳資源配置,確保AI應用能高效運行並被完善地治理。

挑戰三:僅止於規章制度,未應用技術輔助落地

AI治理其精神並不在於事後究責,而是如何運用科技與工具,在設計、開發、部署與營運階段,保持AI演進的透明性,掌握其可解釋性,並保持公平性;在出現爭議時有清楚的問責機制、明確的角色扮演與處理行動,才能確保負責的AI應用。舉例來說,若某保險公司推薦客戶保單的AI模型,發生歧視弱勢族群等違反公平原則的狀況,保險公司必須能夠及時調整模型,避免傷害客戶權益。ISO 42001是AI管理體系的認證標準.需要提交具體的數據治理與做法;金管會積極擬定金融業運用AI之完整規範,旨在以明確的監理制度協助台灣金融業儘速展開AI治理旅程。

挑戰四:組織缺少共同目標與指標,難以協作

AI治理若缺乏共同目標與共享的KPI,將增加跨單位協作的困難度,造成策略與制度執行的障礙。因此,企業賦能員工AI應用的能力,並且由上而下、培養全員AI當責的企業文化,成為AI治理旅程的首要之務。

AI治理是企業擴大應用AI的關鍵步驟。為了降低AI科技造成的風險,企業應建立完善的AI治理框架。然而,AI治理不只是形式上符合監管要求,更應善用治理平台與工具,讓AI以負責任、符規、可控的方式,為企業創造更大的價值。

<本文作者:謝明志現為台灣IBM諮詢首席資料科學家>


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!