生成式AI Edge AI AI PC OpenAI

掌握技術進展對風險分級 取經先進聯盟參與國際話語權

打造安全可信AI發展 台灣應及時實施治理監管

2024-07-31
生成式AI模型大者恆大,空前的GPT-5似已蓄勢待發,與此同時輕量化的Edge AI也朝向邊緣與終端蔓延擴散,帶動AI PC熱潮與商機。惟在生成式AI飛快發展下,治理與監管、風險管理與緩解也必須加緊腳步,否則只怕脫韁野馬,難以馴服。

生成式AI模型大者恆大,空前的GPT-5似已蓄勢待發,與此同時輕量化的Edge AI也朝向邊緣與終端蔓延擴散,帶動AI PC熱潮與商機。資料的型態也從文字、聲音到多元影像,加速多模態(Multi-modal)的演進與應用。以OpenAI為例,該公司至少轉錄超過1百萬小時的YouTube影片到GPT-4的模型做為訓練資料,Google或Meta也不落人後。

當然,除了免費或受版權保護的資料,也可以透過合成資料、LLM生成資料、跨領域的遷移訓練(Transfer Learning)、多循環訓練(Multi-epoch Training)等技術來達到類似的效果。惟在生成式AI飛快發展下,治理與監管、風險管理與緩解也必須加緊腳步,否則只怕脫韁野馬,難以馴服。

GPU算力與資料量加乘下AI能力大躍進,惟潛在風險亦隨之攀升

根據美國2023年10月拜登簽署「AI行政命令」,將對於使用大於10的26次方整數(Integer)或浮點數運算能力(FLOPs)的LLM進行監管,其開發商必須向商務部報告AI模型發展計畫,並提供測試結果。另,根據歐盟2024年5月頒布的「人工智慧法案」,將以是否使用大於10的25次FLOPs訓練的LLM為監管門檻。若運算能力未達門檻,此類LLM被認為「不具系統性風險」,例如PaLM2(7.34×10^24),惟仍須遵守透明性義務規定,包括制定並維護技術文件、準備資訊文件給下游系統業者、遵守歐盟著作權法、及公開AI模型訓練內容摘要。若為開源模型,且未達算力門檻,如Llama 3-70B模型(6.3×10^24),僅須遵守歐盟著作權法,以及公開AI模型訓練內容摘要。另外,若運算能力超過門檻,無論是否為開源模型,此類LLM被認為「具系統性風險」,如GPT-4(2.1×10^25)、Gemini Ultra(5×10^25),都具系統性風險,須遵守透明性及問責性義務規定。

此外,根據歐盟2024年5月頒布的「人工智慧法案」,針對AI系統以風險分級方式進行監管,共分為四級:一、不可接受之風險(Unacceptable Risk)系統,指對人生命、安全,與基本權利有明顯威脅的AI系統,如社會評分系統、操縱型AI系統,原則上禁止使用;二、高風險(High Risk)系統,指雖不致有重大危害,仍可能造成負面影響的AI系統,如執法、教育、選舉的AI系統,須嚴格遵守透明性與問責性義務規定;三、有限風險(Limited Risk)系統,指對個人可能造成風險較小且可控的AI系統,如聊天機器人(如ChatGPT),須遵守透明性義務,讓使用者知道他們在與AI互動;四、最小風險(Minimal Risk)系統,指不屬於上述種類的AI系統類別,如電玩、郵件過濾等,原則上自由使用。

全球AI治理監管態勢儼然形成,國際參與刻不容緩

以下列舉國際上重要的AI治理組織或聯盟,或值得多方參與及交流。首先,OECD轄下設有ONE AI,扮演AI政策建議的智庫社群,以及OECD.AI政策觀測平台。創始會員來自南韓、歐盟、日本、美國、澳大利亞等24個不同國家的專家學者、政府與企業代表,不限於主權國家才能參與。One AI著重在於政策研究、經濟社會效益評估、同時建議OECD及相關會員國AI運用及導入的指引建構。目前參與ONE AI的亞洲成員主要為日本及南韓兩國。若能加入One AI,將有利加速我國與國際政策的同步。One AI成員分為正式成員與觀察員,受限於國際政治情勢,我國仍有機會從觀察員的角色切入。

其次,人工智慧全球夥伴聯盟(Global Partnership on AI,GPAI)於2020年6月成立,其宗旨是透過支持前瞻研究和人工智慧相關的應用活動,來消弭人工智慧理論與實踐之間的差距。觀察目前加入GPAI的29個成員國中有23個國家為OECD會員國,還有2國(巴西、阿根廷)正申請加入,新加坡則是擔任委員會觀察員。臺灣在OECD中以中華台北名義擔任委員會觀察員,鑑於OECD與GPAI在人工智慧原則上有相當程度的關連性,我國或可積極爭取成為GPAI觀察員。同時,也可以邀請國內AI領域中的頂尖學者以「專家身分」申請加入,以雙軌並進方式爭取臺灣在國際AI領域的話語權。

最後,AI安全高峰會(AI Safety Summit)專注於討論前瞻人工智慧技術風險的國際會議。包括強大的通用AI模型可能對社會造成未知的威脅和挑戰,並探討國際合作如何增進人工智慧的安全發展。2023年11月由英國主辦第一屆峰會,並與美國、中國大陸和歐盟等28個國家簽署了「布萊切利宣言」,呼籲國際共同合作來管理AI的風險和挑戰。今年5月則移師韓國首爾舉行(AI Seoul Summit),包括微軟、亞馬遜、OpenAI等16家科技大廠皆簽署AI安全承諾,重點包括設定最高可容忍的安全風險門檻、不得發展或部署安全風險難以緩解的AI模型或系統、建立可問責的安全管理架構,以及向大眾揭露各企業對AI安全的應變策略等。我國或須主動接洽主辦國、輔以友善盟國推薦,才有可能加入其中。

AI衝擊難免,監管治理與風險管理必須跟上腳步

歐美在AI治理與監管上扮演領頭羊角色,然美國著重創新、而歐盟則著重監管,方向與力道或許有些差異,目的則殊途同歸。對比歐美先進國家,臺灣生成式AI的法規與治理框架仍在發展中,風險管理與因應措施亦待規範。例如臺灣已開發出的繁體中文TAIDE大語言模型,未來如何在各應用領域持續擴散並保有其可信任性,資料整合與治理將是重要關鍵。另外,「人工智慧基本法」亦正處研擬階段,或可透過產官學研各界參與國際,師法主要國家及聯盟做法,共同降低AI潛在風險。最後,臺灣在生成式AI產業供應鏈中占有不可或缺的地位,在治理與監管的道路上,也期待能發揮槓桿、借力使力,不只掌握產業的話語權,更期許能一同加入全球AI治理的先驅。

<本文作者:朱南勳現任資策會MIC主任,專業於軟體與通訊產業研究,長期關注前瞻軟體應用與通訊技術發展趨勢。曾於緯創資通公司擔任產品經理、趨勢科技公司擔任市場競爭力研究員,負責新產品認證開發與國際電腦大廠專案,並曾任經濟部技術處5G辦公室副主任。資策會產業情報研究所(MIC)長期觀測高科技產業市場情報與發展趨勢,是臺灣資通訊產業與政府倚重的專業智庫。>


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!