生成式人工智慧(GenAI)快速滲透企業流程之後,IT或資安團隊面對的已經不是單一新應用,而是一種新的流量型態與新的行為模式。員工透過瀏覽器或SaaS應用直接使用各式GenAI服務,開發團隊則透過API把大型語言模型(LLM)嵌入到客服助理、知識庫查詢、文件生成與自動化流程編排。
這兩種應用場景共同本質都是把企業資料、帳號權限、網路流量與運算成本,交由高度自動化的推理流程處理,因此可視性成為治理的起點,而控管措施必須前移到更靠近請求入口的控制點,才有能力降低運算資源(Token)成本消耗、資料外洩、模型汙染或流程誤觸等風險。
Palo Alto Networks台灣技術總監蕭松瀛表示,該公司在AI議題上的發展並非一開始就聚焦AI安全,而是先用AI能力強化既有資安產品的偵測與分析效能,主要是以Precision AI作為定位,核心概念是把雲端交付安全服務(CDSS)帶入既有防護機制,藉此提升威脅偵測的準確度與覆蓋面。
蕭松瀛指出,AI應用普及使企業的安全需求出現明顯分流,一條是員工使用AI的治理與控管,另一條是企業自行開發AI應用時的安全要求。這個分流直接影響資安產品發展方向,因為兩條路徑的風險層面不同,決策者關心的衡量指標也不一樣。員工使用情境較在意可視性(Visibility)、是否能識別使用的AI服務類型、限制上傳與貼上內容、落實資料外洩防護(DLP)與雲端存取安全代理(CASB)等治理機制。企業開發情境則更在意提示詞注入、模型弱點、供應鏈元件與函式庫風險、紅隊演練驗證能力,以及執行階段(Runtime)能否持續監控與阻擋異常行為。
建立資料防洩與合規圍欄
針對員工使用AI的治理,蕭松瀛表示,企業最常見的壓力是管理層希望員工使用AI提升生產力,甚至願意支付訂閱費,資安團隊則必須同步回應資料外洩與合規要求,這使得「先盤點再控管」成為必要流程。AI存取安全的第一個門檻,是能否識別員工正在使用的服務是否屬於AI類別,並進一步辨識該服務的使用屬性,例如偏向文字對話、影像生成、影片編修或其他功能型態。
蕭松瀛強調,若企業只採用URL封鎖或分類封鎖,雖然能快速降低暴露面,但治理價值有限,因為多數企業更想要的是限制高風險行為而非禁止使用,例如限制上傳檔案、限制貼上機敏內容、限制特定帳號群組使用特定功能,這就需要在流量層取得可視性,並能解析內容以配合DLP政策。
在落地方式上,流量若經過地端次世代防火牆(NGFW)或雲端化的安全存取服務邊緣(SASE),就能在一致介面上呈現員工使用AI的全貌,包含誰使用了哪些AI服務,以及是否觸發資料外洩告警。蕭松瀛進一步說明,Palo Alto Networks提供的AI存取安全(AI Access Security),可整合在既有的NGFW或SASE架構,建立內容識別能力,針對對話內容進行即時掃描與過濾。當系統偵測到員工試圖在對話框中貼上符合信用卡號、身分證字號或特定機密標記的文字時,能即時阻斷該次傳輸或進行資料遮罩,確保機敏資訊安全性。
這種具備上下文感知能力的防護機制,讓企業能夠在開放創新的前提下,建立起一道資料安全圍欄,減少管理階層對AI採用的疑慮。此外,透過可視化儀表板,IT或資安團隊能掌握企業內部AI工具的使用排行、活躍用戶與高風險行為輪廓,把原本不透明的影子IT轉化為可被管理與稽核的資產,進而制定更精準的存取政策與DLP規則。
開發源頭阻斷惡意指令
為了應對開發端的挑戰,Palo Alto Networks提出了Prisma AIRS平台。蕭松瀛分析,開發AI應用如同傳統的軟體開發生命週期,存在著供應鏈風險。開發者在引用開源模型或第三方函式庫時,往往難以確認其中是否潛藏惡意後門或既有漏洞。這就如同2021年的Log4j事件,若底層組件不安全,整個應用程式便岌岌可危。因此,AIRS引入了類似軟體物料清單(SBOM)的概念,提供模型掃描與自動化紅隊演練功能。透過AI驅動的紅隊測試,系統能模擬成千上萬種攻擊手法,對企業開發的模型進行高強度的壓力測試,試圖誘發其產生錯誤回應或洩漏訓練資料,藉此在應用程式上線前找出邏輯漏洞。
蕭松瀛特別提到,許多企業雖然意識到需要建立護欄(Guardrail),但往往苦於缺乏專業人力與工具。AIRS提供的自動化評級與掃描機制,能夠協助開發團隊在持續整合/持續部署的流程中,即時發現並修補模型弱點,實現「安全左移」的開發理念。
Palo Alto Networks台灣技術總監蕭松瀛指出,企業應將AI安全控制點前移至請求入口,透過AI存取安全與Prisma AIRS平台掌握流量可視性,即時攔阻惡意指令並防止機敏資料外洩。
在AI應用程式實際運行的階段,防禦的思維則必須轉向即時性與資源效率。當攻擊者發動提示詞注入攻擊,試圖誘導AI模型執行違規指令,或是利用自動化腳本發送大量複雜請求以耗盡企業的Token時,傳統的防禦手段往往是在模型生成回應後才進行過濾。這意味著,企業已經為處理這些惡意請求支付了昂貴的API呼叫費用或算力成本。
Palo Alto Networks的AIRS採用了一種中介閘道(API Gateway)的架構,能夠像代理伺服器(Proxy)一樣,嵌入在應用程式與LLM之間。蕭松瀛說明,在這種架構下,所有的輸入提示詞在傳送給後端模型之前,都會先經過AIRS的即時檢測。一旦系統識別出惡意意圖、越獄指令或異常流量特徵,便會直接在閘道端進行阻斷,請求根本不會抵達後端的LLM。這不僅有效防堵了攻擊,更為企業節省了大量無謂的Token消耗,避免因惡意攻擊而導致的營運成本暴增。