生成式人工智慧(GenAI)已由內容生成走向具備任務規劃與工具調用能力的代理型AI(Agentic AI)。當大語言模型(LLM)被授權呼叫API、存取資料庫甚至觸發交易流程,若防護仍主要停留在網路層與傳輸層的連線可視性,欠缺應用層(Layer 7)對語意內容與行為模式的解析能力,往往難以辨識藏身於合法活動中的應用層威脅與資料外洩路徑。
目前AI應用的潛在風險主要有兩方面。一是影子AI(Shadow AI)擴散,員工或團隊為求效率將機密文件上傳外部服務,或在未核准環境開發與串接模型,形成難追溯的資料曝險。二是語意攻擊升溫,攻擊者以提示詞(Prompt)誘導模型繞過限制,造成機敏資料外洩、工具被濫用,並引發推理配額與費用消耗等營運風險。
從國際資安大廠的技術佈局,可發現可視性(Visibility)與AI護欄(Guardrails)正逐漸成為新一代防禦架構的關鍵機制。無論是透過平台化策略統一納管多雲環境下的API流量,或結合情資與模型安全測試回饋強化語意檢測能力,目標都在協助企業決策者建立可衡量、可稽核的防禦縱深。