Palo Alto Networks AI 生成式人工智慧 生成式AI Generative Artificial Intelligence 資安

Palo Alto Networks:潛伏在企業中的 AI 風險

2024-07-11
如今,市場上有成千上萬種生成式AI工具,每月都有幾十種新的AI應用程式推出。事實上,一半以上的員工很可能已經在使用它來提高工作效率,而且隨著更多AI應用程式針對更多使用情境的推出,這種採用率預計還會增加。

!此為分頁標誌前台不顯示!

這些只是出於善意使用生成式AI而在無意中增加風險的冰山一角。但不使用這些技術可能會降低企業獲得競爭優勢的能力,因此一刀切並不是解決問題的辦法。企業可以而且應該考慮如何讓員工安全地使用這些應用程式。以下是一些需要考慮的因素:

能見度:人們無法保護自己不知道的東西。IT團隊在使用未經許可的應用程式時面臨的最大挑戰之一是難以及時應對安全事件,而這增加了出現安全性漏洞的可能性。企業需要監控第三方生成式AI應用程式的使用情況,並瞭解與每個工具相關的特定風險。在瞭解正在使用哪些工具的基礎上,IT團隊還應瞭解哪些資料正在進出企業系統。這種能見度有助於企業發現安全性漏洞,並快速識別和糾正。

控制:IT團隊需要能夠就是否阻止、允許或限制訪問第三方生成式AI應用程式做出明智的決定,他們可以單獨控制每個應用程式,也可以根據風險或類別進行控制。例如,企業可能想要阻止所有員工存取碼最佳化工具,但同時又想讓開發人員訪問經資訊安全團隊評估並批准供內部使用的第三方最佳化工具。

資料安全:員工是否與應用程式共用敏感性資料?IT團隊需要阻止敏感性資料洩露,保護資料不被濫用和竊取。這一點對於受到監管和受資料主權法律約束的企業尤為重要。在實踐中,這意味著需要監控發送到生成式AI應用程式的資料,然後採取技術控制手段確保敏感性資料和受保護的資料(如個人身份資訊和智慧財產權等)不會被發送到這些應用。

威脅防範:團隊正在使用的生成式AI 工具可能潛伏著漏洞。鑒於許多此類工具的開發和上市速度快得驚人,團隊往往不知道所使用的模型是否使用損壞的模型構建而成、是否是在不正確或惡意資料上訓練而成,亦或是否存在大量AI特有的漏洞。建議採取的最佳做法是對從應用程式流向企業的資料進行監控,以防出現惡意和可疑活動。

儘管AI工具在實現員工工作效率最大化方面具有驚人的潛力,並且能夠使企業實現營收和利潤的雙增長,但它們也隱藏著前所未見且更加複雜的新風險。企業領導者及其IT團隊有責任讓員工能夠放心地使用AI工具,同時為他們提供宣傳教育、能見度、控制措施、資料保護、威脅防範等保護手段。當安全團隊知道正在使用什麼以及如何使用時,就可以防止敏感性資料洩露,並防範潛伏在不安全和被入侵AI平臺內部的威脅。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!