隨著人工智慧(AI)快速地發展,人們越來越擔心ChatGPT等大型語言模型(LLM)可能被惡意人士用來達到犯罪目的。實際上,暗網論壇確實已出現專為攻擊者設計的AI工具WormGPT,可用於產生出難以辨識真偽的釣魚郵件內容。
根據最近發表的《CyberArk 2023身份安全威脅態勢報告》,93%的資訊安全專家預計,所屬的組織將在2023年受到基於人工智慧的威脅攻擊,其中以人工智慧驅動的惡意軟體被列為首要關注的問題。
為了解生成式AI對身分安全帶來的影響,CyberArk亞太區雲端業務總監徐溫超指出,CyberArk Labs團隊內部就此議題深入研究探討,並與客戶和產品部門分享研究成果,以促進更有效的網路安全策略。
他進一步說明,CyberArk Labs團隊運用不同的工具、技術和執行程序,深入研究生成式AI普及後衍生的風險,並且對應到MITRE ATT&CK框架定義的策略與類別。最顯而易見的就是攻擊者可在初始入侵階段,藉由深度偽造(Deepfake)技術發動網路釣魚或語音釣魚,讓人信以為真地點選惡意連結、輸入帳密登入等操作。
初始入侵階段除了可利用生成式AI進行語音釣魚,亦可繞過生物特徵驗證機制,例如人臉辨識。徐溫超舉例,以色列的特拉維夫大學研究題目之一,就是運用深度學習架構的生成對抗網絡(GAN)模型,製造出看起來不同,可是在基礎上非常相似的照片,騙取通過人臉辨識機制。作法是先將一張人臉照片轉換成向量圖檔,進而跟資料庫中存放的其他向量資料相互比對,利用差異之處再製作成新的照片。不斷地重複產生大量人臉資料,就可提高利用來突破辨識系統的成功機率。
「以色列的特拉維夫大學研究團隊利用9張照片,製造出9組照片,再把這些照片去測試不同的生物驗證系統。其中一組照片有60%機率可成功通過驗證。雖然現在這是一個實驗,這也表示在不久的將來,生成式AI的進步就可以把這個機率大大的提高。」徐溫超說。
其實AI的研究開發已經超過十年,為什麼現在才能做到這些功能?以全球最熱門的ChatGPT應用服務來看,主要是基於2019年發布的GPT-2模型所開發,當時參數約為15億個。到了2022年11月,GPT-3模型推出,其模型大小達到了1,750億個參數,僅在三年間就有了超過100倍的成長。這種指數性的成長意味著AI模型將變得更強大,而AI模型在創造深度偽造、面部圖像、惡意軟體等方面將改變威脅的格局。
CyberArk Labs團隊研究人員嘗試使用ChatGPT來創造多形態惡意軟體。多形態惡意軟體(Polymorphic Malware)是一種在保持原始功能不變的情況下,變更實作方法的惡意軟體,讓偵測機制難以察覺變化。以往,多形態惡意軟體主要透過改變加密算法或執行手段來進行自我變更,以迴避被防火牆或防毒軟體所偵測。若利用生成式AI,這類惡意軟體能夠更廣泛地進行變形和進化,可能使得防禦更加困難。
為此,資安專家須重新進行風險和防禦策略評估,傳統基於特徵碼的偵測方法將大幅失去效用,須採取更先進且動態的防禦手段,例如行為分析、異常檢測等方式,以控管潛在風險因子。
徐溫超指出,從CyberArk Labs團隊實作研究可發現,傳統的攻擊手法,如使用DLL劫持來提升權限或進行防禦規避,以及在攻擊過程中使用的其他戰術、技術和程序(TTPs),仍然具有高度的有效性。為了便於橫向移動、竊取機敏資料,身分識別仍是攻擊者的關鍵目標。生成式AI也為防禦方提供了新的零信任策略和防護技術,CyberArk身分安全平台可藉此達到身分定義安全,降低各種攻擊手段成功機會。