
商傳媒|何映辰/台北報導
傳統網路安全防禦模式多採取被動應對,資安人員主要針對已知威脅建立偵測機制,並修補已被利用的漏洞。然而,隨著人工智慧(AI)技術的演進,網路安全領域正迎來一場從被動反應轉向主動預防的關鍵變革。
AI 增強型決策支援系統,能有效提升人類資安判斷能力,使防禦者得以採取更具前瞻性的行動。根據《Solutions Review》報導,AI 系統可自動處理大量且高置信度的決策,同時將模糊不清的個案,連同相關情境脈絡,呈報給資安分析師處理。在資安營運中心(SOC)的應用中,AI 能高效率過濾已知惡意訊號,僅將「灰色地帶」的警報與完整的遙測資料遞交給人工,大幅減輕分析師篩選低價值警訊的負擔。
不僅如此,AI 還能將威脅情資實際應用化。報導指出,AI 可直接從安全建議文件中,生成諸如 Splunk 查詢指令、CrowdStrike 偵測規則,甚至是針對 ATT&CK(MITRE ATT&CK)框架的狩獵假設。此外,過去需耗費數月時間才能完成、針對特定組織客製化的資安攻防演練,AI 也能加速其製作過程,並提供更擬真的情境。
儘管約八成的組織認為安全且值得信賴的 AI 對於企業成功非常重要,但目前僅有 24% 至 25% 的生成式 AI 專案,納入了負責的 AI 治理機制。《Solutions Review》提醒,資安團隊在導入 AI 時,核心治理問題在於如何界定 AI 的操作範圍與存取權限,需嚴格遵守「影響半徑限制」(blast radius limitations)原則。AI 系統應僅能存取其特定任務所需的資料與應用程式介面(API),而非全面開放。同時,資料來源的真實性(data provenance)、可解釋性、可追溯性以及來源資料的完整性驗證,皆是 AI 決策支援系統的基本運作要求。
組織在擁抱 AI 時,往往低估了其所帶來的文化風險,將 AI 視為對既有職位的威脅,而非能力倍增器。對於資安從業者而言,若能將自身專業重新定位為 AI 輸出的「品質把關者」(懂得提出正確問題、判斷良好輸出、並適時質疑),將能更好地應對轉型。然而,如果組織未能透過培訓、職務重新設計及清晰的溝通來主動支持這項轉變,AI 的導入將難以成功。
展望未來,AI 系統預計能即時整合戰略與戰術層面的資訊,包括擷取威脅情資、比對防禦態勢、識別防禦缺口,並提供優先排序的修復行動建議。屆時,人類角色將聚焦於治理、驗證與升級決策。而企業若能建立內部評估 AI 輸出品質、策劃高完整性訓練資料以及設計與 AI 相容工作流程的能力,將是構築持久競爭優勢的關鍵。