Key Takeaways:
- Google 宣布挫敗了其認為首例使用人工智慧模型開發的零日漏洞攻擊。
- 該攻擊工具為一個 Python 腳本,可繞過雙因素身份驗證 (2FA),代碼中包含 LLM 生成的特徵,如教學式文檔字串。
- 此次事件證實了關於 AI 將加速網路威脅的警告,國家級駭客也在利用 AI 進行漏洞研究。
Key Takeaways:

Google 週一表示,它挫敗了一起網路犯罪活動,該活動使用了該公司認為的首個由人工智慧開發的零日漏洞利用工具。這一里程碑式的事件證實了安全專家的警告,即人工智慧將急劇升級企業的網路威脅格局。
「它已經來了,」Google 旗下 Mandiant 威脅情報部門首席分析師約翰·赫特奎斯特 (John Hultquist) 在報告中表示,「人工智慧驅動的漏洞發現與利用時代已經到來。人工智慧將成為一個巨大的優勢,因為攻擊者的行動速度可以快得多。」
該攻擊工具以 Python 腳本形式實現,針對一款流行的開源 Web 管理工具中先前未知的漏洞,允許攻擊者繞過雙因素身分驗證 (2FA)。雖然 Google 沒有指明具體的工具名稱和威脅者,但表示對「使用人工智慧模型創建攻擊代碼」持有「高度信心」。
這一發現標誌著一個關鍵轉折點,將人工智慧在網路攻擊中的應用從理論風險轉變為已被證實的現實。這一進展可能迫使各行各業重新評估其安全態勢,因為人工智慧模型可以大幅降低發現和武器化軟體漏洞所需的時間與技能。
Google 對該攻擊工具源自 AI 的信心來自於代碼本身。公司注意到該 Python 腳本包含大量的教學式文檔字串(docstrings)、一個「幻覺」出的 CVSS 評分,以及高度符合大語言模型 (LLM) 訓練數據特徵的教科書式結構化格式。
漏洞本身是一個由於硬編碼信任假設引起的高級語義邏輯缺陷,大語言模型在經過海量代碼庫訓練後,特別擅長識別這類錯誤。
報告還強調,以經濟利益為動機的網路罪犯並非唯一使用人工智慧的群體。Google 情報團隊觀察到來自中國和朝鮮的國家支持組織正積極利用 LLM 來增強其攻擊能力。
據觀察,一個名為 UNC2814 的中國相關組織使用了角色驅動的「越獄」手段——指示 AI 扮演安全專家的角色——來輔助其研究 TP-Link 韌體中的漏洞。另一個被追蹤為 APT45 的朝鮮組織據稱發送了數千個重複提示,以遞歸方式分析已知漏洞並驗證概念驗證 (PoC) 攻擊工具,構建了一個在沒有 AI 輔助下幾乎無法實現的更強大武器庫。
此事件凸顯了先進人工智慧雙刃劍的本質。雖然威脅者正利用它來加速攻擊,但同樣的技術也被定位為關鍵的防禦工具。Anthropic 和 OpenAI 等公司正在開發專門的 AI 模型,旨在幫助防禦者發現並修補其系統中的漏洞。
這開啟了網路安全軍備競賽的新戰線,形成了 AI 驅動的攻擊者與 AI 驅動的防禦者之間的對抗。目前,專家預測將進入一個「過渡期」,在此期間網路安全風險將顯著上升,因為各公司都在努力適應一個其軟體缺陷可能以史無前例的規模和速度被探測的世界。
本文僅供參考,不構成投資建議。