
你的AI模型安全嗎?Pickle程式背後的驚人真相
一個流行的 AI 模型和應用程式共享中心 Hugging Face 平台上發現的惡意機器學習 (ML) 模型。惡意模型利用一種被稱為「nullifAI」的新型攻擊技術,該技術濫用「Pickle 檔案序列化」格式來逃避偵測並在無防範的系統上執行有害程式碼。以下是關鍵點的詳細分析:

Pickle 的背景及其風險
- Pickle 是一個用於序列化和反序列化 ML 模型資料的 Python 模組,允許共享和重複使用模型而無需重新訓練。然而,它本質上是不安全的,因為它可以在反序列化期間執行任意 Python 程式碼,使其成為攻擊者的主要目標。
- 儘管 Hugging Face 的文件和先前的研究都警告了其風險,但 Pickle 因其簡單性和生產效率優勢仍然被廣泛使用。
nullifAI 技術
- ReversingLabs 發現的惡意模式使用了一種新方法來繞過 Hugging Face 的安全工具。它們以 PyTorch 格式(壓縮的 Pickle 檔案)存儲,但使用 7z 格式而不是預設的 ZIP 格式進行壓縮。這使得它們無法使用 PyTorch 的標準
torch.load()
函數載入,由此逃避 Hugging Face 的 Picklescan 工具的檢測。 - 模型包含損壞的 Pickle 檔案,其中惡意 Payload 嵌入在序列化物件的開頭。這使得 Payload 可以在檔案完整性受到損害之前執行,從而繞過安全檢查。
Hugging Face 安全工具的缺陷
- Picklescan 是 Hugging Face 用於檢測惡意 Pickle 檔案的工具,它依賴 危險函數黑名單。然而,這種方法不可擴展,也無法適應不斷演變的威脅。
- 工具也無法正確掃描損壞的 Pickle 檔案,因為它在掃描之前會檢查檔案,而 Pickle 反序列化會依序執行程式碼。這種差異使得惡意程式碼在被標記之前就能運作。
影響與回應
- 惡意模型很可能是概念驗證而不是主動威脅,但它們顯示了可能危害開發人員系統的合法攻擊媒介。
- ReversingLabs 於 2025 年 1 月 20 日 報告了 Hugging Face 的漏洞,惡意模型在 24 小時內被刪除。 Hugging Face 也更新了 Picklescan,以便更好地偵測損壞的 Pickle 檔案中的威脅。
對人工智慧安全的更廣泛影響
- 這項發現凸顯了與人工智慧平台相關的網路安全風險日益增加,使用像 Pickle 這樣的不安全格式可能會使開發人員遭受惡意攻擊。
- 隨著人工智慧產生的程式碼變得越來越普遍,組織必須採用現代軟體供應鏈安全解決方案來降低風險。例如,ReversingLabs 的 Spectra Assure 產品為 ML 模型提供進階威脅偵測。
對開發人員的建議
- 對 ML 模型使用可信任來源。
- 避免使用來自不受信任來源的 Pickle 檔案。
- 盡可能選擇更安全的序列化格式。
- 監控系統是否有被入侵的跡象。
結論
nullifAI 攻擊技術強調了 AI 開發平台需要採取強有力的安全措施。雖然 Hugging Face 已採取措施解決該漏洞,但此案件提醒人們不安全的資料格式帶來的風險,以及在協作 AI 環境中優先考慮安全性的重要性。