大模型無疑是2023年最火熱的話題之一。ChatGPT的誕生吹響了大模型競賽的號角,科技企業紛紛推出自家大模型產品,一場大模型的狂歡就此拉開帷幕。
大模型全稱大型語言模型(Large Language Model,LLM),是指使用大量文本數據訓練的深度學習模型,可以處理多種自然語言任務,如文本分類、問答、對話等。據不完全統計,國內已經發布超130個大模型。
爭議與熱度并存
不過,伴隨熱度而來的還有爭議,爭議的核心點就在于大模型的安全性,一方面,大模型的幻覺問題,可能會向企業的IT團隊提供錯誤的輸出,這將導致誤報或不可操作的修復事件建議。另一方面,利用大模型創建令人信服的網絡釣魚消息、字典攻擊、生成惡意代碼等將對網絡安全帶來極大的風險挑戰。具體來看:
第一,創建令人信服的網絡釣魚信息。大模型可以用來創建不同類型的信息,并具有強大的創造力。網絡攻擊者除了能寫出富有創意的句子外,還可能利用從目標個人的社交媒體賬戶中抓取的數據來訓練大模型。以此為背景,大模型可以幫助網絡攻擊者為任何形式的活動生成非常有創意的、個性化的網絡釣魚信息。
第二,字典攻擊。字典攻擊是一種密碼破解技術,它基于暴力破解的原理,通過嘗試使用預先準備好的單詞列表或字典來猜測用戶的密碼。大模型可以抓取IT員工之間的對話或日志文件中的數據,在這些信息片段上進行訓練,然后用于生成專門針對企業進行的字典攻擊。
第三,惡意代碼生成。網絡攻擊者可以使用大模型來欺騙或直接使用它們來生成惡意代碼。然后,該代碼可用于構建惡意軟件功能,或在與之關聯的IT基礎設施的內部組件中執行惡意操作。
第四,訓練數據中毒。大模型訓練數據庫被虛假信息破壞是企業應該特別警惕的風險。大模型可能會被攻擊者毒害,從而忽略某些提示或漏洞,或者被訓練執行某些只有攻擊者知道如何利用的任務。
可以說,大模型帶來的網絡風險挑戰是多方面的,需要從多個方面采取措施應對。
如何降低大模型引發的相關風險?
為了降低大模型對網絡安全構成的風險,企業在模型訓練和數據檢索期間采取某些行動至關重要。這些措施包括:
第一,對抗訓練。對抗性訓練包括通過向大模型提供網絡攻擊實例來教授他們如何識別威脅。網絡攻擊實例可以是用于惡意輸入注入的常見提示,也可以是非常成功的網絡釣魚消息。一旦大模型理解了相關的惡意令牌和語法,就可以執行更有效的停止序列,甚至發出有關惡意活動的警報。
第二,防御蒸餾。防御蒸餾是一種更高級的對抗訓練,涉及兩種機器學習算法。第一個“教師”模型可以訪問原始訓練數據,而第二個學生模型只在第一個“教師”模型的輸出上進行訓練。通過預測模式,“學生”模型創建了對“教師”模型輸出的期望。當“教師”模型輸出不符合它的預測時,就很容易識別來自惡意行為者的欺騙或注入實例。
第三,聯邦學習。聯邦學習是一種訓練大型語言模型的分散方法。這種方法不允許算法訪問原始數據的主要存儲庫,而是使用本地數據訓練較小的模型,并將單獨的信息存儲到大型數據庫中。然后,使用提供給該數據庫的信息對大模型進行訓練。
第四,梯度掩蔽。攻擊者對大模型等機器學習模型使用的一種方法是快速梯度符號法(Fast Gradient-Sign Method,FGSM),包括計算期望和模型輸出之間的損失或變化。然后,攻擊者使用損失來計算梯度,并小心地利用輸出結果來增加模型的損失,這使得模型對輸入進行錯誤分類,或者對類似的輸入產生錯誤的結果。梯度掩蔽包括添加正則化元素,在每次計算梯度時修改梯度。這樣,攻擊者就很難生成可利用的(非零)梯度。
第五,訓練數據加密。訓練數據加密可以對數據進行匿名處理,以消除個人身份識別,也可以有效地防止大模型被惡意利用。
此外,還可以通過建立完善的安全管理體系,加強安全培訓和意識教育,提高員工的安全意識和技能,以應對大模型帶來的風險挑戰。
寫在最后
總而言之,大模型作為一種將對人類產生深遠影響的新興技術,其安全問題值得全社會的重視與關注。這需要企業和相關監管機構共同努力,通過建立系統的防范體系,建設新型安全基礎設施等手段,以確保大模型在網絡安全領域的健康發展。