隨著AI大模型的應用范圍越來越廣,“生成式人工智能技術”在迅猛發(fā)展的同時,也帶來了技術安全風險。面對AI大模型引發(fā)的全新安全挑戰(zhàn),行業(yè)應從哪些方面進行安全維護?北信源作為終端安全領軍企業(yè),在28年的發(fā)展中積累了深厚的安全技術和豐富的安全服務經(jīng)驗,不斷將自身的安全理念融入AI的研究與應用中,并結合我國法律法規(guī)要求,針對法信法律基座大模型技術結構特點,從供應鏈安全風險和運行安全風險兩個方面來識別其風險與安全威脅。
(一)供應鏈安全解決方案
供應鏈安全風險涉及多個環(huán)節(jié)包括硬件安全、軟件及AI組件安全、數(shù)據(jù)投毒等,還有模型后門、大模型幻覺、提示詞注入、對抗攻擊、價值觀倫理安全、大模型濫用等各類風險。
北信源結合多年網(wǎng)絡和數(shù)據(jù)安全的經(jīng)驗,通過嚴格的供應鏈審查、安全認證、數(shù)據(jù)加密,以及外包管理,有效減少了供應鏈安全風險對法信法律基座大模型的影響,并提出五大應對措施:
(1)安全驗證:對所有使用的軟件及AI組件進行安全驗證,使用安全掃描工具識別潛在的漏洞。在使用第三方模型或預訓練模型前,進行詳細的代碼審查和模型測試。
(2)對抗訓練:在訓練模型時,故意引入一些帶有噪聲或?qū)剐愿蓴_的輸入,訓練模型在遇到這些擾動時仍能正確預測??梢蕴嵘P驮诿鎸艋蛞馔廨斎霑r的穩(wěn)定性。
(3)數(shù)據(jù)增強:通過在訓練過程中增加更多樣化的數(shù)據(jù)(例如改變角度、添加噪聲、調(diào)整亮度等),可以提高模型對現(xiàn)實世界中各種不同情況的適應能力,減少其對特定輸入的依賴。
(4)魯棒性測試:定期對模型進行魯棒性測試,包括模擬不同的惡意攻擊或異常數(shù)據(jù)輸入,查看模型是否能穩(wěn)定表現(xiàn)。可以找出模型在面對哪些情況時容易失敗,從而有針對性地改進。
(5)輸入數(shù)據(jù)校驗:在模型使用前,增加一層驗證機制,檢查輸入數(shù)據(jù)是否被篡改或添加了異常信息。運行安全風險包含了通信網(wǎng)絡安全、區(qū)域邊界安全、計算環(huán)境安全、平臺漏洞、數(shù)據(jù)泄露、隱私泄露、數(shù)據(jù)竊取與篡改等。
(二)運行安全解決方案
運行安全風險包含了通信網(wǎng)絡安全、區(qū)域邊界安全、計算環(huán)境安全、平臺漏洞、數(shù)據(jù)泄露、隱私泄露、數(shù)據(jù)竊取與篡改等。
基于等級保護構建“一個中心(安全管理中心)、三重防護(安全通信網(wǎng)絡、安全區(qū)域邊界、安全計算環(huán)境)”的縱深安全防護體系。并增加了大模型業(yè)務特有的安全防護保障能力,應對措施包含以下六個方面:
(1)安全開發(fā)和代碼審查:在AI系統(tǒng)開發(fā)過程中,采用嚴格的安全開發(fā)流程,確保每一步都經(jīng)過安全性驗證;定期進行代碼審查和安全測試,識別并修復潛在漏洞和后門。
(2)模型驗證和測試:使用防后門檢測工具和對抗性測試,對AI模型進行全面的安全性評估,確保模型未被植入惡意后門。
(3)強化訪問控制:通過部署AI防火墻,實施嚴格的訪問控制策略,限制只有經(jīng)過授權的人員才能訪問和修改AI系統(tǒng)的核心代碼和模型。
(4)防篡改機制:使用防篡改技術保護模型的完整性,確保模型在使用過程中不會被未經(jīng)授權的修改或注入惡意代碼。
(5)模型更新和監(jiān)控:使用AI漏洞探測系統(tǒng)定期更新AI模型和系統(tǒng),修補已知漏洞,并對模型的行為進行持續(xù)監(jiān)控,識別任何潛在的異常活動。
(6)輸出后驗證:使用信源密信系統(tǒng)和密信AI能力安全平臺,對模型的輸出進行驗證,向用戶提示模型的輸出可能不完全準確,提醒用戶進行核實,保障最終輸出環(huán)節(jié)的驗證。
隨著時代的發(fā)展,AI大模型的應用范圍越來越廣,在使用過程中,我們應嚴格遵循法律法規(guī),確保其安全性與合規(guī)性,共同營造一個健康、有序、可持續(xù)的 AI發(fā)展環(huán)境,共迎AI時代的機遇與挑戰(zhàn)!未來北信源仍將不斷創(chuàng)新研發(fā),積極探索“AI+安全”解決方案,幫助用戶更安全地享受AI技術帶來的便捷和高效。