Image
全國(guó)統(tǒng)一服務(wù)熱線
0351-4073466

“萬(wàn)模裸奔”,DeepSeek正顛覆網(wǎng)絡(luò)安全行業(yè)游戲規(guī)則


編輯:2025-02-28 17:15:58

對(duì)于企業(yè)而言,AI既是提升生產(chǎn)力的強(qiáng)大工具,同時(shí)也為攻擊者和惡意內(nèi)部人員提供了“大殺器”。隨著生成式AI(例如ChatGPT和DeepSeek)在企業(yè)和政府機(jī)構(gòu)中的廣泛應(yīng)用和不安全部署,“萬(wàn)模裸奔”產(chǎn)生的數(shù)據(jù)安全風(fēng)險(xiǎn)已經(jīng)到了失控的邊緣。
2025年是AI安全元年,首席信息安全官(CISO)們必須提前做好準(zhǔn)備,應(yīng)對(duì)“萬(wàn)模裸奔”引發(fā)的數(shù)據(jù)安全危機(jī)。

警惕數(shù)據(jù)的“智能化泄漏”

與傳統(tǒng)IT系統(tǒng)不同,生成式AI引入了全新的攻擊媒介,可導(dǎo)致數(shù)據(jù)泄漏、業(yè)務(wù)中斷甚至法律風(fēng)險(xiǎn)例如:
  • 提示注入:惡意行為者操縱AI提示來(lái)改變輸出或暴露敏感數(shù)據(jù)。

  • 數(shù)據(jù)中毒:對(duì)手破壞訓(xùn)練數(shù)據(jù)以影響模型行為。

  • 幻覺:人工智能產(chǎn)生虛假或誤導(dǎo)性的信息,可能會(huì)損害決策過(guò)程。

由于生成式AI的發(fā)展和普及速度很快,CISO和安全團(tuán)隊(duì)往往缺乏足夠經(jīng)驗(yàn)和技能應(yīng)對(duì)AI安全風(fēng)險(xiǎn),在威脅建模和風(fēng)險(xiǎn)評(píng)估方面存在較大差距。
面對(duì)洶涌的生成式AI浪潮,企業(yè)*擔(dān)心的還是數(shù)據(jù)安全問(wèn)題(例如商業(yè)機(jī)密數(shù)據(jù)被競(jìng)爭(zhēng)對(duì)手獲?。R?近的一起案例為例:一名員工利用AI助手訪問(wèn)了企業(yè)內(nèi)部數(shù)據(jù)庫(kù),竊取了包含客戶銷售記錄和產(chǎn)品使用情況的敏感數(shù)據(jù),并將其帶到新的雇主處使用。
這正是生成式AI放大數(shù)據(jù)泄露風(fēng)險(xiǎn)的典型例子。據(jù)Gartner*新研究,微軟365 Copilot、Salesforce等基于生成式AI的工具正成為企業(yè)提升生產(chǎn)力的利器,但其對(duì)數(shù)據(jù)安全的威脅亦呈指數(shù)級(jí)攀升。近60%的受訪者認(rèn)為,過(guò)度共享、數(shù)據(jù)泄漏和內(nèi)容蔓延是企業(yè)部署人工智能助手時(shí)面臨的*大風(fēng)險(xiǎn)。
Salesforce首席執(zhí)行官M(fèi)arc Benioff在2024年10月公開批評(píng)了Microsoft的Copilot,稱其為“令人失望的Clippy 2.0”。他引用了Gartner的報(bào)告,強(qiáng)調(diào)了Copilot在數(shù)據(jù)過(guò)度共享和安全方面的問(wèn)題,導(dǎo)致許多組織推遲了實(shí)施計(jì)劃。

AI引爆“權(quán)限炸彈”

研究顯示,企業(yè)近99%的訪問(wèn)權(quán)限處于閑置狀態(tài),其中過(guò)半屬于高風(fēng)險(xiǎn)權(quán)限。傳統(tǒng)安全管理中,冗余權(quán)限本已是重大隱患,而生成式AI的介入使問(wèn)題急劇惡化,甚至?xí)@些“權(quán)限炸彈”,以幾何級(jí)數(shù)放大數(shù)據(jù)安全風(fēng)險(xiǎn)。例如,Microsoft Copilot可以訪問(wèn)所有用戶權(quán)限范圍內(nèi)的數(shù)據(jù),即使用戶本人并未意識(shí)到自己擁有這些權(quán)限。這意味著,敏感數(shù)據(jù)可能通過(guò)AI對(duì)話被無(wú)意或惡意泄露。

AI改寫網(wǎng)絡(luò)攻擊游戲規(guī)則:從技術(shù)滲透到提示注入

除了增加數(shù)據(jù)泄漏風(fēng)險(xiǎn)外,生成式AI還在改寫網(wǎng)絡(luò)攻擊的游戲規(guī)則。傳統(tǒng)黑客攻擊通常需要攻擊者耐心滲透系統(tǒng),探索內(nèi)部環(huán)境,生成式AI徹底顛覆了傳統(tǒng)攻擊模式。攻擊者無(wú)需再耗時(shí)滲透系統(tǒng),只需向AI助手提問(wèn)(提示注入)即可獲取敏感信息或訪問(wèn)憑證,進(jìn)而實(shí)施橫向移動(dòng)。當(dāng)前AI對(duì)網(wǎng)絡(luò)安全的六大核心挑戰(zhàn)包括:
  • 員工數(shù)據(jù)訪問(wèn)權(quán)限過(guò)度寬松

     

  • 敏感數(shù)據(jù)標(biāo)識(shí)缺失或錯(cuò)誤

     

  • 內(nèi)部人員通過(guò)自然語(yǔ)言快速定位并外泄數(shù)據(jù)

     

  • 攻擊者利用AI挖掘權(quán)限升級(jí)路徑

     

  • 人工難以及時(shí)校準(zhǔn)動(dòng)態(tài)權(quán)限

     

  • AI持續(xù)生成新型敏感數(shù)據(jù)

盡管這些風(fēng)險(xiǎn)并非新問(wèn)題,但AI的介入極大地降低了信息泄露的門檻,使得攻擊者比以往更容易大規(guī)模*率利用企業(yè)的安全漏洞。

萬(wàn)模裸奔:部署開源模型的風(fēng)險(xiǎn)

隨著開源AI模型的興起,許多企業(yè)選擇部署如DeepSeek等模型,以期在本地環(huán)境中利用AI技術(shù)。然而,這種做法也帶來(lái)了新的安全隱患。
根據(jù)奇安信近日發(fā)布的資產(chǎn)測(cè)繪監(jiān)測(cè)結(jié)果,在8971個(gè)Ollama(一款開源大語(yǔ)言模型服務(wù)工具)大模型服務(wù)器中,有6449個(gè)活躍服務(wù)器,其中88.9%都“裸奔”在互聯(lián)網(wǎng)上,面臨數(shù)據(jù)泄漏、服務(wù)中斷和濫用等嚴(yán)重威脅。私有化部署開源模型的風(fēng)險(xiǎn)主要有以下幾點(diǎn):

1

暴露的服務(wù)器風(fēng)險(xiǎn)

近期,有攻擊者通過(guò)自動(dòng)化腳本掃描暴露的DeepSeek服務(wù)器,惡意占用大量計(jì)算資源,導(dǎo)致部分用戶服務(wù)器崩潰。

2

缺乏安全認(rèn)證

一些工具(例如Ollama)在默認(rèn)情況下未提供安全認(rèn)證功能,導(dǎo)致許多部署DeepSeek的用戶忽略了必要的安全限制,未對(duì)服務(wù)設(shè)置訪問(wèn)控制。這使得任何人都可以在未經(jīng)授權(quán)的情況下訪問(wèn)這些服務(wù),增加了數(shù)據(jù)泄露和服務(wù)中斷的風(fēng)險(xiǎn)。

3

模型固件加密不足

在本地化部署中,模型核心邏輯需要嵌入硬件固件,以防止惡意篡改或逆向工程。如果缺乏適當(dāng)?shù)募用艽胧?,攻擊者可能?huì)利用這些漏洞,進(jìn)一步威脅系統(tǒng)的安全性。

4

數(shù)據(jù)合規(guī)性問(wèn)題

開源模型的訓(xùn)練數(shù)據(jù)來(lái)源復(fù)雜,可能涉及版權(quán)和隱私問(wèn)題(甚至導(dǎo)致嚴(yán)厲監(jiān)管處罰的內(nèi)容安全問(wèn)題)。企業(yè)在使用這些模型時(shí),需要確保數(shù)據(jù)來(lái)源合法,并在部署前進(jìn)行*的安全測(cè)試,以避免潛在的法律和安全風(fēng)險(xiǎn)。

構(gòu)筑新型AI防御體系的八大關(guān)鍵措施

要想降低AI帶來(lái)的數(shù)據(jù)安全風(fēng)險(xiǎn),CISO們必須夯實(shí)數(shù)據(jù)管理基礎(chǔ),方可引入AI工具。在部署基于大模型的AI工具(無(wú)論是開源還是閉源,云端還是本地私有部署)之前,企業(yè)需要明確所有敏感數(shù)據(jù)的存儲(chǔ)位置,并具備識(shí)別風(fēng)險(xiǎn)、修復(fù)安全漏洞和優(yōu)化權(quán)限配置的能力。
企業(yè)部署DeepSeek等開源模型時(shí),需重視和采取以下主動(dòng)防御措施:
  • 定期進(jìn)行安全審計(jì):對(duì)模型和相關(guān)系統(tǒng)進(jìn)行定期的安全檢查,及時(shí)發(fā)現(xiàn)并修復(fù)潛在的漏洞。嚴(yán)格審核第三方AI模型的訓(xùn)練數(shù)據(jù)來(lái)源與隱私政策,防范數(shù)據(jù)主權(quán)爭(zhēng)議。

     

  • 彌補(bǔ)AI安全技能鴻溝:鼓勵(lì)員工獲取AI安全相關(guān)認(rèn)證(如CAISP、CISSP-AI),提升專業(yè)技能,同時(shí)通過(guò)模擬攻擊演練(如紅隊(duì)/藍(lán)隊(duì)演習(xí))增強(qiáng)實(shí)戰(zhàn)能力。建立內(nèi)部培訓(xùn)計(jì)劃,開發(fā)針對(duì)AI安全的技術(shù)培訓(xùn)課程,涵蓋模型漏洞分析、數(shù)據(jù)隱私保護(hù)、算法偏見識(shí)別等內(nèi)容,培養(yǎng)既有AI技術(shù)背景又有安全意識(shí)的復(fù)合型人才。

     

  • 加強(qiáng)員工安全意識(shí)培訓(xùn):AI大大提升了攻防兩端的能力(例如DeepSeek極大提升了*軟件和網(wǎng)絡(luò)釣魚的中文水平),這意味著企業(yè)需要緊急追加預(yù)算提高員工的安全意識(shí)水平,確保他們了解并識(shí)別那些足可以假亂真的釣魚信息、AI幻覺信息,以及學(xué)習(xí)安全使用和管理AI工具。

     

  • 遵守?cái)?shù)據(jù)合規(guī)性要求:在使用開源模型時(shí),確保遵守相關(guān)的數(shù)據(jù)保護(hù)法律法規(guī),避免侵犯用戶隱私或知識(shí)產(chǎn)權(quán)。

在AI工具正式投入使用后,安全管理人員需要采取以下持續(xù)監(jiān)控措施:
  • 權(quán)限動(dòng)態(tài)治理。實(shí)施*小權(quán)限原則,定期審計(jì)員工權(quán)限范圍,確保AI工具訪問(wèn)權(quán)限與用戶實(shí)際需求嚴(yán)格匹配,杜絕“權(quán)限閑置即風(fēng)險(xiǎn)”的隱患。

     

  • 數(shù)據(jù)智能分類。通過(guò)自動(dòng)化工具全域掃描敏感數(shù)據(jù),建立精細(xì)化標(biāo)簽體系,為數(shù)據(jù)防泄露(DLP)策略提供可執(zhí)行的分類基準(zhǔn)。

     

  • 人機(jī)行為監(jiān)控。構(gòu)建AI操作審計(jì)機(jī)制,實(shí)時(shí)監(jiān)測(cè)異常提示詞(Prompts)、文件訪問(wèn)模式等行為特征。例如,某員工若頻繁要求AI匯總客戶清單并關(guān)聯(lián)財(cái)務(wù)數(shù)據(jù),系統(tǒng)需立即觸發(fā)告警。

     

  • 影子AI可視化。通過(guò)CASB(云訪問(wèn)安全代理)監(jiān)控?cái)?shù)百個(gè)AI應(yīng)用,識(shí)別高風(fēng)險(xiǎn)工具并建立禁用清單(如金融行業(yè)100%屏蔽未授權(quán)AI)。

生成式AI快速普及帶來(lái)的數(shù)據(jù)安全威脅正在引發(fā)一場(chǎng)企業(yè)網(wǎng)絡(luò)安全革命,導(dǎo)致企業(yè)安全體系的大規(guī)模范式轉(zhuǎn)移。CISO必須意識(shí)到:當(dāng)AI工具能瞬間調(diào)用全網(wǎng)數(shù)據(jù)時(shí),傳統(tǒng)的靜態(tài)防御體系已形同虛設(shè)。唯有將安全文化、數(shù)據(jù)治理、權(quán)限管控與行為分析深度耦合,方能駕馭AI這把“效率與風(fēng)險(xiǎn)并存的大殺器”。要想因?qū)Πㄓ白覣I在內(nèi)的生成式AI帶來(lái)的數(shù)據(jù)安全危機(jī),CISO亟需開展一場(chǎng)融合技術(shù)、管理與文化的系統(tǒng)性變革。

 

Image
Image
版權(quán)所有:山西科信源科技股份有限公司
咨詢熱線:0351-4073466?
地址:(北區(qū))山西省太原市迎澤區(qū)新建南路文源巷24號(hào)文源公務(wù)中心5層
? ? ? ? ? ?(南區(qū))太原市小店區(qū)南中環(huán)街529 號(hào)清控創(chuàng)新基地A座4層
Image
?2021 山西科信源信息科技有限公司 晉ICP備15000945號(hào) 技術(shù)支持 - 資??萍技瘓F(tuán)