人工智能已經(jīng)不再是一個(gè)獨(dú)立的、孤立的技術(shù)概念,而是貫穿網(wǎng)絡(luò)安全各個(gè)領(lǐng)域,AI智能體也已經(jīng)從實(shí)驗(yàn)室走入千家萬戶。
安恒信息CTO劉博向21世紀(jì)經(jīng)濟(jì)報(bào)道記者表示,在大模型時(shí)代,人們對(duì)安全的感知比以往更為強(qiáng)烈。一方面,大模型涉及的數(shù)據(jù)量龐大且復(fù)雜;另一方面,在應(yīng)用大模型時(shí),往往需要處理大量敏感數(shù)據(jù)的交互。無論是個(gè)人還是企業(yè)都對(duì)此更加重視。
然而,AI的發(fā)展催生了前所未有的安全挑戰(zhàn)——攻擊與防御的邊界因技術(shù)迭代而模糊,傳統(tǒng)規(guī)則式防護(hù)體系在動(dòng)態(tài)化、智能化的新型威脅前逐漸失效。
日前,在2025中國數(shù)谷·西湖論劍大會(huì)上,安恒信息董事長范淵指出,安全與智能密不可分,安全的邊界決定著智能的發(fā)展疆域,而智能的高度也將重塑安全的維度。
面對(duì)新興挑戰(zhàn),行業(yè)正在探索新的防御范式。動(dòng)態(tài)防御、AI對(duì)抗AI、隱私計(jì)算等新技術(shù)方向逐漸成為共識(shí)。然而,技術(shù)只是解決方案的一部分。標(biāo)準(zhǔn)體系的缺失、跨廠商協(xié)作的障礙、法律倫理的模糊地帶,都是需要全社會(huì)共同應(yīng)對(duì)的課題。
安全挑戰(zhàn)加劇
大模型技術(shù)加速向金融、政務(wù)、企業(yè)等領(lǐng)域應(yīng)用,多種安全風(fēng)險(xiǎn)相互交織、疊加放大。安恒信息首席安全官、高級(jí)副總裁袁明坤向記者表示,近兩年來,無論是攻擊的數(shù)量還是強(qiáng)度都有所增加。
傳統(tǒng)基于規(guī)則和特征匹配的防御體系,在面對(duì)AI驅(qū)動(dòng)的動(dòng)態(tài)化、智能化攻擊時(shí)顯得力不從心。數(shù)據(jù)泄露、模型濫用、協(xié)議漏洞等問題層出不窮,而攻擊者的手段正因AI的加持變得更加隱蔽和高效。
一方面,攻擊手段的智能化升級(jí)讓防御難度呈指數(shù)級(jí)增長。
袁明坤向記者表示,勒索病毒編寫、網(wǎng)絡(luò)釣魚等犯罪活動(dòng)因AI技術(shù)門檻降低而激增。在過去,勒索病毒的編寫需要一定的技術(shù)門檻,但如今,借助AI,即使是那些原本不具備高超編程能力的人,也能夠制造出勒索病毒。這無疑給網(wǎng)絡(luò)安全帶來了巨大的威脅,網(wǎng)絡(luò)犯罪的規(guī)模和頻率都有可能進(jìn)一步擴(kuò)大。
在網(wǎng)絡(luò)安全的對(duì)抗過程中,AI技術(shù)的應(yīng)用也使得攻擊手段變得更加復(fù)雜和多樣化。傳統(tǒng)的攻擊方式往往需要攻擊者手動(dòng)使用各種工具進(jìn)行嘗試,而借助大模型的推理能力,攻擊者可以更加高效地進(jìn)行攻擊。
袁明坤表示,AI能夠自動(dòng)地對(duì)目標(biāo)系統(tǒng)進(jìn)行分析和測試,找出潛在的漏洞,并且能夠根據(jù)已有的攻擊結(jié)果進(jìn)一步推導(dǎo)出更多的攻擊點(diǎn)。這種攻擊能力的成倍放大,使得防守方面臨著更大的壓力。
另一方面,AI本身的安全問題也逐漸凸顯出來。目前,一些大型企業(yè)已經(jīng)將AI技術(shù)廣泛應(yīng)用于業(yè)務(wù)中,其業(yè)務(wù)的核心部分都依賴于AI。這就使得AI本身的安全性變得至關(guān)重要。數(shù)據(jù)的可見性、可用性以及數(shù)據(jù)流轉(zhuǎn)的通道等都成為了企業(yè)需要重點(diǎn)關(guān)注的問題。
智能體技術(shù)的普及帶來了全新的安全挑戰(zhàn)。通信協(xié)議是推動(dòng)多智能體系統(tǒng)協(xié)同作業(yè)的關(guān)鍵,如Anthropic提出的MCP(Model Context Protocol,模型上下文協(xié)議)作為當(dāng)前的主流標(biāo)準(zhǔn),該協(xié)議在設(shè)計(jì)之初聚焦于功能協(xié)同架構(gòu)的構(gòu)建,但在安全體系設(shè)計(jì)上存在階段性不足。
“MCP協(xié)議安全架構(gòu)存在先天性不足,在認(rèn)證機(jī)制、權(quán)限管控體系以及數(shù)據(jù)安全防護(hù)等核心安全領(lǐng)域,當(dāng)前協(xié)議框架尚未提供有效的技術(shù)解決方案。產(chǎn)業(yè)界已形成共識(shí),需要額外疊加外部安全組件來彌補(bǔ)協(xié)議層面的安全缺陷。”劉博向記者表示。
因此,當(dāng)MCP與大模型結(jié)合使用時(shí),如果配置不當(dāng),可能會(huì)導(dǎo)致正常的大模型變成惡意模型。
安恒信息高級(jí)副總裁、研究院院長王欣向記者解釋道,目前,許多大模型采用無監(jiān)督式訓(xùn)練,在數(shù)據(jù)語料治理過程中,可能存在一些“臟數(shù)據(jù)”,這些數(shù)據(jù)可能被惡意利用。為了安全起見,通用模型廠商通常會(huì)進(jìn)行價(jià)值觀對(duì)齊,但這種對(duì)齊很容易被突破。通過簡單的方式,攻擊者可以繞過價(jià)值觀對(duì)齊的防御體系,使模型執(zhí)行惡意操作。
袁明坤向記者表示,如果AI系統(tǒng)被攻擊者入侵,那么企業(yè)的核心數(shù)據(jù)可能會(huì)被竊取或篡改,給企業(yè)帶來巨大的損失。因此,保障AI系統(tǒng)的安全,防止其被惡意利用,是未來網(wǎng)絡(luò)安全領(lǐng)域必須解決的重要課題。