久久亚洲一区二区三区四区,亚洲熟妇av一区二区三区色堂,国产精品免费大片,精品无码久久久久久久久曰韩邻居

當(dāng)前位置:首頁 > 最新資訊 > 行業(yè)資訊

人工智能的頭號(hào)威脅:投毒攻擊

隨著掌管數(shù)字生活入口的萬億美元俱樂部企業(yè)——蘋果公司跳入人工智能(AI)賽道,AI技術(shù)民主化的大幕正式拉開,同時(shí)也將AI安全問題推向輿論的風(fēng)口浪尖。

根據(jù)瑞銀本周一的智能手機(jī)調(diào)查報(bào)告,在中國(guó)以外的智能手機(jī)用戶中,只有27%的人對(duì)提供生成式AI功能的設(shè)備感興趣,價(jià)格和隱私才是用戶最關(guān)心的問題。顯然,用戶最關(guān)心的不是AI帶來的效率和體驗(yàn),而是隱私和AI安全的新威脅。

人工智能

AI面臨的頭號(hào)威脅:投毒攻擊

近日,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)出警告稱,隨著人工智能技術(shù)的快速普及,越來越多的黑客將發(fā)起“投毒攻擊”,AI應(yīng)用的安全性將面臨嚴(yán)峻考驗(yàn)。

投毒攻擊是針對(duì)人工智能(AI)系統(tǒng)的一種惡意行為,黑客通過操縱輸入數(shù)據(jù)或直接修改模型來影響AI系統(tǒng)的輸出。

過去,業(yè)界針對(duì)AI系統(tǒng)的“投毒攻擊”并不重視,軟件公司Splunk曾在《2024年安全狀態(tài)報(bào)告》指出:“AI中毒仍然是一種可能性,但尚未普及。”

但是安全專家們警告CISO加強(qiáng)戒備,因?yàn)橛雄E象表明黑客正越來越多地瞄準(zhǔn)AI系統(tǒng),尤其是通過破壞數(shù)據(jù)或模型來進(jìn)行投毒攻擊,各種規(guī)模和類型的企業(yè)都可能成為攻擊目標(biāo)。

咨詢公司Protiviti透露,該公司的一家客戶企業(yè)近日遭遇了投毒攻擊:黑客試圖通過投喂惡意輸入數(shù)據(jù)來操縱該公司AI系統(tǒng)的輸出結(jié)果。

Protiviti指出:“所有企業(yè),無論是內(nèi)部開發(fā)的AI模型還是使用第三方AI工具,都面臨投毒攻擊風(fēng)險(xiǎn)。”

四種主要的投毒攻擊

NIST在2024年1月的一份報(bào)告中強(qiáng)調(diào)了投毒攻擊的危險(xiǎn)性:“中毒攻擊非常強(qiáng)大,可導(dǎo)致AI系統(tǒng)的可用性或完整性受到破壞。”

NIST將投毒攻擊劃分為以下四大類型:

可用性投毒:無差別地影響整個(gè)機(jī)器學(xué)習(xí)模型,相當(dāng)于針對(duì)AI系統(tǒng)的拒絕服務(wù)攻擊。

目標(biāo)投毒:黑客在少數(shù)目標(biāo)樣本上誘導(dǎo)機(jī)器學(xué)習(xí)模型產(chǎn)生錯(cuò)誤的預(yù)測(cè)結(jié)果。

后門投毒:通過在訓(xùn)練時(shí)在一部分圖像中添加小的觸發(fā)補(bǔ)丁并更改其標(biāo)簽,可以影響圖像分類器,以在實(shí)際使用時(shí)激活錯(cuò)誤行為。

模型投毒:直接修改訓(xùn)練后的機(jī)器學(xué)習(xí)模型以注入惡意功能,使其在特定情況下表現(xiàn)異常。

NIST和安全專家指出,除了中毒攻擊,AI系統(tǒng)還面臨隱私泄露以及直接和間接提示注入等多種攻擊。

NIST研究團(tuán)隊(duì)主管ApostolVassilev表示:“企業(yè)部署AI會(huì)引入全新的攻擊面,我們已經(jīng)看到了學(xué)術(shù)界和其他研究人員展示的漏洞利用。隨著AI技術(shù)的普及,黑客攻擊的價(jià)值也隨之增加,這也是為什么我們會(huì)看到更嚴(yán)重的漏洞利用,我們已經(jīng)看到相關(guān)案例的增加。”

AI投毒攻擊可來自內(nèi)部或外部

安全專家表示,中毒攻擊既可能由內(nèi)部人員發(fā)起,也可能由外部黑客發(fā)起,這與傳統(tǒng)的網(wǎng)絡(luò)攻擊類似。

FTIConsulting管理董事DavidYoussef表示,國(guó)家級(jí)黑客可能是最大的風(fēng)險(xiǎn)之一,因?yàn)樗麄冇心芰唾Y源投資于這類攻擊。

專家指出,黑客發(fā)起AI投毒攻擊的動(dòng)機(jī)與傳統(tǒng)網(wǎng)絡(luò)攻擊類似,例如為了造成破壞或損失,以及獲取機(jī)密數(shù)據(jù)或勒索金錢。

主要目標(biāo):AI廠商

雖然任何使用AI的企業(yè)和機(jī)構(gòu)都可能成為受害者,但I(xiàn)EEE高級(jí)成員和Hyperproof的CISOKayneMcGladrey表示,黑客更有可能瞄準(zhǔn)制造和訓(xùn)練AI系統(tǒng)的科技公司。

最近的一個(gè)案例暴露了AI技術(shù)供應(yīng)鏈上游的潛在巨大風(fēng)險(xiǎn)??萍脊綣Frog的研究人員發(fā)現(xiàn),約有100個(gè)惡意機(jī)器學(xué)習(xí)模型被上傳到公開的AI模型庫HuggingFace。

研究人員指出,這些惡意模型可能允許攻擊者在加載模型時(shí)向用戶機(jī)器注入惡意代碼,可能會(huì)迅速破壞大量用戶環(huán)境。

CISO應(yīng)該怎么做?

根據(jù)ISC2今年2月份的調(diào)查,很多CISO并未做好應(yīng)對(duì)AI風(fēng)險(xiǎn)的準(zhǔn)備。報(bào)告發(fā)現(xiàn),超過1100名受訪者中,75%表示中度至極度擔(dān)心人工智能會(huì)被用于網(wǎng)絡(luò)攻擊或其他惡意活動(dòng),其中深度偽造、虛假信息和社會(huì)工程是網(wǎng)絡(luò)專業(yè)人士最擔(dān)心的三大問題。

盡管人們對(duì)此高度擔(dān)憂,但只有60%的人表示,他們有信心帶領(lǐng)組織安全采用AI。此外,41%的人表示,他們?cè)诒Wo(hù)AI和ML技術(shù)方面幾乎沒有或根本沒有專業(yè)知識(shí)。與此同時(shí),只有27%的人表示,他們的組織制定了有關(guān)AI安全和道德使用的正式政策。

ISC2首席信息安全官JonFrance表示:“一般的CISO并不擅長(zhǎng)AI開發(fā),也沒有將AI技能作為核心競(jìng)爭(zhēng)力。”

安全專家建議,防御投毒攻擊需要采用多層防御策略,包括強(qiáng)大的訪問和身份管理程序、安全信息和事件管理(SIEM)系統(tǒng)以及異常檢測(cè)工具。此外,還需要良好的數(shù)據(jù)治理實(shí)踐以及對(duì)AI工具的監(jiān)控和監(jiān)督。

NIST在《對(duì)抗性機(jī)器學(xué)習(xí)》報(bào)告中也提供了詳細(xì)的緩解策略和關(guān)于投毒攻擊的詳細(xì)信息。

最后,一些安全領(lǐng)導(dǎo)者強(qiáng)烈建議CISO在團(tuán)隊(duì)中增加接受過AI安全培訓(xùn)的專業(yè)人才(普通SOC團(tuán)隊(duì)無法評(píng)估訓(xùn)練數(shù)據(jù)集和AI模型),并與其他高管合作,識(shí)別和理解與AI工具相關(guān)的風(fēng)險(xiǎn)(包括中毒攻擊),制定風(fēng)險(xiǎn)緩解策略。

猜你喜歡