具身智能面臨“視覺攻擊”風(fēng)險(xiǎn)
關(guān)鍵詞: 自動(dòng)駕駛 具身AI 視覺攻擊
在自動(dòng)駕駛汽車依靠攝像頭與傳感器識(shí)別路標(biāo)、保障安全行駛的同時(shí),其底層的人工智能(AI)系統(tǒng)正面臨前所未見的“視覺攻擊”威脅。美國加州大學(xué)圣克魯茲分校科學(xué)家們首次揭示,攻擊者可通過在環(huán)境中植入特定文字信息,直接“劫持”自動(dòng)駕駛車輛、無人機(jī)等自主系統(tǒng)的決策,使其做出危險(xiǎn)行為。研究呼吁,產(chǎn)業(yè)界需盡快形成新的安全標(biāo)準(zhǔn)和防護(hù)機(jī)制。相關(guān)研究發(fā)表于27日優(yōu)睿科官網(wǎng),論文已被AI安全領(lǐng)域的頂級(jí)會(huì)議——2026年IEEE安全可信機(jī)器學(xué)習(xí)大會(huì)接收。
具身AI即具備物理載體的智能系統(tǒng),如自動(dòng)駕駛汽車、配送機(jī)器人等。隨著具身AI日益普及,其依賴的視覺語言模型也成為安全研究的焦點(diǎn)。該模型能夠同時(shí)理解圖像與文本,幫助機(jī)器適應(yīng)復(fù)雜現(xiàn)實(shí)環(huán)境,卻也打開了被物理世界文字信息攻擊的新突破口。
新研究第一次提出“環(huán)境間接提示”對(duì)具身AI系統(tǒng)的風(fēng)險(xiǎn)。研究指出,惡意文本可被嵌入路標(biāo)、海報(bào)等物理載體,誤導(dǎo)依賴于視覺語言模型的機(jī)器人或車輛,從而干擾其正常判斷與操作。此次科學(xué)家們針對(duì)自動(dòng)駕駛、無人機(jī)緊急降落、目標(biāo)搜索三類典型應(yīng)用場(chǎng)景,設(shè)計(jì)并驗(yàn)證了一套名為“CHAI”的攻擊框架,實(shí)現(xiàn)“針對(duì)具身AI的命令劫持”。該框架首先利用生成式AI優(yōu)化攻擊文本,提高其被系統(tǒng)執(zhí)行的概率;進(jìn)而調(diào)整文字在環(huán)境中的顏色、大小、位置等視覺屬性,以增強(qiáng)攻擊效果。
實(shí)驗(yàn)證明,CHAI攻擊可有效操縱搭載不同視覺語言模型的自主系統(tǒng)。在自動(dòng)駕駛場(chǎng)景中,生成的誤導(dǎo)圖像被放置在真實(shí)環(huán)境中,成功干擾了測(cè)試車輛的導(dǎo)航判斷。在無人機(jī)場(chǎng)景的模擬測(cè)試中,攻擊成功率最高可達(dá)95.5%。
結(jié)果明確顯示,此類攻擊在物理世界中完全可行,對(duì)智能系統(tǒng)的安全構(gòu)成實(shí)際威脅。隨著AI在物理系統(tǒng)中的融合不斷加深,該項(xiàng)研究為行業(yè)提前敲響了安全警鐘。