一.論文信息
論文題目: Untargeted Backdoor Attack Against Object Detection(針對目標(biāo)檢測的無目標(biāo)后門攻擊)
發(fā)表年份: 2023-ICASSP(CCF-B)
作者信息:
- Chengxiao Luo (清華大學(xué)深圳國際研究生院)
- Yiming Li(清華大學(xué)深圳國際研究生院)
- Yong Jiang(清華大學(xué)深圳國際研究生院,鵬程實驗室人工智能研究中心)
- Shu-Tao Xia(清華大學(xué)深圳國際研究生院,鵬程實驗室人工智能研究中心)
二.論文內(nèi)容
abstract
Recent studies revealed that deep neural networks (DNNs) are exposed to backdoor threats when training with third-party resources (such as training samples or backbones). The backdoored model has promising performance in predicting benign samples, whereas its predictions can be maliciously manipulated by adversaries based on activating its backdoors with pre-de?ned trigger patterns. Currently, most of the existing backdoor attacks were conducted on the image classification under the targeted manner. In this paper, we reveal that these threats could also happen in object detection, posing threatening risks to many mission-critical applications (e.g., pedestrian detection and intelligent surveillance systems). Specifically, we design a simple yet effective poisononly backdoor attack in an untargeted manner, based on task characteristics. We show that, once the backdoor is embedded into the target model by our attack, it can trick the model to lose detection of any object stamped with our trigger patterns. We conduct extensive experiments on the benchmark dataset, showing its effectiveness in both digital and physical-world settings and its resistance to potential defenses.
中文摘要
最近的研究表明,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNNs)在使用第三方資源(如訓(xùn)練樣本或主干網(wǎng)絡(luò))進行訓(xùn)練時容易受到后門威脅。后門模型在預(yù)測良性樣本方面具有良好的性能,然而,基于使用預(yù)定義的觸發(fā)模式激活其后門,其預(yù)測可能被對手惡意操縱。目前,已有的后門攻擊大多以有針對性的方式針對圖像分類進行。在本文中,我們揭示了這些威脅也可能發(fā)生在目標(biāo)檢測中,對許多關(guān)鍵任務(wù)應(yīng)用(例如行人檢測和智能監(jiān)控系統(tǒng))構(gòu)成威脅風(fēng)險。具體而言,基于任務(wù)特征,以無針對性的方式設(shè)計了一種簡單而有效的后門攻擊。一旦后門被攻擊嵌入到目標(biāo)模型中,它就可以欺騙模型,使其對任何帶有觸發(fā)模式的對象失去檢測。在基準(zhǔn)數(shù)據(jù)集上進行了廣泛的實驗,表明了其在數(shù)字和物理世界設(shè)置中的有效性,以及對潛在防御的抵抗。
1.論文概述
這是一篇發(fā)表在2023年ICASSP會議上的關(guān)于目標(biāo)檢測后門攻擊的論文。與以往工作不同,以往工作主要關(guān)注圖像分類任務(wù)的后門攻擊,而本工作則關(guān)注目標(biāo)檢測任務(wù)的后門攻擊(而且不針對特定目標(biāo))。文章來源:http://www.zghlxwxcb.cn/news/detail-709478.html
2.背景介紹
目標(biāo)檢測的目的是對圖像中的一組對象進行定位并識別其類別[1]。它已被廣泛應(yīng)用于關(guān)鍵任務(wù)應(yīng)用(例如行人檢測[2]和自動駕駛[3])。因此,有必要確保其安全。目前,最先進的目標(biāo)檢測器都是基于深度神經(jīng)網(wǎng)絡(luò)(deep neural networks, dnn)設(shè)計的[4,5,6],而深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練通常需要大量的資源。為了減輕訓(xùn)練負擔(dān),研究人員和開發(fā)人員通常會利用第三方資源(如訓(xùn)練樣本或骨干網(wǎng)絡(luò)backbone),甚至直接部署第三方模型。一個重要的問題出現(xiàn)了:訓(xùn)練不透明性是否會給目標(biāo)檢測帶來新的威脅?文章來源地址http://www.zghlxwxcb.cn/news/detail-709478.html
3.作者貢獻
- 揭示了目標(biāo)檢測中的后門威脅。據(jù)我們所知,這是針對這項關(guān)鍵任務(wù)的第一次后門攻擊。與現(xiàn)有的方法不同(現(xiàn)有的方法主要是針對分類任務(wù)設(shè)計的,且是有針對性的攻擊,要與特定的目標(biāo)標(biāo)簽相關(guān)聯(lián)),本文關(guān)注目標(biāo)檢測任務(wù)的后門攻擊,使經(jīng)過中毒數(shù)據(jù)訓(xùn)練過的模型,在良性樣本上表現(xiàn)出正常行為,但在特定觸發(fā)模式下會讓目標(biāo)逃脫檢測。
- 后門攻擊是發(fā)生在訓(xùn)練階段的一種攻擊,作者提出了一種簡單而有效的攻擊方法,即:在添加預(yù)定義觸發(fā)模式后移除一些隨機選擇對象的邊界框。 作者認為攻擊是隱形的,可以繞過人工檢查,因為當(dāng)圖像包含許多對象時通常會漏標(biāo)一些邊界框。
- 作者在基準(zhǔn)數(shù)據(jù)集上進行了大量實驗,驗證了我們的攻擊的有效性及其對潛在后門防御的抵抗力。
4.重點圖表
到了這里,關(guān)于【論文閱讀】Untargeted Backdoor Attack Against Object Detection(針對目標(biāo)檢測的無目標(biāo)后門攻擊)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!