国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀】Untargeted Backdoor Attack Against Object Detection(針對目標(biāo)檢測的無目標(biāo)后門攻擊)

這篇具有很好參考價值的文章主要介紹了【論文閱讀】Untargeted Backdoor Attack Against Object Detection(針對目標(biāo)檢測的無目標(biāo)后門攻擊)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一.論文信息

論文題目: Untargeted Backdoor Attack Against Object Detection(針對目標(biāo)檢測的無目標(biāo)后門攻擊)

發(fā)表年份: 2023-ICASSP(CCF-B)

作者信息:

  • Chengxiao Luo (清華大學(xué)深圳國際研究生院)
  • Yiming Li(清華大學(xué)深圳國際研究生院)
  • Yong Jiang(清華大學(xué)深圳國際研究生院,鵬程實驗室人工智能研究中心)
  • Shu-Tao Xia(清華大學(xué)深圳國際研究生院,鵬程實驗室人工智能研究中心)

二.論文內(nèi)容

abstract

Recent studies revealed that deep neural networks (DNNs) are exposed to backdoor threats when training with third-party resources (such as training samples or backbones). The backdoored model has promising performance in predicting benign samples, whereas its predictions can be maliciously manipulated by adversaries based on activating its backdoors with pre-de?ned trigger patterns. Currently, most of the existing backdoor attacks were conducted on the image classification under the targeted manner. In this paper, we reveal that these threats could also happen in object detection, posing threatening risks to many mission-critical applications (e.g., pedestrian detection and intelligent surveillance systems). Specifically, we design a simple yet effective poisononly backdoor attack in an untargeted manner, based on task characteristics. We show that, once the backdoor is embedded into the target model by our attack, it can trick the model to lose detection of any object stamped with our trigger patterns. We conduct extensive experiments on the benchmark dataset, showing its effectiveness in both digital and physical-world settings and its resistance to potential defenses.

中文摘要

最近的研究表明,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNNs)在使用第三方資源(如訓(xùn)練樣本或主干網(wǎng)絡(luò))進行訓(xùn)練時容易受到后門威脅。后門模型在預(yù)測良性樣本方面具有良好的性能,然而,基于使用預(yù)定義的觸發(fā)模式激活其后門,其預(yù)測可能被對手惡意操縱。目前,已有的后門攻擊大多以有針對性的方式針對圖像分類進行。在本文中,我們揭示了這些威脅也可能發(fā)生在目標(biāo)檢測中,對許多關(guān)鍵任務(wù)應(yīng)用(例如行人檢測和智能監(jiān)控系統(tǒng))構(gòu)成威脅風(fēng)險。具體而言,基于任務(wù)特征,以無針對性的方式設(shè)計了一種簡單而有效的后門攻擊。一旦后門被攻擊嵌入到目標(biāo)模型中,它就可以欺騙模型,使其對任何帶有觸發(fā)模式的對象失去檢測。在基準(zhǔn)數(shù)據(jù)集上進行了廣泛的實驗,表明了其在數(shù)字和物理世界設(shè)置中的有效性,以及對潛在防御的抵抗。

1.論文概述

這是一篇發(fā)表在2023年ICASSP會議上的關(guān)于目標(biāo)檢測后門攻擊的論文。與以往工作不同,以往工作主要關(guān)注圖像分類任務(wù)的后門攻擊,而本工作則關(guān)注目標(biāo)檢測任務(wù)的后門攻擊(而且不針對特定目標(biāo))。

2.背景介紹

目標(biāo)檢測的目的是對圖像中的一組對象進行定位并識別其類別[1]。它已被廣泛應(yīng)用于關(guān)鍵任務(wù)應(yīng)用(例如行人檢測[2]和自動駕駛[3])。因此,有必要確保其安全。目前,最先進的目標(biāo)檢測器都是基于深度神經(jīng)網(wǎng)絡(luò)(deep neural networks, dnn)設(shè)計的[4,5,6],而深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練通常需要大量的資源。為了減輕訓(xùn)練負擔(dān),研究人員和開發(fā)人員通常會利用第三方資源(如訓(xùn)練樣本或骨干網(wǎng)絡(luò)backbone),甚至直接部署第三方模型。一個重要的問題出現(xiàn)了:訓(xùn)練不透明性是否會給目標(biāo)檢測帶來新的威脅?文章來源地址http://www.zghlxwxcb.cn/news/detail-709478.html

3.作者貢獻

  • 揭示了目標(biāo)檢測中的后門威脅。據(jù)我們所知,這是針對這項關(guān)鍵任務(wù)的第一次后門攻擊。與現(xiàn)有的方法不同(現(xiàn)有的方法主要是針對分類任務(wù)設(shè)計的,且是有針對性的攻擊,要與特定的目標(biāo)標(biāo)簽相關(guān)聯(lián)),本文關(guān)注目標(biāo)檢測任務(wù)的后門攻擊,使經(jīng)過中毒數(shù)據(jù)訓(xùn)練過的模型,在良性樣本上表現(xiàn)出正常行為,但在特定觸發(fā)模式下會讓目標(biāo)逃脫檢測。
  • 后門攻擊是發(fā)生在訓(xùn)練階段的一種攻擊,作者提出了一種簡單而有效的攻擊方法,即:在添加預(yù)定義觸發(fā)模式后移除一些隨機選擇對象的邊界框。 作者認為攻擊是隱形的,可以繞過人工檢查,因為當(dāng)圖像包含許多對象時通常會漏標(biāo)一些邊界框。
  • 作者在基準(zhǔn)數(shù)據(jù)集上進行了大量實驗,驗證了我們的攻擊的有效性及其對潛在后門防御的抵抗力。

4.重點圖表

到了這里,關(guān)于【論文閱讀】Untargeted Backdoor Attack Against Object Detection(針對目標(biāo)檢測的無目標(biāo)后門攻擊)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 論文閱讀 The Power of Tiling for Small Object Detection

    論文閱讀 The Power of Tiling for Small Object Detection

    Abstract 基于深度神經(jīng)網(wǎng)絡(luò)的技術(shù)在目標(biāo)檢測和分類方面表現(xiàn)出色。但這些網(wǎng)絡(luò)在適應(yīng)移動平臺時可能會降低準(zhǔn)確性,因為圖像分辨率的增加使問題變得更加困難。在低功耗移動設(shè)備上實現(xiàn)實時小物體檢測一直是監(jiān)控應(yīng)用的基本問題之一。在本研究中,我們解決了在高分辨率微

    2024年02月11日
    瀏覽(34)
  • 【論文閱讀】 Few-shot object detection via Feature Reweighting

    【論文閱讀】 Few-shot object detection via Feature Reweighting

    Few-shot object detection的開山之作之一 ~~ 屬于Metric-based Methods 特征學(xué)習(xí)器使用來自具有足夠樣本的基本類的訓(xùn)練數(shù)據(jù)來 提取 可推廣以檢測新對象類的meta features。The reweighting module將新類別中的一些support examples轉(zhuǎn)換為全局向量,該全局向量indicates meta features對于檢測相應(yīng)物體的重

    2023年04月09日
    瀏覽(22)
  • 論文閱讀:YOLOV: Making Still Image Object Detectors Great at Video Object Detection

    論文閱讀:YOLOV: Making Still Image Object Detectors Great at Video Object Detection

    發(fā)表時間:2023年3月5日 論文地址:https://arxiv.org/abs/2208.09686 項目地址:https://github.com/YuHengsss/YOLOV 視頻物體檢測(VID)具有挑戰(zhàn)性,因為物體外觀的高度變化以及一些幀的不同惡化。有利的信息是,與靜止圖像相比在視頻的某一幀中檢測,可以從其他幀中獲得支持。因此,如

    2024年02月01日
    瀏覽(16)
  • 論文閱讀:CenterFormer: Center-based Transformer for 3D Object Detection

    論文閱讀:CenterFormer: Center-based Transformer for 3D Object Detection

    目錄 概要 Motivation 整體架構(gòu)流程 技術(shù)細節(jié) Multi-scale Center Proposal Network Multi-scale Center Transformer Decoder Multi-frame CenterFormer 小結(jié) 論文地址: [2209.05588] CenterFormer: Center-based Transformer for 3D Object Detection (arxiv.org) 代碼地址: GitHub - TuSimple/centerformer: Implementation for CenterFormer: Center-base

    2024年02月07日
    瀏覽(22)
  • 論文閱讀 (88):Adversarial Examples for Semantic Segmentation and Object Detection

    論文閱讀 (88):Adversarial Examples for Semantic Segmentation and Object Detection

    題目 :用于語義分割和目標(biāo)檢測的對抗樣本 核心點 :將對抗性樣本的概念擴展到語義分割和對象檢測,并提出 稠密對抗生成算法 (Dense adversary generation, DAG)。 引用 : 令 X mathbf{X} X 表示包含 N N N 個識別目標(biāo) T = { t 1 , t 2 , … , t N } mathcal{T}={t_1,t_2,dots,t_N} T = { t 1 ? , t 2 ?

    2024年02月01日
    瀏覽(21)
  • 【論文閱讀筆記】MobileSal: Extremely Efficient RGB-D Salient Object Detection

    【論文閱讀筆記】MobileSal: Extremely Efficient RGB-D Salient Object Detection

    MobileSal: Extremely Efficient RGB-D Salient Object Detection MobileSal:極其高效的RGB-D顯著對象檢測 2021年發(fā)表在 IEEE Transactions on Pattern Analysis and Machine Intelligence。 Paper Code 神經(jīng)網(wǎng)絡(luò)的高計算成本阻礙了RGB-D顯著對象檢測(SOD)的最新成功,使其無法用于現(xiàn)實世界的應(yīng)用。因此,本文介紹了

    2024年01月18日
    瀏覽(22)
  • 論文閱讀——Large Selective Kernel Network for Remote Sensing Object Detection

    論文閱讀——Large Selective Kernel Network for Remote Sensing Object Detection

    期刊 CVPR 年份 2023 論文地址 https://arxiv.org/pdf/2303.09030.pdf 代碼地址 https://github.com/zcablii/LSKNet 遙感目標(biāo)檢測的大選擇核網(wǎng)絡(luò) 相對較少的工作考慮到強大的先驗知識存在于遙感圖像。航空圖像通常是用高分辨率的鳥瞰圖拍攝的。特別是,航拍圖像中的大多數(shù)物體可能體積較小,

    2024年02月08日
    瀏覽(20)
  • Object Class Aware Video Anomaly Detection through Image Translation 論文閱讀

    Object Class Aware Video Anomaly Detection through Image Translation 論文閱讀

    文章信息: 原文鏈接:https://arxiv.org/abs/2205.01706 源代碼:無 發(fā)表于:CRV 2022 半監(jiān)督視頻異常檢測(VAD)方法將異常檢測任務(wù)表述為對學(xué)習(xí)到的正常模式的偏離進行檢測。 該領(lǐng)域中的先前工作(基于重建或預(yù)測的方法)存在兩個缺點 : 1)它們專注于低級特征,特別是整體方

    2024年01月23日
    瀏覽(18)
  • 論文閱讀<Contrastive Learning-based Robust Object Detection under Smoky Conditions>

    論文閱讀<Contrastive Learning-based Robust Object Detection under Smoky Conditions>

    論文鏈接:https://openaccess.thecvf.com/content/CVPR2022W/UG2/papers/Wu_Contrastive_Learning-Based_Robust_Object_Detection_Under_Smoky_Conditions_CVPRW_2022_paper.pdf ????????目標(biāo)檢測是指有效地找出圖像中感興趣的目標(biāo),然后準(zhǔn)確地確定它們的類別和位置。近年來,許多優(yōu)秀的方法被開發(fā)出來,以提供強

    2024年02月04日
    瀏覽(30)
  • 【論文閱讀】DQnet: Cross-Model Detail Querying for Camouflaged Object Detection

    【論文閱讀】DQnet: Cross-Model Detail Querying for Camouflaged Object Detection

    DQnet:偽裝目標(biāo)檢測中的跨模型細節(jié)查詢 論文地址:https://arxiv.org/abs/2212.08296 這篇文章提出了一個交叉模型框架(CNN-Transformer并行)來檢測偽裝目標(biāo) 出發(fā)點還是:CNN局部感知,感受野受限 ,Transformer全局信息豐富但細節(jié)信息不足。希望結(jié)合二者優(yōu)勢 這個思路目前做的挺多的

    2024年02月16日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包