国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀

這篇具有很好參考價(jià)值的文章主要介紹了Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation

摘要

域偏移是臨床應(yīng)用中的常見問題,其中訓(xùn)練圖像(源域)和測試圖像(目標(biāo)域)處于不同的分布下。已經(jīng)提出了無監(jiān)督域適應(yīng) (UDA) 技術(shù),以使在源域中訓(xùn)練的模型適應(yīng)目標(biāo)域。但是,這些方法需要來自目標(biāo)域的大量圖像進(jìn)行模型訓(xùn)練。
本文提出了一種新的少樣本無監(jiān)督域適應(yīng)(FSUDA)方法,其中只有有限數(shù)量的未標(biāo)記目標(biāo)域樣本可用于訓(xùn)練。
首先引入頻譜靈敏度圖來表征頻域中模型的泛化弱點(diǎn)。然后,我們開發(fā)了一種靈敏度引導(dǎo)的光譜對(duì)抗混搭(SAMix)方法來生成目標(biāo)風(fēng)格的圖像,以有效抑制模型的靈敏度,從而提高模型在目標(biāo)域中的泛化性。
代碼地址

方法

Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺

Domain-Distance-Modulated Spectral Sensitivity (DoDiSS)模塊

基于傅里葉的模型靈敏度測量獲得的光譜靈敏度圖可以有效地描述該模型的泛化性。然而,頻譜敏感度圖僅限于單域場景,無法整合目標(biāo)域信息來評(píng)估特定域偏移下的模型弱點(diǎn)
本文引入了 DoDiSS,通過結(jié)合域距離來擴(kuò)展之前的方法,以解決域適應(yīng)問題的 Spectral Adversarial MixUp。
圖 1 (a)首先計(jì)算域距離圖,用于識(shí)別每個(gè)頻率中源域和目標(biāo)域之間的幅度分布差異。隨后,該差分圖用于在計(jì)算DoDiSS圖時(shí)對(duì)幅度擾動(dòng)進(jìn)行加權(quán)。
域距離測量:首先使用各種幾何變換的隨機(jī)組合來增強(qiáng)來自目標(biāo)域的少量圖像,包括隨機(jī)裁剪、旋轉(zhuǎn)、翻轉(zhuǎn)和 JigSaw。這些轉(zhuǎn)換使圖像強(qiáng)度保持不變,從而保留目標(biāo)域樣式信息。然后將快速傅里葉變換(FFT)應(yīng)用于所有源圖像和增強(qiáng)目標(biāo)域圖像,以獲得其振幅譜圖

通過測量的域差異,可以計(jì)算模型的 DoDiSS 映射。如圖1(a)所示,傅里葉基被定義為一個(gè)厄米特矩陣Hi。傅里葉基像可以通過歸一化逆快速傅里葉變換 (IFFT) 得到,為了分析模型相對(duì)于頻率的泛化弱點(diǎn),通過添加傅里葉基噪聲到原始源域。
保證在實(shí)際域偏移后,圖像在所有頻率分量上受到擾動(dòng)。對(duì)于RGB圖像,獨(dú)立地添加到每個(gè)通道中。在源域上訓(xùn)練的模型 F 在頻率下的靈敏度定義為整個(gè)數(shù)據(jù)集的預(yù)測錯(cuò)誤率
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺

Sensitivity-Guided Spectral Adversarial Mixup (SAMix)模塊

SAMix 使用 DoDiSS 映射 MS 和對(duì)抗學(xué)習(xí)的參數(shù) λ作為加權(quán)因子,將每個(gè)源圖像的振幅頻譜與目標(biāo)圖像的頻譜混合在一起。DoDiSS 表示模型對(duì)域差異敏感的光譜區(qū)域。
通過保留源圖像的相位,SAMix在生成的目標(biāo)樣式中保留了原始源圖像的語義含義。具體而言,如圖1(b)所示,給定源圖像xs和目標(biāo)圖像xt,我們計(jì)算它們的振幅和相位譜。SAMix 通過以下方式混合振幅頻譜
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺

實(shí)驗(yàn)結(jié)果

Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀,# 無監(jiān)督,深度學(xué)習(xí),人工智能,論文閱讀,計(jì)算機(jī)視覺文章來源地址http://www.zghlxwxcb.cn/news/detail-860816.html

到了這里,關(guān)于Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation論文速讀的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • An Empirical Study of GPT-3 for Few-Shot Knowledge-Based VQA

    本文是LLM系列文章,針對(duì)《An Empirical Study of GPT-3 for Few-Shot Knowledge-Based VQA》的翻譯。 基于知識(shí)的視覺問答(VQA)涉及回答需要圖像中不存在的外部知識(shí)的問題。現(xiàn)有的方法首先從外部資源中檢索知識(shí),然后對(duì)所選知識(shí)、輸入圖像和問答預(yù)測進(jìn)行推理。然而,這種兩步走的方法

    2024年02月09日
    瀏覽(28)
  • few-shot基本概念

    few-shot基本概念

    Few-shot learning https://www.youtube.com/watch?v=UkQ2FVpDxHglist=PLvOO0btloRnuGl5OJM37a8c6auebn-rH2index=1t=3s 1.問題的引出 通過很少的樣本來進(jìn)行分類/回歸 給你四張圖像,人類大概可以知道,查詢圖像是什么。 同樣,機(jī)器也需要知道。 Support set:很少的數(shù)據(jù)集,例如每類圖像有2張。這么少的樣本

    2024年02月06日
    瀏覽(28)
  • few-shot / one shot / zero shot object counting論文匯總

    few-shot / one shot / zero shot object counting論文匯總

    code: https://paperswithcode.com/paper/class-agnostic-counting 摘要:幾乎所有現(xiàn)有的計(jì)數(shù)方法都是為一個(gè)特定的對(duì)象類而設(shè)計(jì)的。然而,我們的工作旨在創(chuàng)建一個(gè)能夠計(jì)數(shù)任何類對(duì)象的計(jì)數(shù)模型。為了實(shí)現(xiàn)這一目標(biāo),我們將計(jì)數(shù)表述為一個(gè)匹配問題,使我們能夠利用對(duì)象計(jì)數(shù)問題中自然存

    2024年02月09日
    瀏覽(22)
  • T5模型:打破Few-shot Learning的次元壁壘

    T5模型:打破Few-shot Learning的次元壁壘

    ??覺得內(nèi)容不錯(cuò)的話,歡迎點(diǎn)贊收藏加關(guān)注??????,后續(xù)會(huì)繼續(xù)輸入更多優(yōu)質(zhì)內(nèi)容?? ??有問題歡迎大家加關(guān)注私戳或者評(píng)論(包括但不限于NLP算法相關(guān),linux學(xué)習(xí)相關(guān),讀研讀博相關(guān)......)?? (封面圖由ERNIE-ViLG AI 作畫大模型生成) 自然語言處理(NLP)是一種用于理

    2024年03月17日
    瀏覽(29)
  • 【計(jì)算機(jī)視覺】Zero-shot, One-shot和Few-shot的理解

    【計(jì)算機(jī)視覺】Zero-shot, One-shot和Few-shot的理解

    機(jī)器學(xué)習(xí)任務(wù)按照對(duì) 樣本量 的需求可以分為:傳統(tǒng)監(jiān)督式學(xué)習(xí)、Few-shot Learning、One-shot Learning、Zero-shot Learning。 傳統(tǒng)learning,煉丹模式。傳統(tǒng)深度學(xué)習(xí)的學(xué)習(xí)速度慢,往往需要學(xué)習(xí)海量數(shù)據(jù)和反復(fù)訓(xùn)練后才能使網(wǎng)絡(luò)模型具備不錯(cuò)的泛化能力,傳統(tǒng)learning可以總結(jié)為:海量數(shù)據(jù)

    2024年02月04日
    瀏覽(40)
  • 【論文閱讀】 Few-shot object detection via Feature Reweighting

    【論文閱讀】 Few-shot object detection via Feature Reweighting

    Few-shot object detection的開山之作之一 ~~ 屬于Metric-based Methods 特征學(xué)習(xí)器使用來自具有足夠樣本的基本類的訓(xùn)練數(shù)據(jù)來 提取 可推廣以檢測新對(duì)象類的meta features。The reweighting module將新類別中的一些support examples轉(zhuǎn)換為全局向量,該全局向量indicates meta features對(duì)于檢測相應(yīng)物體的重

    2023年04月09日
    瀏覽(21)
  • 【論文閱讀】Language Models are Few-Shot Learners(GPT-3)

    【論文閱讀】Language Models are Few-Shot Learners(GPT-3)

    本文簡要介紹了GPT-3的背景,模型架構(gòu),訓(xùn)練數(shù)據(jù)以及訓(xùn)練方式部分。具體訓(xùn)練細(xì)節(jié),實(shí)驗(yàn)結(jié)果很多,可以在用到的時(shí)候再看 本文剖析了pretrain-finetune架構(gòu)存在的問題: 對(duì)于每個(gè)新的任務(wù),都需要大量的標(biāo)注數(shù)據(jù) 將表達(dá)能力更強(qiáng)的模型(預(yù)訓(xùn)練階段要求用大模型)在比較窄的

    2024年02月14日
    瀏覽(44)
  • 雜記 | Langchain中few-shot提示詞模板的使用(給提示詞添加示例)

    Langchain是一個(gè)集成多個(gè)大語言模型的開源框架,可以使用它來快速開發(fā)大語言模型應(yīng)用。 本文的代碼使用到的模塊: 先來看看普通的提示詞模板如何使用,效果如何: 在這個(gè)示例中,對(duì)大模型的輸入為: 大模型的輸出為: 可以看到輸出并不能很好地滿足我們的需求,因?yàn)?/p>

    2024年02月07日
    瀏覽(22)
  • (GPT3)Language Models are Few-Shot Learners論文閱讀

    (GPT3)Language Models are Few-Shot Learners論文閱讀

    論文地址:https://arxiv.org/pdf/2005.14165v4.pdf ????????最近的工作表明, 通過對(duì)大量文本語料庫進(jìn)行預(yù)訓(xùn)練,然后對(duì)特定任務(wù)進(jìn)行微調(diào),許多 NLP 任務(wù)和基準(zhǔn)測試取得了實(shí)質(zhì)性進(jìn)展 。 雖然在體系結(jié)構(gòu)中通常與任務(wù)無關(guān),但此方法仍然需要特定于任務(wù)的微調(diào)數(shù)據(jù)集,其中包含數(shù)

    2024年02月08日
    瀏覽(32)
  • 論文閱讀---Albert :Few-shot Learning with Retrieval Augmented Language Models

    論文閱讀---Albert :Few-shot Learning with Retrieval Augmented Language Models

    增強(qiáng)語言模型 Augmented Language Models https://arxiv.org/abs/2208.03299 提前知識(shí): BERT (Bidirectional Encoder Representations from Transformers)是一種預(yù)訓(xùn)練語言模型,它通過在大規(guī)模文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,學(xué)習(xí)文本的雙向表示,并在多種NLP任務(wù)中展現(xiàn)出卓越的性能。BERT的雙向性意味著它能夠

    2024年04月23日
    瀏覽(34)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包