国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一

這篇具有很好參考價值的文章主要介紹了基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

題目簡介

筆者個人的畢業(yè)設(shè)計課題如下:

簡介:使用預(yù)訓(xùn)練的Diffusion Model圖像生成模型生成圖像,將這些生成的圖像作為擴(kuò)充訓(xùn)練集加入到2D目標(biāo)檢測器、2D圖像分類器的訓(xùn)練過程。深度學(xué)習(xí)是數(shù)據(jù)驅(qū)動的,隨著數(shù)據(jù)量的擴(kuò)充,能夠提高檢測器、分類器的魯棒性、準(zhǔn)確性。
建議的baseline:
分類:ResNet
檢測:YOLO

可以看到,給的題目難度還是比較輕松的;本次畢設(shè)的全過程會以周為單位采用博客的形式記錄下來。

什么是數(shù)據(jù)增強(qiáng)

對機(jī)器學(xué)習(xí)尤其是深度學(xué)習(xí)有一定了解的朋友都會聽過類似的說法【DL的首要驅(qū)動力是數(shù)據(jù)】。

也即不管是CV還是NLP,所有的深度學(xué)習(xí)方法都因其原理從而對數(shù)據(jù)有著強(qiáng)依賴性,按照筆者個人跑過的模型來看,數(shù)據(jù)本身的多少和好壞很多時候基本直接決定結(jié)果的好壞;在模型上提出方法和改進(jìn)固然重要,但是大數(shù)據(jù)訓(xùn)練權(quán)值的神經(jīng)網(wǎng)絡(luò)思想決定了深度學(xué)習(xí)的模型一定對數(shù)據(jù)本身保有高要求。

此時另一個問題就會應(yīng)運(yùn)而生,假如在我們某項實際運(yùn)用的項目中,我們并沒有足夠的數(shù)據(jù)量支撐模型的訓(xùn)練該怎么辦?實際上,對于數(shù)據(jù)量來說,永遠(yuǎn)是不夠的;所謂多多益善在這里是再合適不過的形容。

那么我們需要某種方法擴(kuò)充數(shù)據(jù)量,但是對于深度學(xué)習(xí)來說,與其大費(fèi)周章的尋找新的數(shù)據(jù),不如充分利用已有的數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)。以圖片為例,由于數(shù)據(jù)化,對于算法來說,以下兩張圖片實際上是截然不同的樣本。
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
所以這里可以就可以理解什么是數(shù)據(jù)增強(qiáng),為什么需要數(shù)據(jù)增強(qiáng)。

數(shù)據(jù)增強(qiáng)有一些簡單常用的方法,礙于篇幅不在這里展開解釋

  • 翻轉(zhuǎn)
  • 旋轉(zhuǎn)
  • 位移
  • 裁剪
  • 縮放
  • 變形
  • 噪聲
  • 模糊
  • 擦除
  • 填充

這里補(bǔ)充一點,在21-22年間各大頂刊熱門的GAN對抗網(wǎng)絡(luò)在數(shù)據(jù)增強(qiáng)上也有廣泛應(yīng)用

數(shù)據(jù)增強(qiáng)的主要效果有如下三點

  • 避免過擬合
  • 提升模型魯棒性,降低模型對圖像的敏感度
  • 增加訓(xùn)練數(shù)據(jù),提高模型泛化能力

在有些時候,數(shù)據(jù)增強(qiáng)同樣可以被稱作“上采樣”,這時的上采樣指的是針對數(shù)據(jù)集整體而言。

什么是Diffusion Model

Diffusion model是Encoder-Decoder架構(gòu)的生成模型,分為擴(kuò)散階段和逆擴(kuò)散階段。 在擴(kuò)散階段,通過不斷對原始數(shù)據(jù)添加噪聲,使數(shù)據(jù)從原始分布變?yōu)槲覀兤谕姆植?,例如通過不斷添加高斯噪聲將原始數(shù)據(jù)分布變?yōu)檎龖B(tài)分布。 在逆擴(kuò)散階段,使用神經(jīng)網(wǎng)絡(luò)將數(shù)據(jù)從正態(tài)分布恢復(fù)到原始數(shù)據(jù)分布。 它的優(yōu)點是正態(tài)分布上的每個點都是真實數(shù)據(jù)的映射,模型具有更好的可解釋性。 缺點是迭代采樣速度慢,導(dǎo)致模型訓(xùn)練和預(yù)測效率低。
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
上面展示的就是Diffusion Model的一些應(yīng)用方面。事實上,從15年提出到現(xiàn)在,Diffusion Model的進(jìn)展已經(jīng)又不少了,那么如何將其應(yīng)用在數(shù)據(jù)增強(qiáng)上呢?

讓我們回到Diffusion Model本身來,Diffusion Model (擴(kuò)散模型) 是一類生成模型, 和 VAE (Variational Autoencoder, 變分自動編碼器), GAN (Generative Adversarial Network, 生成對抗網(wǎng)絡(luò)) 等生成網(wǎng)絡(luò)不同的是, 擴(kuò)散模型在前向階段對圖像逐步施加噪聲, 直至圖像被破壞變成完全的高斯噪聲, 然后在逆向階段學(xué)習(xí)從高斯噪聲還原為原始圖像的過程。

具體來說, 前向階段在原始圖像 x0上逐步增加噪聲, 每一步得到的圖像 xt只和上一步的結(jié)果 xt-1相關(guān), 直至第t步的圖像xt變?yōu)榧兏咚乖肼? 前向階段圖示如下:
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一

而逆向階段則是不斷去除噪聲的過程, 首先給定高斯噪聲xt通過逐步去噪, 直至最終將原圖像x0給恢復(fù)出來, 逆向階段圖示如下:
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
模型訓(xùn)練完成后, 只要給定高斯隨機(jī)噪聲, 就可以生成一張從未見過的圖像?;诖危覀兛梢杂肈iffusion Model的方法進(jìn)行數(shù)據(jù)增強(qiáng)。

這部分的數(shù)學(xué)推導(dǎo)比較繁雜,筆者因為個人原因暫時沒有辦法在這里展開推到,后續(xù)會進(jìn)行相關(guān)內(nèi)容的補(bǔ)全,這里推薦一篇同站博客,在筆者閱讀論文時該篇論文清晰的論述給與了本人極大的幫助。

https://blog.csdn.net/sunningzhzh/article/details/125118688

簡單談?wù)剏olo和ResNet

題目的要求中有提到可以分別使用擴(kuò)散模型對圖像的分類和檢測任務(wù)各自進(jìn)行數(shù)據(jù)增強(qiáng)來進(jìn)行效果的對比。

而這兩者都是老熟人了,本篇博客就不花大篇幅進(jìn)行從頭到尾的介紹。

yolo

首先是yolo,yolo是圖像的目標(biāo)檢測算法模型,目標(biāo)檢測,也叫目標(biāo)提取,是一種基于目標(biāo)幾何和統(tǒng)計特征的圖像分割。它將目標(biāo)的分割和識別合二為一,其準(zhǔn)確性和實時性是整個系統(tǒng)的一項重要能力。目標(biāo)檢測不僅要用算法判斷圖片中物品的分類, 還要在圖片中標(biāo)記出它的位置, 用邊框或紅色方框把物品圈起來, 這就是目標(biāo)檢測問題,如下圖所示
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
yolo則是目標(biāo)檢測中singlestage類型的泰山北斗,從v1問世后經(jīng)過版本的迭代改進(jìn),在算法的運(yùn)行速度上已經(jīng)是二維目標(biāo)檢測中最快的一批了;也正是印證了它的名稱那樣,你只需要看一眼;充分發(fā)揮了單階段算法丟棄精修階段而輕便的優(yōu)勢,而現(xiàn)版本的yolo本身也具有極好的工業(yè)集成性;本身已經(jīng)具備了大量的完善方法。
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
上圖展示的是經(jīng)典的v1結(jié)構(gòu)
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
上圖展示的是較新的v5版本s形的網(wǎng)絡(luò)結(jié)構(gòu)。

ResNet

接著是更入門的ResNet,先來簡單聊聊什么是圖像分類,最簡單的CV任務(wù)之一。圖像分類是計算機(jī)視覺中最基礎(chǔ)的一個任務(wù),也是幾乎所有的基準(zhǔn)模型進(jìn)行比較的任務(wù)。圖像分類顧名思義就是一個模式分類問題,它的目標(biāo)是將不同的圖像,劃分到不同的類別,實現(xiàn)最小的分類誤差。總體來說,對于單標(biāo)簽的圖像分類問題,它可以分為跨物種語義級別的圖像分類,子類細(xì)粒度圖像分類,以及實例級圖像分類三大類別,下圖就是一個簡單的圖像分類示例。
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
ResNet 網(wǎng)絡(luò)則是在 2015年 由微軟實驗室中的何凱明等人提出,獲當(dāng)年ImageNet競賽中分類任務(wù)第一名,目標(biāo)檢測第一名。獲得COCO數(shù)據(jù)集中目標(biāo)檢測第一名,圖像分割第一名,也是圖像分類任務(wù)的集大成者,從今天去看,也是某種程度上給圖像分類這個任務(wù)畫上了一個漂亮的終止符的模型。其精髓在于在當(dāng)時看來極深的網(wǎng)絡(luò)結(jié)構(gòu),殘差的應(yīng)用以解決梯度爆炸和dropout加速訓(xùn)練。
基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一
經(jīng)典的resnet網(wǎng)絡(luò)結(jié)構(gòu),相信也是很多人接觸CV時第一個學(xué)習(xí)的完整網(wǎng)絡(luò)結(jié)構(gòu)。

總結(jié)兼拆解

在上面簡要的介紹后,本次畢設(shè)的理論部分所需要具備的東西就已經(jīng)搭建完畢了;我們需要做的其實是很簡單的實驗對比,先跑通訓(xùn)練完Diffusion Model的模型,并在resnet和yolo中分別接上數(shù)據(jù)集讀取部分的接口,各兩次訓(xùn)練以上對比生成模型的精度,即可驗證本次畢設(shè)的題意。文章來源地址http://www.zghlxwxcb.cn/news/detail-466540.html

到了這里,關(guān)于基于Diffusion Model的數(shù)據(jù)增強(qiáng)方法應(yīng)用——畢業(yè)設(shè)計 其一的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 基于雙分支殘差結(jié)構(gòu)的低光照圖像增強(qiáng)研究與應(yīng)用實現(xiàn)

    基于雙分支殘差結(jié)構(gòu)的低光照圖像增強(qiáng)研究與應(yīng)用實現(xiàn)

    ?????????在低光條件下拍攝的照片會因曝光不足而產(chǎn)生一系列的視覺問題,如亮度低、信息丟失、噪聲和顏色失真等。為了解決上述問題,提出一個結(jié)合注意力的雙分支殘差低光照圖像增強(qiáng)網(wǎng)絡(luò)。首先,采用改進(jìn)InceptionV2提取淺層特征;其次,使用殘差特征提取塊(RFB)

    2024年02月07日
    瀏覽(23)
  • 【讀點論文】A Survey on Generative Diffusion Model,AIGC時代的新寵兒,從原理推導(dǎo)到工程應(yīng)用,在視覺,自然語言,語音等領(lǐng)域大展拳腳

    【讀點論文】A Survey on Generative Diffusion Model,AIGC時代的新寵兒,從原理推導(dǎo)到工程應(yīng)用,在視覺,自然語言,語音等領(lǐng)域大展拳腳

    由于深度潛在表示,深度學(xué)習(xí)在生成任務(wù)中顯示出良好的潛力。 生成模型是一類可以根據(jù)某些隱含參數(shù)隨機(jī)生成觀測值的模型 。近年來,擴(kuò)散模型以其強(qiáng)大的生成能力成為生成模型的一個新興類別。如今,已經(jīng)取得了巨大的成就。除了計算機(jī)視覺、語音生成、生物信息學(xué)和

    2024年02月09日
    瀏覽(36)
  • 吳恩達(dá)gradio課程:基于開源LLM(large language model)的聊天應(yīng)用

    內(nèi)容簡介 Falcon 40B 是當(dāng)前最好的開源語言模型之一。 使用 text-generation 庫調(diào)用 Falcon 40B 的問答 API 接口。 首先僅僅在代碼中與模型聊天,后續(xù)通過Gradio構(gòu)建聊天界面。 Gradio 聊天界面可以保存對話歷史上下文。 在聊天過程中,需要將之前對話記錄與新消息一起發(fā)送給模型,才能進(jìn)

    2024年02月09日
    瀏覽(60)
  • 用大模型增強(qiáng)數(shù)據(jù)分析應(yīng)用

    大模型出道即巔峰,它廣受歡迎并在很多領(lǐng)域中成為有力的工具,當(dāng)然包括數(shù)據(jù)分析領(lǐng)域。你可能不確定如何把大模型整合到你的工作中,如幫助你用數(shù)據(jù)驅(qū)動決策。本文介紹一些思路帶你在不同應(yīng)用場景下使用數(shù)據(jù)分析提示詞。當(dāng)然不僅局限與ChatGPT,其他國內(nèi)大模型也一樣

    2024年01月25日
    瀏覽(25)
  • 基于卷積神經(jīng)網(wǎng)絡(luò)的立體視頻編碼質(zhì)量增強(qiáng)方法_余偉杰

    基于卷積神經(jīng)網(wǎng)絡(luò)的立體視頻編碼質(zhì)量增強(qiáng)方法_余偉杰

    提出的網(wǎng)絡(luò)包含兩個模塊:特征提取模塊和重建模塊。 為了從低質(zhì)量合成視點中提取局部和全局信息,特征提取模塊中提出了兩條信息流,分別為 局部信息提取流和全局信息提取流 。 隨著網(wǎng)絡(luò)層數(shù)的增長,提取的特征在傳輸?shù)倪^程中可能消失,這會降低網(wǎng)絡(luò)模型的表達(dá)能力

    2024年02月01日
    瀏覽(13)
  • YOLOv5數(shù)據(jù)增強(qiáng)方法

    YOLOv5的數(shù)據(jù)增強(qiáng)方法包括以下幾種: 隨機(jī)剪裁:隨機(jī)從輸入圖像中剪裁出一塊區(qū)域并將其作為新的輸入。 隨機(jī)翻轉(zhuǎn):隨機(jī)將輸入圖像左右或上下翻轉(zhuǎn)。 隨機(jī)顏色變化:隨機(jī)調(diào)整輸入圖像的對比度、亮度和飽和度。 隨機(jī)加噪:在輸入圖像上隨機(jī)添加噪聲。 隨機(jī)模糊:使用高

    2024年02月11日
    瀏覽(19)
  • PointNet++詳解(一):數(shù)據(jù)增強(qiáng)方法

    如有錯誤,懇請指出。 下面是pointnet++項目實現(xiàn)的點云數(shù)據(jù)增強(qiáng)方法,主要包括隨機(jī)旋轉(zhuǎn)、隨機(jī)縮放、隨機(jī)丟棄、隨機(jī)平移、隨機(jī)擾動等等。 github項目鏈接:https://github.com/yanx27/Pointnet_Pointnet2_pytorch 這里貼上的是沿3個軸隨機(jī)旋轉(zhuǎn) ps:在PointNet++分組采樣k個鄰域點時,如果符合

    2024年02月04日
    瀏覽(18)
  • 【論文閱讀筆記】序列數(shù)據(jù)的數(shù)據(jù)增強(qiáng)方法綜述

    【論文閱讀筆記】序列數(shù)據(jù)的數(shù)據(jù)增強(qiáng)方法綜述

    ?這篇論文探討了在深度學(xué)習(xí)模型中由于對精度的要求不斷提高導(dǎo)致模型框架結(jié)構(gòu)變得更加復(fù)雜和深層的趨勢。隨著模型參數(shù)量的增加,訓(xùn)練模型需要更多的數(shù)據(jù),但人工標(biāo)注數(shù)據(jù)的成本高昂,且由于客觀原因,獲取特定領(lǐng)域的數(shù)據(jù)可能變得困難。為了緩解數(shù)據(jù)不足的問題,

    2024年02月05日
    瀏覽(20)
  • diffusion model(五)stable diffusion底層原理(latent diffusion model, LDM)

    diffusion model(五)stable diffusion底層原理(latent diffusion model, LDM)

    [論文地址] High-Resolution Image Synthesis with Latent Diffusion Models [github] https://github.com/compvis/latent-diffusion diffusion model(一)DDPM技術(shù)小結(jié) (denoising diffusion probabilistic) diffusion model(二)—— DDIM技術(shù)小結(jié) diffusion model(三)—— classifier guided diffusion model diffusion model(四)文生圖diffusio

    2024年02月15日
    瀏覽(49)
  • 畢業(yè)設(shè)計--智能環(huán)境監(jiān)測系統(tǒng)基于harmonyOS的移動端應(yīng)用開發(fā)

    畢業(yè)設(shè)計--智能環(huán)境監(jiān)測系統(tǒng)基于harmonyOS的移動端應(yīng)用開發(fā)

    目錄 第一章 緒論 1.1?引言 1.2 智能環(huán)境監(jiān)測APP概述 1.3 課題設(shè)計思路 第二章 項目開發(fā)環(huán)境 2.1 鴻蒙介紹 2.1.1 鴻蒙的發(fā)展史 2.1.2 鴻蒙應(yīng)用開發(fā)的意義 2.1.3 HUAWEI DevEco Studio 介紹 2.1.4?HUAWEI DevEco Studio 環(huán)境安裝 2.1.5 HarmonyOS系統(tǒng)技術(shù)架構(gòu) 2.1.6 HUAWEI dececo studio 使用 2.1.7 Harmony編程語言

    2024年02月15日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包