国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀_條件控制_ControlNet

這篇具有很好參考價(jià)值的文章主要介紹了論文閱讀_條件控制_ControlNet。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

name_en: Adding Conditional Control to Text-to-Image Diffusion Models
name_ch: 向文本到圖像的擴(kuò)散模型添加條件控制
paper_addr: http://arxiv.org/abs/2302.05543
date_read: 2023-08-17
date_publish: 2023-02-10
tags: [‘圖形圖像’,‘大模型’,‘多模態(tài)’]
author: Lvmin Zhang
code: https://github.com/lllyasviel/ControlNet

讀后感

ControlNet 幾乎是 Stable Diffusion 中最重要的功能插件,利用它可對(duì)畫面內(nèi)容進(jìn)入精準(zhǔn)控制。本文介紹了 ControlNet 的原理和具體功能。

ControlNet 是一種對(duì)文本生成圖像的優(yōu)化方法。比如:生成 AI 畫作時(shí),畫面中人體的形態(tài),面部表情都難以精準(zhǔn)控制,ControlNet 基于圖生圖的操作方式,從另一圖中提取對(duì)應(yīng)元素,用于新圖像的生成,大幅提升了人對(duì)大模型的控制力。

具體方法是調(diào)整網(wǎng)絡(luò)結(jié)構(gòu),基于預(yù)訓(xùn)練的擴(kuò)散模型,根據(jù)新輸入的描述和指定任務(wù)對(duì)應(yīng)的條件進(jìn)一步訓(xùn)練模型。使模型既可以在小數(shù)據(jù)量(<50K)時(shí)在個(gè)人設(shè)備上訓(xùn)練,也可以在大數(shù)據(jù)量時(shí)在集群中訓(xùn)練。

其核心技術(shù)是在原大網(wǎng)絡(luò)參數(shù)不變的情況下,疊加一個(gè)小型網(wǎng)絡(luò),以實(shí)現(xiàn)最終的調(diào)參。

背景知識(shí)

對(duì)于文本生成圖片的大模型,往往需要考慮以下因素:

  • 數(shù)據(jù)問題:在訓(xùn)練數(shù)據(jù)量不夠大的情況下,解決過擬合/泛化問題。
  • 資源問題:解決訓(xùn)練時(shí)間和內(nèi)存問題,使模型在個(gè)人電腦上也能訓(xùn)練。
  • 形式問題:支持各種圖像處理問題具有不同形式的問題定義、用戶控件或圖像注釋。

方法

ControlNet是一種網(wǎng)絡(luò)結(jié)構(gòu)。如圖所示:

論文閱讀_條件控制_ControlNet,論文閱讀,論文閱讀

原始網(wǎng)絡(luò)結(jié)構(gòu)如圖 2-a 所示,輸入為x,輸出為y,theta為網(wǎng)絡(luò)參數(shù);
y = F ( x ; θ ) y=F(x;\theta) y=F(x;θ)
加入了ControlNet的網(wǎng)絡(luò)如圖 2-b 所示,它將大模型的權(quán)重復(fù)制為“可訓(xùn)練副本”和“鎖定副本”:鎖定副本用于保留原網(wǎng)絡(luò)能力,被鎖定不參與調(diào)參;可訓(xùn)練副本在特定任務(wù)的數(shù)據(jù)集上根據(jù)條件c進(jìn)行訓(xùn)練,以學(xué)習(xí)有條件控制;網(wǎng)絡(luò)輸出 y 為“可訓(xùn)練副本”和“鎖定副本”兩部分疊加的結(jié)果。

其中還加入了兩個(gè)"零卷積"層 zero convolution(公式中的 Z),它是1x1且初始值為0的卷積層。
y c = F ( x ; θ ) + Z ( F ( x + Z ( c ; θ z 1 ) ; θ c ) ; θ z 2 ) y_c = F(x;\theta)+Z(F(x + Z(c;\theta_{z1});\theta_c);\theta_{z2}) yc?=F(x;θ)+Z(F(x+Z(c;θz1?);θc?);θz2?)
可想見,開始調(diào)參時(shí),由于Z網(wǎng)絡(luò)初值是0,y值只有等式左邊部分,即保留了原始網(wǎng)絡(luò);后面逐步調(diào)參后,等式右邊部分開始變化。

將該結(jié)構(gòu)應(yīng)用到擴(kuò)散模型,如圖-3所示:

論文閱讀_條件控制_ControlNet,論文閱讀,論文閱讀
左側(cè)是基礎(chǔ)網(wǎng)絡(luò),權(quán)重被鎖定,右側(cè)為 ControlNet 部分,只對(duì)其 Encoder 部分進(jìn)行了調(diào)整,使模型訓(xùn)練僅需要增加約 23% 的 GPU 內(nèi)存和 34% 的時(shí)間;同時(shí)由于左側(cè)的原始網(wǎng)絡(luò)參數(shù)不變,又使用了零卷積的方法,有效避免了直接在網(wǎng)絡(luò)上調(diào)參帶偏網(wǎng)絡(luò)的問題,同時(shí)還可以使 ControlNet 的影響可調(diào)節(jié)。

其它

文章的 3.5 節(jié)及附錄部分列出了幾種常見的 ControlNet 控制方法,包含:控制人物表情和動(dòng)作,控制場景深度,控制畫面中的線條等,并展示了相應(yīng)的效果圖??梢曌鞴δ芙榻B和效果展示。

論文閱讀_條件控制_ControlNet,論文閱讀,論文閱讀文章來源地址http://www.zghlxwxcb.cn/news/detail-663321.html

到了這里,關(guān)于論文閱讀_條件控制_ControlNet的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【論文閱讀】基于隱蔽帶寬的汽車控制網(wǎng)絡(luò)魯棒認(rèn)證(一)

    【論文閱讀】基于隱蔽帶寬的汽車控制網(wǎng)絡(luò)魯棒認(rèn)證(一)

    汽車工業(yè)最近的進(jìn)步為汽車配備了復(fù)雜的娛樂和導(dǎo)航系統(tǒng),這些系統(tǒng)可以連接到互聯(lián)網(wǎng)等廣泛的網(wǎng)絡(luò)。隨著車載嵌入式設(shè)備的出現(xiàn),這些新奇的東西可以遠(yuǎn)程訪問,汽車內(nèi)部網(wǎng)絡(luò)也隨之暴露出來,并擴(kuò)展到它們連接的所有組件。 控制器區(qū)域網(wǎng)絡(luò)(CAN)廣泛用于控制車輛邊界內(nèi)的

    2024年02月04日
    瀏覽(22)
  • AIGC之條件可控生成:ControlNet, Composer

    題目: 機(jī)構(gòu): 論文: 代碼: 任務(wù): 特點(diǎn): 方法: 前置相關(guān)工作: 同期相似性工作: 1.1. 摘要

    2024年02月14日
    瀏覽(22)
  • 小樣本目標(biāo)檢測綜述__劉浩宇(導(dǎo)航與控制2021)論文閱讀

    小樣本目標(biāo)檢測綜述__劉浩宇(導(dǎo)航與控制2021)論文閱讀

    早期采用了大量標(biāo)注樣本回歸候選框的位置,但后來 目標(biāo)集和訓(xùn)練集數(shù)據(jù)分布不同導(dǎo)致檢測效果下降 。 對(duì)于沒有大量樣本支持的小樣本檢測應(yīng)用就需要使用 先驗(yàn)知識(shí) 來彌補(bǔ)樣本的不足。 可以分為三類: 數(shù)據(jù)域 通過先驗(yàn)知識(shí)來做數(shù)據(jù)增強(qiáng),以彌補(bǔ)樣本不足的問題,解決模

    2024年02月12日
    瀏覽(22)
  • AIGC系列之:ControlNet原理及論文解讀

    AIGC系列之:ControlNet原理及論文解讀

    《Adding Conditional Control to Text-to-Image Diffusion Models》 目錄 1.背景介紹 2.原理詳解 2.1 Controlnet 2.2 用于Stable Diffusion的ControlNet 2.3 訓(xùn)練 2.4 推理 3.實(shí)驗(yàn)結(jié)果 3.1 定性結(jié)果 3.2 消融實(shí)驗(yàn) 3.3 和之前結(jié)果比較? 3.4 數(shù)據(jù)集大小的影響 4.結(jié)論 ????????Stable Diffusion大模型的開源,使得AI繪畫

    2024年01月22日
    瀏覽(24)
  • 【深度學(xué)習(xí)】AIGC ,ControlNet 論文,原理,訓(xùn)練,部署,實(shí)戰(zhàn),教程(三)

    【深度學(xué)習(xí)】AIGC ,ControlNet 論文,原理,訓(xùn)練,部署,實(shí)戰(zhàn),教程(三)

    第一篇:https://qq742971636.blog.csdn.net/article/details/131531168 目前 ControlNet 1.1 還在建設(shè),本文這里使用源碼 https://github.com/lllyasviel/ControlNet/tree/main。 此外還需要下載模型文件:https://huggingface.co/lllyasviel/ControlNet 發(fā)布在huggingface了,如何下載huggingface的模型文件,使用指令: 詳細(xì)lo

    2024年02月12日
    瀏覽(44)
  • 【深度學(xué)習(xí)】AIGC ,ControlNet 論文,原理,訓(xùn)練,部署,實(shí)戰(zhàn),教程(一)

    【深度學(xué)習(xí)】AIGC ,ControlNet 論文,原理,訓(xùn)練,部署,實(shí)戰(zhàn),教程(一)

    論文:https://arxiv.53yu.com/pdf/2302.05543 代碼:https://github.com/lllyasviel/ControlNet 得分幾個(gè)博客完成這個(gè)事情的記錄了,此篇是第一篇,摘錄了一些論文內(nèi)容。ControlNet 的原理極為樸實(shí)無華(對(duì)每個(gè)block添加zero conv連接),但卻非常有效地減少了訓(xùn)練資源和訓(xùn)練時(shí)間,針對(duì)不同領(lǐng)域任

    2024年02月15日
    瀏覽(25)
  • Stable Diffusion基礎(chǔ):ControlNet之人體姿勢控制

    Stable Diffusion基礎(chǔ):ControlNet之人體姿勢控制

    在AI繪畫中精確控制圖片是一件比較困難的事情,不過隨著 ControlNet 的誕生,這一問題得到了很大的緩解。 今天我就給大家分享一個(gè)使用Stable Diffusion WebUI + OpenPose ControlNet 復(fù)制照片人物姿勢的方法,效果可以參考上圖。 OpenPose 可以控制人體的姿態(tài)、面部的表情,有時(shí)候還能夠

    2024年02月13日
    瀏覽(20)
  • 多重controlnet控制(使用huggingface提供的API)

    huggingface相關(guān)diffusers等庫的下載暫不提供,可以輕易找到。 直接放代碼。 以上設(shè)置都下載了相關(guān)權(quán)重文件,所以可以本地使用。在openpose處理部分需要修改源碼才能實(shí)現(xiàn)本地部署,不然的話會(huì)連接huggingface官方,離線就不能運(yùn)行了。相關(guān)操作如下: 首先進(jìn)入 from_pretrained的源碼

    2024年02月12日
    瀏覽(20)
  • AIGC文生圖:使用ControlNet 控制 Stable Diffusion

    AIGC文生圖:使用ControlNet 控制 Stable Diffusion

    ControlNet是斯坦福大學(xué)研究人員開發(fā)的Stable Diffusion的擴(kuò)展,使創(chuàng)作者能夠輕松地控制AI圖像和視頻中的對(duì)象。它將根據(jù)邊緣檢測、草圖處理或人體姿勢等各種條件來控制圖像生成。 論壇地址:Adding Conditional Control to Text-to-Image Diffusion Models ControlNet是一種通過添加額外條件來控制

    2024年02月16日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包