国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[AI繪畫] 即插即用!SDXL+T2I-Adapters 高效可控的生成圖片

這篇具有很好參考價值的文章主要介紹了[AI繪畫] 即插即用!SDXL+T2I-Adapters 高效可控的生成圖片。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

標題:T2I-Adapter: Learning Adapters to Dig out More Controllable Ability for Text-to-Image Diffusion Models

論文:https://arxiv.org/pdf/2302.08453.pdf

博客:https://huggingface.co/blog/t2i-sdxl-adapters

代碼:https://github.com/TencentARC/T2I-Adapter

使用地址:https://huggingface.co/spaces/TencentARC/T2I-Adapter-SDXL


大家好,AI 繪畫太火了,現在boss直聘上一大堆崗位都是,游戲公司,設計公司等等都在瘋狂招,都是潛在機會?。?!

由于文本輸入對AI生成的圖片控制不夠精細,而 ControlNet 的出現,很好的解決了這個問題,也有了更多想象的空間,我們使用線稿、邊緣、深度圖、姿態(tài)、人臉關鍵點等等來控制生成的結果,但是 ControlNet 的計算成本很高,因為,ControlNet 在反向擴散過程的每個去噪步驟中,都需要運行 ControlNet 和 UNet。另外,ControlNet強調復制UNet編碼器作為控制模型的重要性,導致參數數量更大。因此,生成受到 ControlNet 大小的瓶頸(越大,過程變得越慢)。

https://github.com/lllyasviel/ControlNet

因此,今天要分析的一個工作,T2I-Adapter 是一種高效的即插即用模型,它為預訓練的文本到圖像模型提供額外的指導,同時凍結原始的大型文本到圖像模型。T2I-Adapter 將 T2I 模型中的內部知識與外部控制信號結合起來。我們可以根據不同的情況訓練各種適配器,實現豐富的控制和編輯效果。T2I-Adapter 的尺寸較小,并且與 ControlNet 不同,T2I-Adapter 在整個去噪過程中僅運行一次。

sdxl-vae-fp16-fix,AI作畫

在過去的幾周里,Diffusers 團隊和 T2I-Adapter 作者一直在合作,為 diffusers 中的 Stable Diffusion XL (SDXL) 提供 T2I-Adapters 支持。本文,將分享從頭開始在 SDXL 上訓練 T2I-Adapters 的結果,當然還有各種控制條件(草圖、canny、藝術線條、深度和 openpose)上的 T2I-Adapter checkpoints!

sdxl-vae-fp16-fix,AI作畫

與之前版本的T2I-Adapter(SD-1.4/1.5)相比,T2I-Adapter-SDXL仍然采用原來的設置,用79M Adapter驅動2.6B SDXL!T2I-Adapter-SDXL在繼承一代SDXL高品質的同時,保持了強大的控制能力!

使用 diffusers 訓練 T2I-Adapter-SDXL

我們根據 diffusers 提供的官方示例構建了訓練腳本。

https://github.com/huggingface/diffusers/blob/main/examples/t2i_adapter/README_sdxl.md

文中提到的大多數 T2I-Adapter 模型都是在 LAION-Aesthetics V2 的 3M 高分辨率圖像文本對上進行訓練的,設置如下:

  • Training steps: 20000-35000

  • Batch size: Data parallel with a single GPU batch size of 16 for a total batch size of 128.

  • Learning rate: Constant learning rate of 1e-5.

  • Mixed precision: fp16

建議使用項目中的腳本來訓練自定義且功能強大的T2I-Adapters,在速度、內存和質量之間實現競爭性權衡。

在 diffusers 中使用 T2I-Adapter-SDXL

以線稿條件為例來演示T2I-Adapter-SDXL的使用。首先,首先安裝所需的依賴項:

項目地址:https://github.com/TencentARC/T2I-Adapter

pip install -U git+https://github.com/huggingface/diffusers.git
pip install -U controlnet_aux==0.0.7 # for conditioning models and detectors
pip install transformers accelerate

T2I-Adapter-SDXL的生成過程主要包括以下兩個步驟:

  1. Condition images 準備成合適的 control image 格式(例如輸入的圖片要先轉為合適的線稿圖片表示)

  2. 控制圖像(線稿)和提示(prompt)被傳遞到 StableDiffusionXLAdapterPipeline

使用藝術線條Adapter的簡單示例。首先初始化 SDXL 的 T2I-Adapter 管道和線稿檢測器。

import torch
from controlnet_aux.lineart import LineartDetector
from diffusers import (AutoencoderKL, EulerAncestralDiscreteScheduler,
                       StableDiffusionXLAdapterPipeline, T2IAdapter)
from diffusers.utils import load_image, make_image_grid


# load adapter
adapter = T2IAdapter.from_pretrained(
    "TencentARC/t2i-adapter-lineart-sdxl-1.0", torch_dtype=torch.float16, varient="fp16"
).to("cuda")


# load pipeline
model_id = "stabilityai/stable-diffusion-xl-base-1.0"
euler_a = EulerAncestralDiscreteScheduler.from_pretrained(
    model_id, subfolder="scheduler"
)
vae = AutoencoderKL.from_pretrained(
    "madebyollin/sdxl-vae-fp16-fix", torch_dtype=torch.float16
)
pipe = StableDiffusionXLAdapterPipeline.from_pretrained(
    model_id,
    vae=vae,
    adapter=adapter,
    scheduler=euler_a,
    torch_dtype=torch.float16,
    variant="fp16",
).to("cuda")


# load lineart detector
line_detector = LineartDetector.from_pretrained("lllyasviel/Annotators").to("cuda")

然后,加載圖像來檢測線稿:

url = "https://huggingface.co/Adapter/t2iadapter/resolve/main/figs_SDXLV1.0/org_lin.jpg"
image = load_image(url)
image = line_detector(image, detect_resolution=384, image_resolution=1024)

sdxl-vae-fp16-fix,AI作畫

然后生成:

prompt = "Ice dragon roar, 4k photo"
negative_prompt = "anime, cartoon, graphic, text, painting, crayon, graphite, abstract, glitch, deformed, mutated, ugly, disfigured"
gen_images = pipe(
    prompt=prompt,
    negative_prompt=negative_prompt,
    image=image,
    num_inference_steps=30,
    adapter_conditioning_scale=0.8,
    guidance_scale=7.5,
).images[0]
gen_images.save("out_lin.png")

sdxl-vae-fp16-fix,AI作畫

有兩個重要的參數需要理解,可以幫助控制調節(jié)量。

  1. adapter_conditioning_scale - 適配器調節(jié)規(guī)模

該參數控制調節(jié)對輸入的影響程度。高值意味著更高的控制效果,反之亦然。

  1. adapter_conditioning_factor - 適配器調節(jié)因子

該參數控制應用條件的初始生成步驟數。該值應設置在 0-1 之間(默認值為 1)。adapter_conditioning_factor=1 的值表示適配器應應用于所有時間步,而adapter_conditioning_factor=0.5 表示它將僅應用于前 50% 的步。

更多詳情查看官方文檔。https://huggingface.co/docs/diffusers/main/en/api/pipelines/stable_diffusion/adapter文章來源地址http://www.zghlxwxcb.cn/news/detail-764979.html

到了這里,關于[AI繪畫] 即插即用!SDXL+T2I-Adapters 高效可控的生成圖片的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 改進YOLOv7系列:結合最新即插即用的動態(tài)卷積ODConv,有效漲點

    ??該教程包含大量的原創(chuàng)首發(fā)改進方式, 所有文章都是原創(chuàng)首發(fā)改進內容?? 降低改進難度,改進點包含最新最全的Backbone部分、Neck部分、Head部分、注意力機制部分、自注意力機制部分等完整教程?? ??本篇文章為 基于 YOLOv7、YOLOv7-Tiny 、YOLOv5、YOLOv6、YOLOX、YOLOv4 結合 即插即用

    2024年02月07日
    瀏覽(26)
  • 基于YoloV5的CFPNet---ECVBlock的小目標檢測,即插即用,助力檢測漲點

    基于YoloV5的CFPNet---ECVBlock的小目標檢測,即插即用,助力檢測漲點

    論文地址:?https://arxiv.org/abs/2210.02093 CFPNet即插即用,助力檢測漲點,YOLOX/YOLOv5/YOLOV7均有效 如圖2所示,CFP主要由以下部分組成:輸入圖像、用于提取視覺特征金字塔的CNN主干、提出的顯式視覺中心(EV

    2023年04月20日
    瀏覽(54)
  • 即插即用篇 | YOLOv8 Gradio 前端展示頁面 | 支持 【分類】【檢測】【分割】【關鍵點】 任務

    即插即用篇 | YOLOv8 Gradio 前端展示頁面 | 支持 【分類】【檢測】【分割】【關鍵點】 任務

    Gradio 是一個開源庫,旨在為機器學習模型提供快速且易于使用的網頁界面。它允許開發(fā)者和研究人員輕松地為他們的模型創(chuàng)建交互式的演示,使得無論技術背景如何的人都可以方便地試用和理解這些模型。使用Gradio,你只需幾行代碼就可以生成一個網頁應用程序,該應用程序

    2024年02月02日
    瀏覽(26)
  • YOLOV5改進:頂刊TIP 2023 | CFP:即插即用的多尺度融合模塊,有效漲點!

    YOLOV5改進:頂刊TIP 2023 | CFP:即插即用的多尺度融合模塊,有效漲點!

    特征金字塔網絡現代識別系統(tǒng)中的一種基礎網絡結構,可有效地用于檢測不同尺度的物體。 SSD ?是最早使用特征金字塔結構表示多尺度特征信息的方法之一, FPN ?則依賴于自下而上的特征金字塔結構,通過建立自上而下的路徑和橫向連接從多尺度高級語義特征圖中獲取特征

    2024年02月12日
    瀏覽(25)
  • CVPR 2023 點云系列 | Point-NN無需訓練的非參數、即插即用網絡

    CVPR 2023 點云系列 | Point-NN無需訓練的非參數、即插即用網絡

    CV - 計算機視覺 | ML - 機器學習 | RL - 強化學習 | NLP 自然語言處理 我們提出了一種用于 3D 點云分析的非參數網絡 Point-NN,它由純不可學習的組件組成:最遠點采樣 (FPS)、k 最近鄰 (k-NN) 和池化操作,具有三角函數.令人驚訝的是,它在各種 3D 任務上表現良好,不需要參數或訓練

    2023年04月23日
    瀏覽(24)
  • YOLOV8改進:頂刊TIP 2023 | CFP:即插即用的多尺度融合模塊,有效漲點!

    YOLOV8改進:頂刊TIP 2023 | CFP:即插即用的多尺度融合模塊,有效漲點!

    ? 特征金字塔網絡現代識別系統(tǒng)中的一種基礎網絡結構,可有效地用于檢測不同尺度的物體。 SSD ?是最早使用特征金字塔結構表示多尺度特征信息的方法之一, FPN ?則依賴于自下而上的特征金字塔結構,通過建立自上而下的路徑和橫向連接從多尺度高級語義特征圖中獲取特

    2024年02月09日
    瀏覽(83)
  • Pointnet++改進注意力機制系列:全網首發(fā)ShuffleAttention注意力機制 |即插即用,實現有效漲點

    簡介: 1.該教程提供大量的首發(fā)改進的方式,降低上手難度,多種結構改進,助力尋找創(chuàng)新點! 2.本篇文章對Pointnet++特征提取模塊進行改進,加入 ShuffleAttention 注意力機制,提升性能。 3.專欄持續(xù)更新,緊隨最新的研究內容。 目錄 1.理論介紹 2.修改步驟 2.1 步驟一 ? ? ? ?

    2024年01月18日
    瀏覽(109)
  • CVPR‘2023 即插即用系列! | BiFormer: 通過雙向路由注意力構建高效金字塔網絡架構

    CVPR‘2023 即插即用系列! | BiFormer: 通過雙向路由注意力構建高效金字塔網絡架構

    Title: BiFormer: Vision Transformer with Bi-Level Routing Attention Paper: https://arxiv.org/pdf/2303.08810.pdf Code: https://github.com/rayleizhu/BiFormer 眾所周知, Transformer 相比于 CNNs 的一大核心優(yōu)勢便是借助自注意力機制的優(yōu)勢捕捉 長距離上下文依賴 。正所謂物極必反,在原始的 Transformer 架構設計中,這

    2023年04月09日
    瀏覽(18)
  • 迷你即插即用無線路由器如何設置快速上網實現Wi-Fi 無線覆蓋

    迷你路由器 是可以做到即插即用的無線路由器。出差或旅行途中入住酒店,把酒店房間里提供的網線插到設備的以太網口,再把它插到電源插座上,整個房間就實現了Wi-Fi 無線覆蓋。我們就以TL-WR700N為例,說明一下設置的詳細方法。 迷你路由器在出廠的時候, 默認模式是設

    2024年02月07日
    瀏覽(25)
  • Pointnet++改進注意力機制系列:全網首發(fā)SE通道注意力機制 |即插即用,實現有效漲點!

    簡介: 1.該教程提供大量的首發(fā)改進的方式,降低上手難度,多種結構改進,助力尋找創(chuàng)新點! 2.本篇文章對Pointnet++特征提取模塊進行改進,加入 SE 注意力機制,提升性能。 3.專欄持續(xù)更新,緊隨最新的研究內容。 目錄 1.理論介紹 2.修改步驟 2.1 步驟一 ? ? ? ? ?2.2 步驟二

    2024年01月15日
    瀏覽(103)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包