国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

多條件引導圖像生成-ControlNet安裝使用

這篇具有很好參考價值的文章主要介紹了多條件引導圖像生成-ControlNet安裝使用。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


論文解讀
github: https://github.com/lllyasviel/ControlNet

安裝

step1:clone 代碼

git clone https://github.com/lllyasviel/ControlNet.git

step2:創(chuàng)建虛擬環(huán)境

cd ControlNet
# 創(chuàng)建虛擬環(huán)境
conda env create -f environment.yaml

# 激活環(huán)境
conda activate control

step3:安裝xformers
不安裝報錯,提示“No module ‘xformers’. Proceeding without it.”
RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device(‘cpu’) to map your storages to the CPU.

pip install xformers

下載模型

模型鏈接:https://huggingface.co/lllyasviel/ControlNet/tree/main

git lfs install
git clone https://huggingface.co/lllyasviel/ControlNet

將下載到的文件夾annotator、models放置ControlNet文件夾中

使用

Canny Edge

運行以下代碼

python gradio_canny2image.py

登錄網(wǎng)址:http://127.0.0.1:7860/ 即可在線體驗。
多條件引導圖像生成-ControlNet安裝使用

Pose

運行以下代碼

python gradio_pose2image.py

登錄網(wǎng)址:http://127.0.0.1:7860/
多條件引導圖像生成-ControlNet安裝使用

Seg

運行以下代碼

python gradio_seg2image.py

登錄網(wǎng)址:http://127.0.0.1:7860/
多條件引導圖像生成-ControlNet安裝使用

多條件引導圖像生成-ControlNet安裝使用
分割不太準,換成SAM可能會好些。

其他demo感興趣的可自行嘗試。文章來源地址http://www.zghlxwxcb.cn/news/detail-507990.html

到了這里,關于多條件引導圖像生成-ControlNet安裝使用的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 利用GPU加速自定義風格圖像生成-利用GPU加速結合了ControlNet/ Lora的Stable Diffusion XL

    利用GPU加速自定義風格圖像生成-利用GPU加速結合了ControlNet/ Lora的Stable Diffusion XL

    點擊鏈接完成注冊,參加本次在線研討會 https://www.nvidia.cn/webinars/sessions/?session_id=240124-31319 隨著AI技術的發(fā)展, 數(shù)字內(nèi)容創(chuàng)建業(yè)務也變得越來越火熱。生成式AI模型的發(fā)布, 讓我們看到了人工智能在各行各業(yè)的潛力。您只需要用語言簡單描述自己希望看到的畫面, AI便可以自動生

    2024年01月24日
    瀏覽(26)
  • [論文精讀] 自條件圖像生成 - 【愷明大神新作,AIGC 新基準】

    [論文精讀] 自條件圖像生成 - 【愷明大神新作,AIGC 新基準】

    論文導讀: 論文背景: 2023年8月,AI大神何愷明在個人網(wǎng)站宣布,2024年將加入MIT擔任教職,回歸學術界。這篇論文是其官宣加盟MIT后首度與MIT師生合著的公開論文,論文一作本科畢業(yè)于清華姚班,二作為MIT電氣工程與計算機科學系教授,今年的斯隆獎得主,美國科學院院士。

    2024年02月03日
    瀏覽(24)
  • 擴散模型實戰(zhàn)(十):Stable Diffusion文本條件生成圖像大模型

    擴散模型實戰(zhàn)(十):Stable Diffusion文本條件生成圖像大模型

    ?擴散模型實戰(zhàn)(一):基本原理介紹 擴散模型實戰(zhàn)(二):擴散模型的發(fā)展 擴散模型實戰(zhàn)(三):擴散模型的應用 擴散模型實戰(zhàn)(四):從零構建擴散模型 擴散模型實戰(zhàn)(五):采樣過程 擴散模型實戰(zhàn)(六):Diffusers DDPM初探 擴散模型實戰(zhàn)(七):Diffusers蝴蝶圖像生成實

    2024年02月03日
    瀏覽(23)
  • CVPR 2023 | 用戶可控的條件圖像到視頻生成方法(基于Diffusion)

    CVPR 2023 | 用戶可控的條件圖像到視頻生成方法(基于Diffusion)

    注1:本文系“計算機視覺/三維重建論文速遞”系列之一,致力于簡潔清晰完整地介紹、解讀計算機視覺,特別是三維重建領域最新的頂會/頂刊論文(包括但不限于 Nature/Science及其子刊; CVPR, ICCV, ECCV, NeurIPS, ICLR, ICML, TPAMI, IJCV 等)。 本次介紹的論文是: CVPR 2023 | 用戶可控的條件圖

    2024年02月13日
    瀏覽(16)
  • 【計算機視覺中的 GAN 】 - 條件圖像合成和 3D 對象生成(2)

    ????????上文 ?【計算機視覺中的 GAN 】 或多或少是GANs,生成學習和計算機視覺的介紹。我們達到了在 128x128 圖像中生成可區(qū)分圖像特征的程度。但是,如果你真的想了解GAN在計算機視覺方面的進展,你肯定必須深入研究圖像到圖像的翻譯。盡管這是第一個成功的模型,

    2024年02月15日
    瀏覽(26)
  • Stable Diffusion - 圖像控制插件 ControlNet (OpenPose) 配置與使用

    Stable Diffusion - 圖像控制插件 ControlNet (OpenPose) 配置與使用

    歡迎關注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131591887 論文:Adding Conditional Control to Text-to-Image Diffusion Models ControlNet 是神經(jīng)網(wǎng)絡結構,用于控制預訓練的大型擴散模型,以支持額外的輸入條件。ControlNet 以端到端的方式學習任務特定的條

    2024年02月13日
    瀏覽(27)
  • 論文閱讀_條件控制_ControlNet

    論文閱讀_條件控制_ControlNet

    name_en: Adding Conditional Control to Text-to-Image Diffusion Models name_ch: 向文本到圖像的擴散模型添加條件控制 paper_addr: http://arxiv.org/abs/2302.05543 date_read: 2023-08-17 date_publish: 2023-02-10 tags: [‘圖形圖像’,‘大模型’,‘多模態(tài)’] author: Lvmin Zhang code: https://github.com/lllyasviel/ControlNet ControlNet 幾

    2024年02月12日
    瀏覽(17)
  • 在Transformers 中使用約束波束搜索引導文本生成

    本文假設讀者已經(jīng)熟悉文本生成領域波束搜索相關的背景知識,具體可參見博文 如何生成文本: 通過 Transformers 用不同的解碼方法生成文本。 與普通的波束搜索不同, 約束 波束搜索允許我們控制所生成的文本。這很有用,因為有時我們確切地知道輸出中需要包含什么。例如

    2024年02月08日
    瀏覽(21)
  • 【AI繪畫】萬字長文——(超詳細)ControlNet的詳細介紹&使用Stable Diffusion的藝術二維碼完全生成攻略

    【AI繪畫】萬字長文——(超詳細)ControlNet的詳細介紹&使用Stable Diffusion的藝術二維碼完全生成攻略

    詳細介紹ControlNet的各個部分,相關案例,以及使用二維碼作為ControlNet模型的輸入的Stable Diffusion生成的圖像,使二維碼轉變?yōu)樗囆g圖像 Stable Diffusion :是StabilityAI于2022年8月22日發(fā)布的文本到圖像模型。它類似于OpenAI的DALL·E 2和Midjourney等其他圖像生成模型,但有一個很大的不同

    2024年02月05日
    瀏覽(34)
  • stable diffusion AI精準繪圖——ControlNet控件的安裝與使用

    上兩期圖文教程,我們分享了stable diffusion webUI AI繪圖的安裝步驟,以及stable diffusion webUI 漢化插件的安裝,與相關stable diffusion webUI 的相關參數(shù)解析,本期我們就介紹一下controlNet 控件的安裝與使用。 首先說一下,stable diffusion webUI 相關的軟件已經(jīng)更新,安裝完成后,會提示p

    2024年02月02日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包