国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)

這篇具有很好參考價(jià)值的文章主要介紹了[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

之前講了stable diffusion webui搭建,這里主要介紹使用方法以及模型,擴(kuò)展等.

模型下載

主要下載網(wǎng)址

  • HuggingFace:Stable Diffusion、ControlNet的官方倉(cāng)庫(kù)。
  • Civitai:里面多是Lora或其它NSFW等模型的倉(cāng)庫(kù)。

這里下載anythingV4的模型,在Huggingface網(wǎng)站中搜索,

下載后放在stable-diffusion-webui\models\Stable-diffusion中

其他的模型也類似.

NovelAI模型也類似,需要下載相關(guān)模型.可以在Huggingface上搜索,如果實(shí)在找不到可以后臺(tái)私信我.接下來(lái)介紹一些比較有意思的模型以及有用的插件

NovelAI

官網(wǎng)NovelAI - The AI Storyteller可以自己在網(wǎng)站上嘗試

如果是本地部署的話,下載模型即可,可以參考這個(gè)網(wǎng)站Stable Diffusion NovelAI模型下載 - openAI

但這個(gè)模型貌似是泄露出來(lái)的,不能在huggingface上直接下載到,所以可以自己在網(wǎng)上搜搜.

loraAI

首先需要下載一個(gè)基礎(chǔ)模型,然后再下載你想要的lora模型.

一般的基礎(chǔ)模型是chilloutmix,在下載好這個(gè)模型后可以自己選擇喜歡的lora模型.

一般的基礎(chǔ)模型是chilloutmix,在下載好這個(gè)模型后可以自己.選擇喜歡的lora模型,下載后放到models/Lora中.

我這里使用chilloutmix_Ni作為基礎(chǔ)模型,然后點(diǎn)擊右邊的show extra networks,可以看見(jiàn)下面的Lora模型,點(diǎn)擊使用,再加上自己的prompt即可.

[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)

正向詞

 <lora:yaeMikoRealistic_yaemikoMixed:1>masterpiece,((8k, RAW photo, highest quality, masterpiece), High detail RAW color photo professional close-up photo, (realistic, photo realism:1. 37), (highest quality), (best shadow), (best illustration), ultra high resolution, physics-based rendering, cinematic lighting), 1girl, petite, (ulzzang-6500:0.7), yae miko \(fox\), yae miko \(cosplay\), yae miko, smile, thick lips, narrow waist, shiny skin, pink hair, face_focus, (from side), depth of field, (long hair), bare shoulders, detached sleeves, hair ornament, earrings, bare thighs, (sideboob:1.65), upper body, east asian architecture, covered nipples

反向詞

bright lantern, brightness, (nipples:1.2), pussy, EasyNegative, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans,extra fingers, fewer fingers, strange fingers, bad hand, strange leg, strange thighs, ((between breasts)), (cleavage:1.5), bra,

感覺(jué)不到一分鐘就出圖了.我的GPU顯存4G,GTX1650

[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)

怎么樣,還不錯(cuò)吧

參考LORA模型使用教程及模型下載 Stable Diffusion WebUI - openAI

ControlNet

下載插件

可以直接在stable diffusion webui中下載擴(kuò)展,擴(kuò)展名字是sd-webui-controlnet

下載方式跟之前下載中文支持類似

[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)

同時(shí)推薦安裝OpenPose Editor用于編輯人物姿勢(shì)

下載模型

網(wǎng)站lllyasviel/ControlNet at main (huggingface.co)

模型名稱 模型描述
control_sd15_canny.pth 適用于給線稿上色,或?qū)D片轉(zhuǎn)化為線搞后重新上色,比較適合人物。
control_sd15_depth.pth 創(chuàng)造具有景深的中間圖,建筑人物皆可使用。 Stability的模型64×64深度,ControlNet模型可生成512×512深度圖。
control_sd15_hed.pth 提取的圖像目標(biāo)邊界將保留更多細(xì)節(jié),此模型適合重新著色和風(fēng)格化。
control_sd15_mlsd.pth 該模型基本不能識(shí)別人物的,但非常適合建筑生成,根據(jù)底圖或自行手繪的線稿去生成中間圖,然后再生成圖片。
control_sd15_normal.pth 根據(jù)底圖生成類似法線貼圖的中間圖,并用此中間圖生成建模效果圖。 此方法適用于人物建模和建筑建模,但更適合人物建模。
control_sd15_openpose.pth 根據(jù)圖片生成動(dòng)作骨骼中間圖,然后生成圖片,使用真人圖片是最合適的,因?yàn)槟P蛶?kù)使用的真人素材。
control_sd15_scribble.pth 使用人類涂鴉控制SD。該模型使用邊界邊緣進(jìn)行訓(xùn)練,具有非常強(qiáng)大的數(shù)據(jù)增強(qiáng)功能,以模擬類似于人類繪制的邊界線。
control_sd15_seg.pth 使用語(yǔ)義分割來(lái)控制SD,協(xié)議是ADE20k。 現(xiàn)在您需要輸入圖像,然后一個(gè)名為Uniformer的模型將為您檢測(cè)分割。

這里一個(gè)模型就是5.71G,由于磁盤(pán)空間有限,所以我這里選擇其中一個(gè)即可.

注意模型需要放在controlnet擴(kuò)展目錄下的models中

[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)

使用

[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)

下載后刷新,界面會(huì)出現(xiàn)ControlNet

利用剛才的圖像,將剛才的圖像拖到ControlNet中,勾選啟用,預(yù)處理器選擇openpose,模型選擇對(duì)應(yīng)的control_openpose的模型,其他的可以不動(dòng).然后點(diǎn)擊預(yù)覽預(yù)處理結(jié)果.

這樣就得到對(duì)應(yīng)的骨骼姿勢(shì)了,輸入不同的prompt,點(diǎn)擊生成可以通過(guò)這個(gè)骨骼姿勢(shì)得到其他圖像.下載了的預(yù)處理器如下

[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)

預(yù)處理名稱 對(duì)應(yīng)模型 模型描述
canny control_canny 邊緣檢測(cè)
depth control_depth 深度檢測(cè)
hed control_hed 邊緣檢測(cè)但保留更多細(xì)節(jié),適合重新著色和風(fēng)格化。
mlsd control_mlsd 線段識(shí)別,識(shí)別人物功能極差,非常適合建筑。
normal_map control_normal 根據(jù)圖片生成法線貼圖,非常適合CG建模師。
openpose control_openpose 提取人物骨骼姿勢(shì)
openpose_hand control_openpose 提取人物+手部骨骼姿勢(shì)
scribble control_openpose 提取黑白稿
fake_scribble control_scribble 涂鴉風(fēng)格提?。ê軓?qiáng)大的模型)
segmentation control_seg 語(yǔ)義分割

除了使用openpose還有其他模型可用,比如使用Canny提取線稿

還有使用Scribble模型涂鴉繪畫(huà)等等.這里就不詳細(xì)說(shuō)了

插件下載

提示詞補(bǔ)全

能在輸入Tag時(shí)提供booru風(fēng)格(如Danbooru)的TAG自動(dòng)補(bǔ)全。因?yàn)橛幸恍┠P褪腔谶@種TAG風(fēng)格訓(xùn)練的(例如Waifu Diffusion),因此使用這些Tag能獲得較為精確的效果。

a1111-sd-webui-tagcomplete/README_ZH.md at main · DominikDoom/a1111-sd-webui-tagcomplete (github.com)

git clone "https://github.com/DominikDoom/a1111-sd-webui-tagcomplete.git" extensions/tag-autocomplete

openpose editor

下載插件即可,可用于編輯ControlNet得到的骨骼圖.

骨架人偶Posex

hnmr293/posex: Posex - Estimated Image Generator for Pose2Image (github.com)

使用方法

點(diǎn)擊:選擇身體

左拽:移動(dòng)關(guān)節(jié)(選中關(guān)節(jié)點(diǎn))或者旋轉(zhuǎn)視角

右拽:移動(dòng)整個(gè)身體(如果選中身體)或者移動(dòng)視角

鼠標(biāo)滾輪:放大縮小

手部模型

jexom/sd-webui-depth-lib: Depth map library for use with the Control Net extension for Automatic1111/stable-diffusion-webui (github.com)

不定期更新,歡迎關(guān)注點(diǎn)贊.??文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-407805.html

參考資料

  1. AI繪畫(huà)|ControlNet安裝教程及模型下載|Stable Diffusion WebUI高階教程 - openAI
  2. Stable Diffusion WebUI實(shí)用AI繪圖擴(kuò)充功能介紹 | Ivon的部落格 (ivonblog.com)
  3. AI繪畫(huà)新突破-ControlNet精準(zhǔn)控圖 - 知乎 (zhihu.com)

到了這里,關(guān)于[AI繪圖教程]stable-diffusion webui加載模型與插件. 實(shí)戰(zhàn)AI繪畫(huà)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【計(jì)算機(jī)視覺(jué)】手把手教你配置stable-diffusion-webui進(jìn)行AI繪圖(保姆級(jí)教程)

    【計(jì)算機(jī)視覺(jué)】手把手教你配置stable-diffusion-webui進(jìn)行AI繪圖(保姆級(jí)教程)

    本地部署指的是將軟件應(yīng)用程序或服務(wù)部署在本地計(jì)算機(jī)或本地服務(wù)器上,而不是使用云服務(wù)或遠(yuǎn)程服務(wù)器。以下是一些常見(jiàn)的原因,解釋為什么選擇本地部署: 數(shù)據(jù)隱私和安全性:對(duì)于某些敏感數(shù)據(jù)或關(guān)鍵業(yè)務(wù)功能,保持?jǐn)?shù)據(jù)在本地環(huán)境中更有保障。本地部署可以提供更高

    2024年02月08日
    瀏覽(26)
  • 閑談【Stable-Diffusion WEBUI】的插件:美不美?交給AI打分

    閑談【Stable-Diffusion WEBUI】的插件:美不美?交給AI打分

    本篇主要提到了WEBUI的Cafe Aesthetic插件,這是一個(gè)相對(duì)獨(dú)立的插件,單獨(dú)標(biāo)簽頁(yè),判斷圖片藝術(shù)感和分類。 更多不斷豐富的內(nèi)容參考:?? 《繼續(xù)Stable-Diffusion WEBUI方方面面研究(內(nèi)容索引)》 圖像作品到底好不好,有沒(méi)有藝術(shù)細(xì)菌,AI也可以評(píng)價(jià)了。 參考:https://github.com/p1atde

    2024年02月09日
    瀏覽(96)
  • 【AI繪圖】Stable Diffusion WebUI環(huán)境搭建

    【AI繪圖】Stable Diffusion WebUI環(huán)境搭建

    Stable Diffusion WebUI開(kāi)源地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui ?首先根據(jù)要求做以下準(zhǔn)備工作: 1. 安裝?Python 3.10.6, 安裝時(shí)記得勾選\\\"Add Python to PATH\\\"把Python添加到環(huán)境變量. 2. 安裝Git環(huán)境,Git - Downloading Package 3. 用git命令把下載Stable Diffusion WebUI項(xiàng)目: ?? 4. 項(xiàng)目下載到本

    2024年02月04日
    瀏覽(25)
  • AI繪圖入門 安裝 stable-diffusion-webui

    AI繪圖入門 安裝 stable-diffusion-webui

    先看樣張: https://www.python.org/downloads/ Git - Downloads (git-scm.com) 1. 新建文件夾 (不能有中文,建議放在空閑比較多的硬盤(pán)上),然后再文件夾打開(kāi)命令行 2. 克隆 Nvidia顯卡 AMD顯卡 AMD GPU 說(shuō)明 CPU 選擇上面任意一個(gè)都可以 下載慢可以請(qǐng)求頭加https://ghproxy.com/ 如: https://ghproxy.com/

    2024年02月06日
    瀏覽(53)
  • AI繪圖開(kāi)源工具Stable Diffusion WebUI前端API對(duì)接

    AI繪圖開(kāi)源工具Stable Diffusion WebUI前端API對(duì)接

    本文主要介紹 AI 繪圖開(kāi)源工具 Stable Diffusion WebUI 的 API 開(kāi)啟和基本調(diào)用方法,通過(guò)本文的閱讀,你將了解到 stable-diffusion-webui 的基本介紹、安裝及 API 環(huán)境配置;文生圖、圖生圖、局部重繪、后期處理等 API 接口調(diào)用;圖像處理開(kāi)發(fā)中常用到一些方法如 Base64 、 PNG 、 Canvas 及

    2024年02月10日
    瀏覽(29)
  • 1024程序員節(jié)?我們整點(diǎn)AI繪圖玩玩吧,一文教你配置stable-diffusion

    1024程序員節(jié)?我們整點(diǎn)AI繪圖玩玩吧,一文教你配置stable-diffusion

    需提前準(zhǔn)備:一臺(tái)高性能的電腦(尤其是顯存)、python、Git、梯子。 其實(shí)Github上有很多關(guān)于Stable diffusion的庫(kù),綜合對(duì)比之后,我選取的是比較全面的AUTOMATIC1111這個(gè),源碼鏈接:Stable-diffusion(Github) 找到安裝那塊的教程,此教程以windows為例。 ps:如果你電腦上已經(jīng)有了pyt

    2024年01月16日
    瀏覽(31)
  • 搭建 AI繪圖 Stable Diffusion- WebUI 制作屬于自己版權(quán)的圖片

    搭建 AI繪圖 Stable Diffusion- WebUI 制作屬于自己版權(quán)的圖片

    前言 Stable Diffusion 是一種深度學(xué)習(xí)文本到圖像生成模型,它主要用于根據(jù)文本的描述產(chǎn)生詳細(xì)圖像,亦或者根據(jù)現(xiàn)有的圖片生成相似的圖片。在本地代建Stable Diffusion-webUI需要準(zhǔn)備Python環(huán)境(3.10.6版本)、可以上外網(wǎng)的梯子,Git拉取代碼工具,電腦配置最低建議6G顯存,1660TI顯卡

    2024年02月16日
    瀏覽(93)
  • (十六) AIGC、AI繪畫(huà)、SD-WebUI、本地部署、Stable-Diffusion本地模型、最新Controlnet擴(kuò)展

    (十六) AIGC、AI繪畫(huà)、SD-WebUI、本地部署、Stable-Diffusion本地模型、最新Controlnet擴(kuò)展

    1、簡(jiǎn)介 AI繪畫(huà)的工具網(wǎng)站很多,大部分收費(fèi)/限制數(shù)量,而且速度很慢,如果部署本地的模型,不僅免費(fèi)無(wú)限制、還可以提高出圖效率,隨意生成自己想象中的圖,部署中發(fā)現(xiàn)有各種各樣的環(huán)境配置問(wèn)題,無(wú)法正確運(yùn)行。 本博整理了SD-WebUI的整合包(Windows環(huán)境下),包括啟動(dòng)器

    2024年02月13日
    瀏覽(94)
  • 免費(fèi)永久安裝Stable diffusion WebUI到Google drive云端教程,免費(fèi)GPU無(wú)限跑圖,隨時(shí)隨地運(yùn)行|Google colab|AI繪圖攻略|免費(fèi)硬盤(pán) 免費(fèi)GPU

    免費(fèi)永久安裝Stable diffusion WebUI到Google drive云端教程,免費(fèi)GPU無(wú)限跑圖,隨時(shí)隨地運(yùn)行|Google colab|AI繪圖攻略|免費(fèi)硬盤(pán) 免費(fèi)GPU

    免費(fèi)運(yùn)行stable diffusion的方案中,google colab方案是最好的,但是但是他每24小時(shí)會(huì)清空數(shù)據(jù),每次跑圖都要重新下載模型。。。那么我們?cè)撊绾伍L(zhǎng)期保有自己的數(shù)據(jù)呢?文本將解決這個(gè)問(wèn)題,除翻越問(wèn)題外唯一的前提就是你的google云盤(pán)還有足夠的空間~~ 預(yù)先學(xué)習(xí) : 安裝及其問(wèn)

    2024年02月09日
    瀏覽(31)
  • 【AI繪圖本地部署,無(wú)顯卡部署stable-diffusion-webui嗎,使用CPU運(yùn)算】

    環(huán)境準(zhǔn)備 aconda:https://www.anaconda.com/ git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui 進(jìn)入目錄 cd stable-diffusion-webui 創(chuàng)建虛擬環(huán)境 python -m venv ./virtualenv 運(yùn)行虛擬環(huán)境 .virtualenvScriptsActivate.ps1 安裝Cpu運(yùn)行的pytorch版本 pip3 install torch torchvision torchaudio 修改根目錄下launch.py代碼

    2024年02月16日
    瀏覽(55)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包