前言
哈嘍,各位小伙伴們大家好,有一段時間沒有更新了,最近也是忙著搬家忙著置辦家具等等,今天終于得空,于是乎連忙抽空做了這期關(guān)于controlnet的使用教程。
因?yàn)樽罱乙彩前l(fā)現(xiàn),controlnet對于AI繪畫來說可真是太重要了,說白了,這個插件用好了,將會大大的提升我們的生產(chǎn)效率,因?yàn)樗梢宰龅綄€稿的上色以及照片轉(zhuǎn)二次元人物等等功能,這些應(yīng)用場景就非常廣泛了。
好了,廢話不多說,直接上干貨。
一、contronet的運(yùn)行模式
我們知道controlnet在下載好了之后分為了兩部分的內(nèi)容,一個是預(yù)處理器模型,另一個是controlnet模型。我們在實(shí)際使用當(dāng)中,一般都是會在網(wǎng)上尋找姿勢參考圖,或者場景參考圖等等,所以根據(jù)實(shí)際使用情況的不同,我在這里將他們分為了需要預(yù)處理和不需要預(yù)處理兩種情況。
-
需要預(yù)處理
當(dāng)我們存在需要依托一些參考圖片來引導(dǎo)AI生產(chǎn)出符合我們需求的圖片時,我們要先分析我們給controlnet的參考。
用一張圖來表示
?文章來源:http://www.zghlxwxcb.cn/news/detail-441182.html
-
舉個例子:
我這里有一張人物圖像,當(dāng)然背景是比較單一的,能夠有清晰的輪廓線,這個時候我們可以選擇canny,hed以及openpose等等來進(jìn)行預(yù)處理,再通過我們的正反提示,就可以生產(chǎn)出一副非常不錯的圖片了。
??
-
不需要預(yù)處理
隨著SD的快速發(fā)展,市面上以及出現(xiàn)了許多用來提高生產(chǎn)力的插件了,像比較熱門的poseX,就可以很好的用來擺出自己喜歡的骨骼模型,這種情況就是不需要預(yù)處理的。
-
操作
方法也很簡單,在擴(kuò)展-可用-加載自,找到3D openpose并下載安裝,安裝完成后,在已安裝-應(yīng)用并重啟用戶界面,即可
-
?
?
controlnet模型的應(yīng)用場景
簡單來說呢,這些這么多的模型到底該什么時候用呢,我用下面一張圖來解釋
?
上述8個模型,可以簡單的分為4大類
?
我們將線稿類從精細(xì)程度高到低,依次排列。其中
-
canny
canny模型處理圖像最為細(xì)致,處理后圖片邊緣線幾乎不變,特別適合圖片的局部改色精細(xì)線稿的上色
?
-
hed
hed模型,邊緣線檢測就沒有那么精細(xì),相比canny Ai自由發(fā)揮的程度會高一些
?
-
scribble模型和fake_scribble模型
就比上兩種顯得粗糙了很多,適合一些手稿的上色和更高的AI自由度發(fā)揮
?
-
mlsd
適合直線檢測,多用于建筑或者室內(nèi)設(shè)計(jì)等
?
-
depth&normal
在深度模型中有透視人物多就選擇depth模型背景簡單單個主體人物突出就用normal模型
-
opnepose&seg
而Openpost和SEG模型,在骨骼識別和色塊分區(qū)方面也有著出色的表現(xiàn),特別是SEG模型還可以用于AI動畫模型的穩(wěn)定性控制中哦
?
好啦,以上就是本期SD繪畫的controlnet教程,制作不易,覺得對你用所幫助的話還請多多一鍵三連!文章來源地址http://www.zghlxwxcb.cn/news/detail-441182.html
到了這里,關(guān)于進(jìn)階--AI繪畫里你必須要直到的controlnet模型使用方法的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!