本期說一下Stable Diffusion非常有名的插件controlnet。同上一篇一樣,我們安裝b站大佬秋葉aaaki(有的網友戲稱他/她是賽博佛祖)的stable diffusion4.2整合包。解壓縮以后,打開啟動器,見下圖,界面比早期版本更好看了。
?編輯?
啟動器打開以后,安裝controlnet插件
填寫網址:https://jihulab.com/hanamizuki/sd-webui-controlnet
ControlNet還需要一些預處理器和模型,它們和整合包一起下載就可以了,然后拷貝到Stable Diffusion對應文件夾。
預處理器\downloads拷貝至D:\StableDiffusion\sd-webui-aki-v4.2\extensions\sd-webui-controlnet\annotator
\模型下面的文件拷貝至D:\StableDiffusion\sd-webui-aki-v4.2\models\ControlNet
在上一篇中,生成圖片需要提示詞,現(xiàn)在一些網站提供圖片和提示詞。我們也可以利用圖生圖中的反推提示功能。
在網絡上隨便找一張好看的圖片,比如下圖,點擊“DeepBooru反推”按鈕,本圖的提示詞就會生成在左邊文本框中。
因為孩子平時喜歡買線稿人物圖上色,我們以給線稿上色為例說明ControlNet插件的功能。啟用Controlnet,預處理使用invert,模型使用lineart—_anime。
將剛才生成的提示詞放在文生圖的提示詞框中,點擊“生成”按鈕,生成的成果圖見下圖。
再找一張別的風格照片,比如下張雨中打傘的姑娘,反向生成提示詞。
將生成的提示詞放在文生圖的提示詞框中,點擊“生成”按鈕,重新生成的成果圖見下圖。
下圖是誅仙中的陸雪琪。
將其提示詞放在文生圖中的提示框內,重新生成的效果圖如下。
我們也可以將原圖生成線稿圖,比如下圖,預處理器選擇lineart_realistic,模型不變。
點擊“生成”按鈕,生成線稿圖如下。
Controlnet還可以將低分辨率圖像進行高清修復。比如說,自己的頭像是很多年前拍攝的,當時像素低,現(xiàn)在利用Controlnet的tile模型進行修復。
首先,找一張明星照片,比如金城武,生成反向提示詞。
然后,拷貝生成的提示詞至文本框,預處理選擇tile_resample,模型tile。
點擊“生成”按鈕,生成的效果如下圖,仿佛一顆冉冉升起的新星,帥呆了。
小結
最近人工智能發(fā)展非??欤貏e是機器學習方面,比如AI繪圖就是通過機器學習訓練生成模型,然后在模型的基礎生成同模型的風格化照片。隨后,AI繪圖進一步演化為換衣服、換臉,半身生成全身,擴充場景等。AI繪圖會讓一些畫師失業(yè),但是擁抱新技術的畫師則會極大地提高工作效率,收益更勝從前。
參考文獻
https://zhuanlan.zhihu.com/p/643744230
https://www.bilibili.com/video/BV1fa4y1G71W/?spm_id_from=333.999.0.0
https://www.bilibili.com/video/BV1AL411q7Ub/?spm_id_from=333.999.0.0&vd_source=6f9f0ad1eef623c5a58999f0093952a1
https://www.bilibili.com/video/BV1f14y197rx/?spm_id_from=333.337.search-card.all.click&vd_source=6f9f0ad1eef623c5a58999f0093952a1文章來源:http://www.zghlxwxcb.cn/news/detail-756869.html
https://www.bilibili.com/video/BV1Xv4y1E7kZ/?spm_id_from=333.337.search-card.all.click&vd_source=6f9f0ad1eef623c5a58999f0093952a1文章來源地址http://www.zghlxwxcb.cn/news/detail-756869.html
到了這里,關于AI繪圖軟件Stable Diffusion 安裝和使用之二controlnet插件的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!