先自我介紹一下,小編浙江大學(xué)畢業(yè),去過(guò)華為、字節(jié)跳動(dòng)等大廠,目前阿里P7
深知大多數(shù)程序員,想要提升技能,往往是自己摸索成長(zhǎng),但自己不成體系的自學(xué)效果低效又漫長(zhǎng),而且極易碰到天花板技術(shù)停滯不前!
因此收集整理了一份《2024年最新HarmonyOS鴻蒙全套學(xué)習(xí)資料》,初衷也很簡(jiǎn)單,就是希望能夠幫助到想自學(xué)提升又不知道該從何學(xué)起的朋友。
既有適合小白學(xué)習(xí)的零基礎(chǔ)資料,也有適合3年以上經(jīng)驗(yàn)的小伙伴深入學(xué)習(xí)提升的進(jìn)階課程,涵蓋了95%以上鴻蒙開(kāi)發(fā)知識(shí)點(diǎn),真正體系化!
由于文件比較多,這里只是將部分目錄截圖出來(lái),全套包含大廠面經(jīng)、學(xué)習(xí)筆記、源碼講義、實(shí)戰(zhàn)項(xiàng)目、大綱路線、講解視頻,并且后續(xù)會(huì)持續(xù)更新
如果你需要這些資料,可以添加V獲取:vip204888 (備注鴻蒙)
正文
記錄一下如何使用 InsCode Stable Diffusion 進(jìn)行 AI 繪圖以及使用感受。
一、背景介紹
目前市面上比較權(quán)威,并能用于工作中的 AI 繪畫軟件其實(shí)就兩款。一個(gè)叫 Midjourney(簡(jiǎn)稱 MJ),另一個(gè)叫 Stable Diffusion(簡(jiǎn)稱 SD)。MJ 需要付費(fèi)使用,而 SD 開(kāi)源免費(fèi),但是上手難度和學(xué)習(xí)成本略大,并且非常吃電腦配置(顯卡、內(nèi)存)。
和 MJ 相比,SD 最大的優(yōu)勢(shì)是開(kāi)源,這意味著 Stable Diffusion 的潛力巨大、發(fā)展飛快。由于開(kāi)源免費(fèi)屬性,SD 已經(jīng)收獲了大量活躍用戶,開(kāi)發(fā)者社群已經(jīng)為此提供了大量免費(fèi)高質(zhì)量的外接預(yù)訓(xùn)練模型(fine-tune)和插件,并且在持續(xù)維護(hù)更新。在第三方插件和模型的加持下,SD 擁有比 Midjourney 更加豐富的個(gè)性化功能。
Stable Diffusion 簡(jiǎn)介
Stable Diffusion 是 2022 年發(fā)布的深度學(xué)習(xí)文本到圖像生成模型,它主要用于根據(jù)文本的描述產(chǎn)生詳細(xì)圖像(即 txt2img 應(yīng)用場(chǎng)景),盡管它也可以應(yīng)用于其他任務(wù),如內(nèi)補(bǔ)繪制(inpainting)、外補(bǔ)繪制(outpainting),以及在提示詞(英語(yǔ))指導(dǎo)下產(chǎn)生圖生圖的翻譯(img2img)。
模型原理
引用一張廣為人知的 SD 原理圖(源于論文https://arxiv.org/abs/2112.10752),該模型主要可以分為三個(gè)部分:
- 變分編碼器(Vector Quantised Variational AutoEncoder,VQ-VAE)
- 擴(kuò)散模型(Diffusion Model, DM),在生成圖片中起著最重要的作用
- 條件控制器(Conditioning)
詳細(xì)原理介紹可參考文章 Stable Diffusion 簡(jiǎn)介
用一句話總結(jié) SD 的模型原理:圖片通過(guò) VAE 轉(zhuǎn)換到低維空間,配合 Conditioning 的 DM 產(chǎn)生新的變量,再通過(guò) VAE 將生成的變量轉(zhuǎn)換為圖片。
推薦電腦配置
Stable Diffusion 對(duì)電腦配置有一定的要求,比較推薦的配置如下:
操作系統(tǒng):SD 更加適配于 windows。建議使用 windows10、windows11。
內(nèi)存:8GB 以上,建議使用 16GB 或以上的內(nèi)存。在內(nèi)存比較小的情況下,可能需要調(diào)高虛擬內(nèi)存,以容納模型文件。
硬盤:40GB 以上的可用硬盤空間,建議準(zhǔn)備 60GB 以上空間,最好是固態(tài)硬盤。
顯卡:最低需要顯存 2GB,建議顯存不少于 4GB,推薦 8GB 以上。型號(hào)方面,因?yàn)樾枰玫?CUDA 加速,所以 N 卡支持良好。A 卡可以用,但速度明顯慢于英偉達(dá)顯卡,當(dāng)然,如果你的電腦沒(méi)有顯卡也可以用 CPU 花幾百倍時(shí)間生成。
下面是進(jìn)行 512x 圖片生成時(shí)主流顯卡速度對(duì)比:
Stable Diffusion WebUI
目前有一些基于 Stable Diffusion 封裝的 webui 開(kāi)源項(xiàng)目,可以通過(guò)界面交互的方式來(lái)使用 Stable-diffusion,自身還可以通過(guò)插件等方式獲得更多能力,極大的降低了使用門檻,以下是幾個(gè)比較火的 webui 項(xiàng)目:
- https://github.com/AUTOMATIC1111/stable-diffusion-webui
- https://github.com/Sygil-Dev/sygil-webui
這些項(xiàng)目,和平常軟件安裝方法有所不同,不是下載安裝即可用的軟件,需要準(zhǔn)備執(zhí)行環(huán)境、編譯源碼,針對(duì)不同操作系統(tǒng)(操作系統(tǒng)依賴)、不同電腦(硬件依賴)還有做些手工調(diào)整,這需要使用者擁有一定的程序開(kāi)發(fā)經(jīng)驗(yàn)。
二、Stable Diffusion 模型在線使用地址
InsCode 的 Stable Diffusion 環(huán)境主要用于學(xué)習(xí)和使用 Stable Diffusion,已經(jīng)安裝了相關(guān)軟件和組件庫(kù),可在線直接啟動(dòng) Stable Diffusion WebUI 進(jìn)行創(chuàng)作。還可以一鍵購(gòu)買算力,訓(xùn)練大模型,極大的降低了 AI 繪圖使用門檻。
Stable Diffusion 模型在線使用地址:https://inscode.csdn.net/@inscode/Stable-Diffusion
進(jìn)入之后點(diǎn)擊運(yùn)行并使用,會(huì)彈出一個(gè)購(gòu)買算力資源的窗口。由于是試用,不涉及到連續(xù)生成多張圖片等場(chǎng)合,因此算力足夠用了,選擇 RTX 3080 即可(0.51元/小時(shí)),目前活動(dòng)免費(fèi)試用。
操作完成之后,會(huì)跳轉(zhuǎn)到 InsCode 工作臺(tái)界面,在算力資源中,已經(jīng)可以看到剛才選擇的機(jī)器了。
待它初始化完成,右側(cè)有三個(gè)選項(xiàng),選擇 Stabel Diffusion WebUI 進(jìn)入即可。進(jìn)入界面如下圖:
三、Stable Diffusion WebUI 界面介紹與參數(shù)解析
- 第一部分:界面最上端
stable diffusion ckpt
可以選擇模型文件,InsCode 上面提供了幾個(gè)常用模型,如 chilloutmix、GuoFeng3、Cute_Animals 可供選擇。為 InsCode Stable Diffusion 安裝某個(gè)自己喜歡的模型可查看這里! - 第二部分,便是 stable diffusion webui 項(xiàng)目的主要功能與設(shè)置操作
文生圖
:顧名思義是通過(guò)文本的描述來(lái)生成圖片圖生圖
:用一張圖片生成相似的圖片附加功能
:額外的設(shè)置圖片信息
:若圖片是由 AI 生成的圖片,當(dāng)上傳一張圖片后,這里會(huì)提示圖片的相關(guān) prompt 關(guān)鍵字與模型參數(shù)設(shè)置模型合并
:可以合并多個(gè)模型,有多個(gè)模型的權(quán)重來(lái)生成圖片訓(xùn)練
:模型訓(xùn)練,可以提供自己的圖片進(jìn)行模型的訓(xùn)練,這樣別人就可以使用自己訓(xùn)練的模型進(jìn)行圖片的生成設(shè)置
:UI 界面設(shè)置擴(kuò)展
:插件擴(kuò)展,這里可以安裝一些開(kāi)源的插件,例如漢化插件
- 第三部分:是正(負(fù))面提示詞輸入框,我們需要在此框中輸入圖片的描述信息,正面提示詞是我們希望生成的圖片需要的文本,負(fù)面提示詞是我們不希望生成的圖片文本。
開(kāi)始不知道怎么寫提示詞,可以先參考優(yōu)秀的風(fēng)格模板作為起手式,還可以借助描述語(yǔ)工具和網(wǎng)站,多出圖多研究,掌握了出圖規(guī)律,慢慢就可以自己寫提示詞啦,寫提示詞要盡可能寫的詳細(xì)。跑 AI 的過(guò)程就像抽卡,抽出一堆卡,選出你審美范疇里覺(jué)得好看的。
- 第四部分:界面左下方,便是模型輸入的相關(guān)參數(shù):
采樣方法
:里面設(shè)置了很多采樣算法,各有優(yōu)缺,具體每個(gè)算法的效果,可以自行嘗試采樣迭代步數(shù)
:模型迭代一次的步數(shù)平鋪
:生成一張可以平鋪的圖像面部修復(fù)
:面部修復(fù)功能,可以提供面部細(xì)節(jié),但是非寫實(shí)風(fēng)格的人物開(kāi)啟面部修復(fù)可能導(dǎo)致面部崩壞高清修復(fù)
:可以把低分辨率的照片調(diào)整到高分辨率寬度
,高度
:輸出圖片的尺寸提示詞相關(guān)性CFG
:較高的數(shù)值將提高生成結(jié)果與提示的匹配度隨機(jī)種子
:seed 一樣的情況下,可以生成比較相似的圖片,記住保留你喜歡的種子,以便下次再次生成相似的圖像生成批次
:每次生成圖像的組數(shù)。一次運(yùn)行生成圖像的數(shù)量為 生成批次 * 每批數(shù)量
每批數(shù)量
:同時(shí)生成多少個(gè)圖像
- 第五部分:便是一鍵生成圖片的按鍵,我們?cè)O(shè)置完成以上參數(shù)的設(shè)置后,點(diǎn)擊生成按鍵,便可以自動(dòng)生成圖片了,
生成下面的5個(gè)小圖標(biāo)(從左到右依次分別是)
- 復(fù)原上次生成圖片的提示詞(自動(dòng)記錄)
- 清空當(dāng)前所有提示詞
- 打開(kāi)模型選擇界面
- 應(yīng)用選擇的風(fēng)格模板到當(dāng)前的提示詞
- 存檔當(dāng)前的正(負(fù))面提示詞
- 相關(guān)的圖片會(huì)展示在第六部分區(qū)域。
四、如何在 InsCode 給 Stable Diffusion 安裝模型
常用模型下載網(wǎng)址
目前,模型數(shù)量最多的兩個(gè)網(wǎng)站是 civitai 和 Huggingface。
civitai 又稱 C 站,有非常多精彩紛呈的模型,有了這些模型,但是該網(wǎng)站在國(guó)內(nèi)是被屏蔽的。登錄需要科學(xué)上網(wǎng)。
Huggingface 則相對(duì)樸實(shí)無(wú)華一些,對(duì)模型的審核也會(huì)更加嚴(yán)格一些。但是好處在于不需要科學(xué)上網(wǎng),而且網(wǎng)速很快。
此外,AI 圖站可以淘到不少 C 站下架了的模型,也是相當(dāng)不錯(cuò)的。
常用模型及說(shuō)明
如果你點(diǎn)開(kāi)上述網(wǎng)站去下載模型,就會(huì)發(fā)現(xiàn)有各種不同類型的模型。
CivitAI 上的模型主要分為四類:Checkpoint、LoRA、Textual Inversion、Hypernetwork,分別對(duì)應(yīng) 4 種不同的訓(xùn)練方式。
- Checkpoint:是 SD 能夠繪圖的基礎(chǔ)模型,因此被稱為大模型、底模型或者主模型,WebUI 上就叫它 Stable Diffusion 模型。安裝完 SD 軟件后,必須搭配主模型才能使用。不同的主模型,其畫風(fēng)和擅長(zhǎng)的領(lǐng)域會(huì)有側(cè)重。Checkpoint 模型包含生成圖像所需的一切,不需要額外的文件。但是它們體積很大,通常為2G-7G。存放在 Stable Diffusion 安裝目錄的 models 的 Stable-diffusion 目錄里。
- LoRA:一種輕量化的模型微調(diào)訓(xùn)練方法,是在原有大模型的基礎(chǔ)上,對(duì)該模型進(jìn)行微調(diào),用于輸出固定特征的人或事物。特點(diǎn)是對(duì)于特定風(fēng)格特征的出圖效果好,訓(xùn)練速度快,模型文件小,一般 10-200 MB,需要搭配大模型使用。存放在 Stable Diffusion 安裝目錄的 models 的 Lora 目錄里
- Embedding/Textual lnversion:一種使用文本提示來(lái)訓(xùn)練模型的方法,可以簡(jiǎn)單理解為一組打包的提示詞,用于生成固定特征的人或事物。特點(diǎn)是對(duì)于特定風(fēng)格特征的出圖效果好,模型文件非常小,一般幾十 K,但是訓(xùn)練速度較慢,需要搭配大模型使用。存放在 Stable Diffusion 安裝目錄下的 Embeddings 目錄里。
- Hypernetwork:目前 Hypernetworks 已經(jīng)不太用,類似 LoRA,但模型效果不如 LoRA,一般幾十 K,需要搭配大模型使用。存放在 Stable Diffusion 安裝目錄的 models 下的 Hypernetworks 目錄里。
模型推薦:Checkpoint > LoRA > Textual Inversion > Hypernetwork
通常情況 Checkpoint 模型搭配 LoRA 或 Textual Inversion 模型使用,可以獲得更好的出圖效果。
補(bǔ)充:還有一類 VAE 模型,簡(jiǎn)單理解它的作用就是提升圖像色彩效果,讓畫面看上去不會(huì)那么灰蒙蒙,此外對(duì)圖像細(xì)節(jié)進(jìn)行細(xì)微調(diào)整。
幾個(gè)推薦模型
- DreamShaper
勝任多種風(fēng)格(寫實(shí)、原畫、2.5D 等),能生成很棒的人像和風(fēng)景圖的 Checkpoint 模型。
- Chilloutmix/Chikmix
Chilloutmix 就是大名鼎鼎的亞洲美女模型。市面上你看到的大量的 AI 美女,基本上都是這個(gè)模型生成的。當(dāng)時(shí)最火的圖應(yīng)該下面這個(gè)系列。
也正是這個(gè)模型,讓 AI 繪畫徹底出圈。
- Cetus-Mix
這是一個(gè)二次元的混合模型,融合了很多二次元的模型,實(shí)際使用效果還不錯(cuò)。對(duì)提示詞的要求不高。
- Guofeng 系列
這是一個(gè)中國(guó)華麗古風(fēng)風(fēng)格模型,也可以說(shuō)是一個(gè)古風(fēng)游戲角色模型,具有 2.5D 的質(zhì)感。目前最新的版本是 GuoFeng3.4。
- blindbox
可生成盲盒風(fēng)格的 LoRA 模型,使用時(shí)主模型建議選 ReV Animated。
如何在 InsCode 給 Stable Diffusion 安裝 Lora
- 首先,在自己的電腦上下載好需要安裝的 Lora 文件,并通過(guò) Jupyter Lab 啟動(dòng) GPU,如下圖所示:
2. 打開(kāi) JupyterLab 界面,找到上傳入口,將下載好的 Lora 上傳到 GPU。
3. 打開(kāi) Terminal ,將已經(jīng)上傳到 GPU 的 Lora 文件復(fù)制到 /release/stable-diffusion-webui/models/Lora 文件夾下。
具體命令:
cd /root/workspace
ls
jupyterlab.log shinkai_makoto_offset.safetensors stable-diffusion-webui.log
cp shinkai_makoto_offset.safetensors /release/stable-diffusion-webui/models/Lora
cd /release/stable-diffusion-webui/models/Lora
ls
Cute_Animals.safetensors SuoiresnuStyle-Rech44.safetensors ZhouShuyi.safetensors capi-09.safetensors mix4.safetensors
GuoFeng3.2_Lora.safetensors YaeMiko_mixed.safetensors cZhouShuyi.safetensors koreanDollLikeness_v15.safetensors shinkai_makoto_offset.safetensors
注意,這里的 shinkai_makoto_offset.safetensors 是我下載的 Lora 文件
- 當(dāng)看到下載的 Lora 模型文件已經(jīng)存在 Lora 文件夾下,重新打開(kāi) Stable Diffusion WebUI,點(diǎn)擊右側(cè)紅圈中的 icon,稍等片刻,可以看到 Lora 界面被打開(kāi)
5. 點(diǎn)擊 Lora 之后,可以看到當(dāng)前 Stable Diffusion 已經(jīng)安裝的 Lora,找到自己上傳的 Lora,就會(huì)在 Prompt 產(chǎn)生一行對(duì)該 Lora 的引用。
至此,當(dāng)前的 Stable Diffusion 版本已經(jīng)裝好了某個(gè)自己喜歡的 Lora,同理 , 可以用同樣的操作方式安裝 Checkpoint、 Embedding 等。
接下來(lái)我們使用 InsCode Stable Diffusion 來(lái)進(jìn)行 AI 繪圖。
五、使用 InsCode Stable Diffusion 進(jìn)行 AI 繪圖
下面是我的一些生成例子的圖片展示,附帶參數(shù)設(shè)置以提示詞和種子:
生成圖一
參數(shù)配置:
Steps(采樣迭代步數(shù)): 30
Sampler(采樣方法): Euler a
生成批次:1
批次數(shù)量:1
CFG scale: 7
Size: 768x1024
Model hash: 7234b76e42
Model: chilloutmix-Ni
Version: v1.2.0
Seed: 162297642
提示詞:
Prompt: Best quality,raw photo,seductive smile,cute,realistic lighting,beautiful detailed eyes,(collared shirt:1.1),bowtie,pleated skirt,floating long hair,beautiful detailed sky,
Negtive Prompt: Negative prompt: nsfw, ng_deepnegative_v1_75t,badhandv4, (worst quality:2), (low quality:2), (normal quality:2), lowres,watermark, monochrome
生成圖二
參數(shù)配置:
Steps(采樣迭代步數(shù)): 30
Sampler(采樣方法): Euler a
生成批次:1
批次數(shù)量:1
CFG scale: 7
Size: 768x1024
Model hash: 74c61c3a52
Model: GuoFeng3
Version: v1.2.0
Seed: 1110161009
提示詞:
Prompt: best quality,red clothes,smile,handsome girl,fairy and elegant aura,delicate makeup,
Negtive Prompt: nsfw,ng_deepnegative_v1_75t,badhandv4,(worst quality:2),(low quality:2),(normal quality:2),lowres,watermark,monochrome,modern element,topless female,
生成圖三
在圖三圖四中使用了 Makoto Shinkai 的 Lora 模型,可以生成新海誠(chéng)畫風(fēng)圖片
參數(shù)配置:
Steps(采樣迭代步數(shù)): 30
網(wǎng)上學(xué)習(xí)資料一大堆,但如果學(xué)到的知識(shí)不成體系,遇到問(wèn)題時(shí)只是淺嘗輒止,不再深入研究,那么很難做到真正的技術(shù)提升。
需要這份系統(tǒng)化的資料的朋友,可以添加V獲取:vip204888 (備注鴻蒙)
一個(gè)人可以走的很快,但一群人才能走的更遠(yuǎn)!不論你是正從事IT行業(yè)的老鳥(niǎo)或是對(duì)IT行業(yè)感興趣的新人,都?xì)g迎加入我們的的圈子(技術(shù)交流、學(xué)習(xí)資源、職場(chǎng)吐槽、大廠內(nèi)推、面試輔導(dǎo)),讓我們一起學(xué)習(xí)成長(zhǎng)!文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-854417.html
參數(shù)配置:
Steps(采樣迭代步數(shù)): 30
網(wǎng)上學(xué)習(xí)資料一大堆,但如果學(xué)到的知識(shí)不成體系,遇到問(wèn)題時(shí)只是淺嘗輒止,不再深入研究,那么很難做到真正的技術(shù)提升。
需要這份系統(tǒng)化的資料的朋友,可以添加V獲?。簐ip204888 (備注鴻蒙)
[外鏈圖片轉(zhuǎn)存中…(img-xBbfMEtY-1713139917021)]文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-854417.html
一個(gè)人可以走的很快,但一群人才能走的更遠(yuǎn)!不論你是正從事IT行業(yè)的老鳥(niǎo)或是對(duì)IT行業(yè)感興趣的新人,都?xì)g迎加入我們的的圈子(技術(shù)交流、學(xué)習(xí)資源、職場(chǎng)吐槽、大廠內(nèi)推、面試輔導(dǎo)),讓我們一起學(xué)習(xí)成長(zhǎng)!
到了這里,關(guān)于InsCode Stable Diffusion使用教程(非常詳細(xì))從零基礎(chǔ)入門到精通,看完這一篇就夠了_outpainting 模型下載的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!