AI GC text to pic 圖像生成模型
?目前隨著AIGC模型的火爆,AI內(nèi)容創(chuàng)作遠(yuǎn)超人類創(chuàng)造水平和能力,極大了提升了創(chuàng)作空間。
為此我們要接觸新鮮事物,用于嘗試新技術(shù)。
那針對目前火爆的AImodel我們開始進(jìn)行學(xué)習(xí),嘗試本地化部署,生成自己的模型。
先感性的認(rèn)識下模型的基礎(chǔ)知識。
一、AI模型的基本介紹
什么時大模型/底模型,VAE模型和微調(diào)模型/fune tuning
大模型/底模型:Stable diffusion:V1.4/v1.5/v2.0/v2.1都是大模型,泛化性通用性好,大模型自帶VAE模型,不額外掛在
VAE模型:圖形生產(chǎn)的最后為我們解碼成可是圖形的必備模型,有些大模型會內(nèi)嵌
微調(diào)模型:在大模型基礎(chǔ)山的微調(diào)模型,可選的,可以特定生產(chǎn)圖像
? ? ? ? LoRA/Embedding/Hypernetwork:是特定領(lǐng)域圖形的微調(diào)模型
? ? ? ? Dreambooth:是訓(xùn)練后的大模型
Checkpoint: 模型是某一特定訓(xùn)練后保存參數(shù)的模型,某一階段的模型版本
即checkpoint = 大模型= dreambooth
二、模型后綴
? ? ? ? safetensor.以.safetensors為后綴,加載速度快,更加安全
????????pickletensor以.ckpt為后綴,開源,但可能存在惡意代碼,加載速度相對較慢
? ? ? ? pruned:剪枝模型,存儲小,效率搞,優(yōu)化后的神經(jīng)網(wǎng)絡(luò)
? ??????ema:泛化能力強(qiáng),優(yōu)化后的神經(jīng)網(wǎng)絡(luò)模型
? ? ? ? ft/fp: ft16/ft32標(biāo)識模型精度,推薦ft32
三、stable difussion webui
ComfyUI:https://github.com/comfyanonymous/ComfyUI文章來源:http://www.zghlxwxcb.cn/news/detail-423827.html
?文章來源地址http://www.zghlxwxcb.cn/news/detail-423827.html
到了這里,關(guān)于AI圖像(AIGC for PIC)大模型實戰(zhàn)|Stable Diffusion的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!