国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Stable Diffusion WebUI 從零基礎(chǔ)到入門

這篇具有很好參考價(jià)值的文章主要介紹了Stable Diffusion WebUI 從零基礎(chǔ)到入門。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

本文主要介紹Stable Diffusion WebUI的實(shí)際操作方法,涵蓋prompt推導(dǎo)、lora模型、vae模型和controlNet應(yīng)用等內(nèi)容,并給出了可操作的文生圖、圖生圖實(shí)戰(zhàn)示例。適合對(duì)Stable Diffusion感興趣,但又對(duì)Stable Diffusion WebUI使用感到困惑的同學(xué),希望通過本文能夠降低大家對(duì)Stable Diffusion WebUI的學(xué)習(xí)成本,更快速的體驗(yàn)到AIGC圖像生成的魅力。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

引言

Stable Diffusion (簡(jiǎn)稱sd)是一個(gè)深度學(xué)習(xí)的文本到圖像生成模型, Stable Diffusion WebUI是對(duì)Stable Diffusion模型進(jìn)行封裝,提供可操作界面的工具軟件。Stable Diffusion WebUI上加載的模型,是在Stable Diffusion 基座模型基礎(chǔ)上,為了獲得在某種風(fēng)格上的更高質(zhì)量的生成效果,而進(jìn)行再次訓(xùn)練后產(chǎn)生的模型。目前 Stable Diffusion ?1.5版本是社區(qū)內(nèi)最盛行的基座模型。

???安裝

sd web-ui的安裝請(qǐng)參考:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs

?

sd web-ui使用了gradio組件包,gradio在配置share=True時(shí),會(huì)創(chuàng)建frpc隧道并鏈接到aws,詳情可參考(https://www.gradio.app/guides/sharing-your-app),因此在sd web-ui應(yīng)用啟動(dòng)時(shí),請(qǐng)根據(jù)自身安全生產(chǎn)或隱私保護(hù)要求,考慮是否禁止開啟share=True配置,或刪除frpc客戶端。

???模型

?https://civitai.com/是一個(gè)開源的sd模型社區(qū),提供了豐富的模型免費(fèi)下載和使用。在此簡(jiǎn)述一下模型的分類,有助于提高對(duì)sd web-ui的使用。sd模型訓(xùn)練方法主要分為四類:Dreambooth, LoRA,Textual Inversion,Hypernetwork。

  1. Dreambooth:在sd基座模型的基礎(chǔ)上,通過 Dreambooth 訓(xùn)練方式得到的大模型, 是一個(gè)完整的新模型,訓(xùn)練速度較慢,生成模型文件較大,一般幾個(gè)G,模型文件格式為 safetensors 或 ckpt。特點(diǎn)是出圖效果好,在某些藝術(shù)風(fēng)格上有明顯的提升。如下圖所示,sd web-ui中該類模型可以在這里進(jìn)行選擇。

    Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

  2. LoRA: 一種輕量化的模型微調(diào)訓(xùn)練方法,在原有大模型的基礎(chǔ)上對(duì)該模型進(jìn)行微調(diào),用于輸出固定特征的人或事物。特點(diǎn)是對(duì)于特定風(fēng)格的圖產(chǎn)出效果好,訓(xùn)練速度快,模型文件小,一般幾十到一百多 MB,不能獨(dú)立使用,需要搭配原有大模型一起使用。sd web-ui提供了lora模型插件,以及使用lora模型的方式,具體操作可見本文的 "操作流程->lora模型" 。

  3. Textual Inversion:一種使用文本提示和對(duì)應(yīng)的風(fēng)格圖片來(lái)微調(diào)訓(xùn)練模型的方法,文本提示一般為特殊的單詞,模型訓(xùn)練完成后,可以在text prompts中使用這些單詞,來(lái)實(shí)現(xiàn)對(duì)模型生成圖片風(fēng)格和細(xì)節(jié)的控制,需要搭配原有的大模型一起使用。

  4. Hypernetwork:與LoRA類似的微調(diào)訓(xùn)練大模型的方法,需要搭配原有的大模型一起使用。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

操作流程

???prompt推導(dǎo)
  1. 在sd中上傳一張圖片

  2. 反向推導(dǎo)關(guān)鍵詞,有兩個(gè)模型CLIP和DeepBooru,以圖1為例:

圖1: iphone 14 pro max 原相機(jī)拍攝的高清照片

使用CLIP進(jìn)行prompt反推的結(jié)果:

a baby is laying on a blanket surrounded by balloons and balls in the air and a cake with a name on it, Bian Jingzhao, phuoc quan, a colorized photo, dada

使用DeepBooru進(jìn)行prompt反推的結(jié)果:

1boy, ball, balloon, bubble_blowing, chewing_gum, hat, holding_balloon, male_focus, military, military_uniform, open_mouth, orb, solo, uniform, yin_yang

CLIP反推結(jié)果是一個(gè)句子,DeepBooru的反推結(jié)果是關(guān)鍵詞。

可以修改正向prompt,也可以添加反向prompt,反向prompt用于限制模型在生產(chǎn)圖片時(shí)不添加反向prompt中出現(xiàn)的元素。反向prompt不是必須的,可以不填。

???lora模型

lora模型對(duì)大模型生成圖的風(fēng)格和質(zhì)量有很強(qiáng)的干預(yù)或增強(qiáng)作用,但是lora模型需要與配套的大模型一起使用,不能單獨(dú)使用。在sd-webui中使用lora模型的方式主要有兩種:

  • 方法一

安裝additional-network插件,插件的github地址:https://github.com/kohya-ss/sd-webui-additional-networks,在sd-webui上可以在擴(kuò)展中直接下載安裝。該插件僅支持使用sd-script腳本訓(xùn)練的lora模型,目前https://civitai.com/上絕大多數(shù)的開源lora模型都是基于此腳本訓(xùn)練的,因此該插件支持絕大多數(shù)的lora模型。下載的lora模型需要放到

*/stable-diffusion-webui/extensions/sd-webui-additional-networks/models/lora

路徑下, 新增模型需要重啟sd-webui,插件和模型正確加載后,會(huì)在webui操作界面的左下角中出現(xiàn)“可選附加網(wǎng)絡(luò)(LoRA插件)” 。在生成圖片時(shí)觸發(fā)lora,需要在插件中選中l(wèi)ora模型,并在正向提示詞中加入Trigger Words。下圖中選中的lora模型為blinndbox_v1_mix, trigger words為full body,chibi, 每個(gè)lora模型有自己獨(dú)有的Trigger Words,在模型的簡(jiǎn)介中會(huì)注明。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

如果插件在點(diǎn)擊安裝后沒有反應(yīng),或者提示因?yàn)镕lag引起的錯(cuò)誤,是因?yàn)閣ebui啟動(dòng)時(shí)允許擴(kuò)展插件的設(shè)置配置為禁止,需要在webui啟動(dòng)時(shí)添加啟動(dòng)參數(shù):--enable-insecure-extension-access

./webui.sh --xformers --enable-insecure-extension-access
  • 方法二

不使用additional-network插件,使用sd-webui默認(rèn)支持的lora模型使用方式,需要將lora模型放到

*/stable-diffusion-webui/models/Lora

目錄下,重新啟動(dòng)sd-webui即可自動(dòng)載入模型。

在正向提示詞中加入lora模型啟用語(yǔ)句,生產(chǎn)圖片時(shí)即可觸發(fā)lora模型:

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

web-ui提供了自動(dòng)填充lora提示語(yǔ)句的功能,點(diǎn)擊如圖所示的圖標(biāo),可以打開lora模型列表,然后點(diǎn)擊模型區(qū)域,語(yǔ)句會(huì)自動(dòng)填充到正向提示詞區(qū)域:

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

以上兩種方式,選用其中任意一種均能使lora模型在內(nèi)容生產(chǎn)中生效,兩種方式同時(shí)使用也不會(huì)引起問題。

???ControlNet

controlNet通過支持額外的輸入條件,試圖控制預(yù)訓(xùn)練的大模型,如Stable Diffusion。單純的文本控制方式令內(nèi)容的生產(chǎn)就像碰運(yùn)氣抽卡,結(jié)果無(wú)法控制且不容易達(dá)到預(yù)期效果,controlNet的出現(xiàn)使stable diffusion大模型的內(nèi)容生成進(jìn)入可控時(shí)期,讓創(chuàng)作變得可控使得AIGC在工業(yè)應(yīng)用上更進(jìn)一步。

  • 安裝controlNet

在sd-webui上,點(diǎn)擊擴(kuò)展,進(jìn)入插件安裝頁(yè)面,找到controlNet插件,點(diǎn)擊install即可完成插件安裝。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

下載開源的controlnet模型

下載地址:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main?

一個(gè)模型由兩個(gè)文件組成: .pth 和 .yaml,需要同時(shí)下載。文件名中"V11"后面的字母,p:表示可以使用,e:表示還在試驗(yàn)中,u:表示未完成。下載好的模型放在如下目錄,重啟sd-webui 即可完成controlnet模型加載。

*\stable-diffusion-webui\extensions\sd-webui-controlnet\models
???圖生圖示例
  • 模型選擇

1、stable diffusion大模型選用:revAnimated_v11 (https://civitai.com/models/7371?modelVersionId=46846)

2、lora模型選用blind_box_v1_mix (https://civitai.com/models/25995?modelVersionId=32988)

3、采樣方法Euler a

4、源圖片使用 圖1,使用DeepBooru模型進(jìn)行正向prompts生成, 添加revAnimated_v11的特定prompts, 刪除一些正向prompts,添加反向prompts,最后使用的prompt如下所示。

正向:

(masterpiece),(best quality), (full body:1.2), (beautiful detailed eyes), 1boy, hat, male, open_mouth, smile, cloud, solo, full body, chibi, military_uniform, <lora:blindbox_v1_mix:1>

反向:

(low quality:1.3), (worst quality:1.3)

生成的圖片為:

圖1:原圖片

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

圖2:sd生成圖片

5、保持生成圖片的條件不變,添加ControlNet模型,選擇Openpose,control mode選擇 balance ,生成的圖片如下所示,生成的人物動(dòng)作因?yàn)镺penpose的作用被約束了,與原圖像保持的更為相似。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

圖3:sd生成圖片(添加openpose)

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

圖4: openpose生成的圖片

???文生圖示例
  • 模型選擇

  1. stable diffusion大模型選用:revAnimated_v11 (https://civitai.com/models/7371?modelVersionId=46846)

  2. lora模型選用blind_box_v1_mix (https://civitai.com/models/25995?modelVersionId=32988)

  3. 采樣方法Euler a

示例1

提示詞

正向:

(masterpiece),(best quality),(ultra-detailed), (full body:1.2), 1girl, youth, dynamic, smile, palace,tang dynasty, shirt, long hair, blurry, black hair, blush stickers, black hair, (beautiful detailed face), (beautiful detailed eyes), <lora:blindbox_v1_mix:1>, full body, chibi

反向:

(low quality:1.3), (worst quality:1.3)

生成的圖片為:

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

圖5: 文生圖實(shí)例1

示例2

提示詞

正向:

(masterpiece),(best quality),(ultra-detailed), (full body:1.2), 1girl,chibi,sex, smile, open mouth, flower, outdoors, beret, jk, blush, tree, :3, shirt, short hair, cherry blossoms, blurry, brown hair, blush stickers, long sleeves, bangs, black hair, pink flower, (beautiful detailed face), (beautiful detailed eyes), <lora:blindbox_v1_mix:1>,

反向:

(low quality:1.3), (worst quality:1.3)

生成圖片為:

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

圖6: 文生圖實(shí)例2

提示詞解析
  1. (masterpiece),(best quality),(ultra-detailed), (full body:1.2), (beautiful detailed face), (beautiful detailed eyes) 這些帶()的詞為revAnimated_v11 模型配套prompts,用于提高圖片的生成質(zhì)量。

  2. <lora:blindbox_v1_mix:1> 是觸發(fā) blind_box_v1_mix 模型的 prompt。

  3. full body, chibi 為 blind_box_v1_mix 模型的 trigger words。

  4. 剩下的prompts為圖片內(nèi)容的描述。

  5. revAnimated_v11 模型對(duì)prompt的順序是敏感的,排在前面的提示詞比排在后面的prompt對(duì)結(jié)果的影響更大。

???VAE

在sd的實(shí)際使用中,vae模型起到濾鏡和微調(diào)的作用,有些sd模型是自帶vae的,并不需要單獨(dú)掛載vae。與模型配套的vae的模型,通常會(huì)在模型的發(fā)布頁(yè)面會(huì)附帶vae的下載鏈接。

  • 模型的安裝

下載vae模型到sd web-ui的如下目錄,重啟sd web-ui,即可自動(dòng)完成vae模型加載。

/stable-diffusion-webui/models/VAE

如下圖所示,在sd web-ui上可以切換vae模型。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

如果we-ui上看不到此選擇框,則到設(shè)置-> 用戶界面-> 快捷設(shè)置列表 添加配置 "sd_vae",如下所示:

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

  • 效果

在保持圖6生成條件不變的基礎(chǔ)上,附加Blessed2(https://huggingface.co/NoCrypt/blessed_vae/blob/main/blessed2.vae.pt)模型,圖片的顏色和對(duì)比度有了明顯的變化。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

圖7: 添加vae模型前

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

圖8:添加vae模型后圖片的飽和度和對(duì)比度都有提升

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

結(jié)束語(yǔ)

  1. sd web-ui的學(xué)習(xí)曲線比較陡峭,具有一定的圖像處理領(lǐng)域知識(shí)能夠幫助用戶更好的選擇和組合模型。

  2. 零基礎(chǔ)小白用戶容易出現(xiàn)隨便選擇模型,胡亂組合,對(duì)著sd web-ui界面進(jìn)行一系列操作后,出圖效果和預(yù)期完全不符的情況,建議先了解每個(gè)模型的特點(diǎn)后再根據(jù)實(shí)際目標(biāo)進(jìn)行選擇。

  3. sd是開源的,sd web-ui是一個(gè)工具箱,不是一個(gè)商業(yè)產(chǎn)品,社區(qū)中有很多效果很棒的模型,出圖的上限很高,但下限也很低,開源不代表沒有成本,因?yàn)閟d we-ui部署要求較高的硬件配置。要節(jié)省學(xué)習(xí)成本,較為穩(wěn)定的出圖效果,簡(jiǎn)單便捷的用戶體驗(yàn),沒有硬件配置要求,midjourney 是當(dāng)前的首選,但需要支付訂閱費(fèi)。

Stable Diffusion WebUI 從零基礎(chǔ)到入門,stable diffusion

團(tuán)隊(duì)介紹

我們是大淘寶FC技術(shù)智能策略團(tuán)隊(duì),負(fù)責(zé)手機(jī)天貓搜索、推薦、拍立享等業(yè)務(wù)研發(fā)和技術(shù)平臺(tái)建設(shè),綜合運(yùn)用搜推算法、機(jī)器視覺、AIGC等前沿技術(shù),致力于依靠技術(shù)的進(jìn)步支持場(chǎng)景的提效和產(chǎn)品的創(chuàng)新,為用戶帶來(lái)更好的購(gòu)物體驗(yàn)。

¤?拓展閱讀?¤

3DXR技術(shù)?|?終端技術(shù)?|?音視頻技術(shù)

服務(wù)端技術(shù)?|?技術(shù)質(zhì)量?|?數(shù)據(jù)算法文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-656312.html

到了這里,關(guān)于Stable Diffusion WebUI 從零基礎(chǔ)到入門的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • stable diffusion webui 教程:安裝與入門

    stable diffusion webui 教程:安裝與入門

    Stable diffusion是一種用于圖像處理的算法,主要用于處理圖像中的噪聲問題。該算法的源代碼和實(shí)現(xiàn)可以根據(jù)不同的編程語(yǔ)言和庫(kù)進(jìn)行實(shí)現(xiàn),以下是對(duì)Python中使用的源代碼進(jìn)行分析: 1.導(dǎo)入庫(kù)和模塊 該算法主要使用了NumPy和OpenCV庫(kù),前者是Python中用于數(shù)值計(jì)算的基礎(chǔ)庫(kù),后者是

    2024年02月09日
    瀏覽(28)
  • Stable Diffusion webui 基礎(chǔ)參數(shù)學(xué)習(xí)

    Stable Diffusion webui 基礎(chǔ)參數(shù)學(xué)習(xí)

    哈嘍,各位小伙伴們大家好,最近一直再研究人工智能類的生產(chǎn)力,不得不說隨著時(shí)代科技的進(jìn)步讓人工智能也得到了突破性的發(fā)展。而小編前段時(shí)間玩畫畫也是玩的不可自拔,你能想想得到,一個(gè)完全不會(huì)畫畫的有一天也能創(chuàng)作出繪畫作品。 熟知小編教學(xué)的小伙伴都知道,

    2024年02月10日
    瀏覽(21)
  • Stable Diffusion 繪畫入門教程(webui)-提示詞

    Stable Diffusion 繪畫入門教程(webui)-提示詞

    通過上一篇文章大家應(yīng)該已經(jīng)掌握了sd的使用流程,本篇文章重點(diǎn)講一下提示詞應(yīng)該如何寫 AI繪畫本身就是通過我們寫一些提示詞,然后生成對(duì)應(yīng)的畫面,所以提示詞的重要性不言而喻。 要想生成更加符合自己腦海里畫面的圖片,就盡量按照標(biāo)準(zhǔn)化把提示詞按照模版寫

    2024年02月21日
    瀏覽(25)
  • AI繪圖入門 安裝 stable-diffusion-webui

    AI繪圖入門 安裝 stable-diffusion-webui

    先看樣張: https://www.python.org/downloads/ Git - Downloads (git-scm.com) 1. 新建文件夾 (不能有中文,建議放在空閑比較多的硬盤上),然后再文件夾打開命令行 2. 克隆 Nvidia顯卡 AMD顯卡 AMD GPU 說明 CPU 選擇上面任意一個(gè)都可以 下載慢可以請(qǐng)求頭加https://ghproxy.com/ 如: https://ghproxy.com/

    2024年02月06日
    瀏覽(53)
  • 【shell編程入門】stable diffusion webui的webui.sh腳本解析

    通過webui.sh,我們可以在linux系統(tǒng)下安裝虛擬環(huán)境,并啟動(dòng)stable diffuson webui。 BASH_SOURCE[0] : 這是一個(gè)包含當(dāng)前 Bash 腳本文件名的數(shù)組。 ${BASH_SOURCE[0]} 表示當(dāng)前腳本的文件名。 dirname -- \\\"${BASH_SOURCE[0]}\\\" : dirname 命令用于獲取文件路徑的目錄部分。這里它獲取了 ${BASH_SOURCE[0]} 即當(dāng)前

    2024年01月21日
    瀏覽(27)
  • InsCode Stable Diffusion使用教程(非常詳細(xì))從零基礎(chǔ)入門到精通,看完這一篇就夠了_outpainting 模型下載

    InsCode Stable Diffusion使用教程(非常詳細(xì))從零基礎(chǔ)入門到精通,看完這一篇就夠了_outpainting 模型下載

    先自我介紹一下,小編浙江大學(xué)畢業(yè),去過華為、字節(jié)跳動(dòng)等大廠,目前阿里P7 深知大多數(shù)程序員,想要提升技能,往往是自己摸索成長(zhǎng),但自己不成體系的自學(xué)效果低效又漫長(zhǎng),而且極易碰到天花板技術(shù)停滯不前! 因此收集整理了一份《2024年最新HarmonyOS鴻蒙全套學(xué)習(xí)資料

    2024年04月17日
    瀏覽(30)
  • stable diffusion實(shí)踐操作-webUI教程-不是基礎(chǔ)-是特例妙用

    stable diffusion實(shí)踐操作-webUI教程-不是基礎(chǔ)-是特例妙用

    stable diffusion實(shí)踐操作 提示:寫完文章后,目錄可以自動(dòng)生成,如何生成可參考右邊的幫助文檔 本章主要介紹SD webUI的一些使用教程。 提示:以下是本篇文章正文內(nèi)容 SD webUI 是SD官方提供的一個(gè)UI界面,可以用來(lái)操作SD,界面如下: 插件是webUI的一部分,插件安裝好,還要需要

    2024年02月10日
    瀏覽(15)
  • 關(guān)于【Stable-Diffusion WEBUI】基礎(chǔ)模型對(duì)應(yīng)VAE的問題

    關(guān)于【Stable-Diffusion WEBUI】基礎(chǔ)模型對(duì)應(yīng)VAE的問題

    本篇主要提及模型的VAE,通常情況下我們不用考慮它,但是有些特別是早期模型并沒有整合VAE…… 更多不斷豐富的內(nèi)容參考:?? 《繼續(xù)Stable-Diffusion WEBUI方方面面研究(內(nèi)容索引)》 VAE (Variational Auto-Encoder 變分自動(dòng)編碼器) 雖然簡(jiǎn)稱是編碼器,實(shí)際上是編碼解碼器(我們用到

    2024年02月09日
    瀏覽(42)
  • 淺談【Stable-Diffusion WEBUI】(AI繪圖)的基礎(chǔ)和使用

    淺談【Stable-Diffusion WEBUI】(AI繪圖)的基礎(chǔ)和使用

    如果你對(duì)這方面是零基礎(chǔ),可以閱讀本篇的內(nèi)容,至少可以上手。 更多不斷豐富的內(nèi)容參考:?? 《繼續(xù)Stable-Diffusion WEBUI方方面面研究(內(nèi)容索引)》 最近比較熱門的人工智能,可以單純通過輸入一段文字(提示詞),或者通過一張圖片生成新的繪圖作品。 根據(jù)基礎(chǔ)模型和人

    2024年02月05日
    瀏覽(18)
  • 帶你從零開始入門AI繪畫神器Stable Diffusion

    帶你從零開始入門AI繪畫神器Stable Diffusion

    一、本地部署?Stable diffusion 1. 前言 目前市面上比較權(quán)威,并能用于工作中的 AI 繪畫軟件其實(shí)就兩款。一個(gè)叫?Midjourney(簡(jiǎn)稱 MJ),另一個(gè)叫 Stable-Diffusion(簡(jiǎn)稱 SD)。MJ 需要付費(fèi)使用,而 SD 開源免費(fèi),但是上手難度和學(xué)習(xí)成本略大,并且非常吃電腦配置(顯卡、內(nèi)存)。

    2024年02月10日
    瀏覽(89)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包