国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Stable Diffusion XL on diffusers

這篇具有很好參考價值的文章主要介紹了Stable Diffusion XL on diffusers。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Stable Diffusion XL on diffusers

翻譯自:https://huggingface.co/docs/diffusers/using-diffusers/sdxl v0.24.0 非逐字翻譯

Stable Diffusion XL (SDXL) 是一個強大的圖像生成模型,其在上一代 Stable Diffusion 的基礎(chǔ)上主要做了如下優(yōu)化:

  1. 參數(shù)量增加:SDXL 中 Unet 的參數(shù)量比前一代大了 3 倍,并且 SDXL 還引入了第二個 text-encoder(OpenCLIP ViT-bigG/14),整體參數(shù)量大幅增加。
  2. 引入了 size-conditioning 和 crop conditioning,在訓(xùn)練階段有效利用起低分辨率圖像,并在推理對生成的圖片是否需要裁剪有更好的控制。
  3. 使用了兩階段的生成過程,除了第一階段的 base 模型生成之外,還加入了一個 refiner 模型,使得生成圖像的細節(jié)質(zhì)量更高(其中 base 模型也可以單獨使用,直接生成)

本文將介紹如何使用 diffusers 進行 text-to-image、image-to-image 和 inpainting。

加載模型參數(shù)

模型參數(shù)分別保存在不同的子目錄中,可以使用 from_pretrained 方法來加載:

from diffusers import StableDiffusionXLPipeline, StableDiffusionXLImg2ImgPipeline
import torch

pipeline = StableDiffusionXLPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

refiner = StableDiffusionXLImg2ImgPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-refiner-1.0", torch_dtype=torch.float16, use_safetensors=True, variant="fp16"
).to("cuda")

也可以使用 from_single_file 方法來從單個文件 ( .ckpt 或 .safetensors) 中加載:

from diffusers import StableDiffusionXLPipeline, StableDiffusionXLImg2ImgPipeline
import torch

pipeline = StableDiffusionXLPipeline.from_single_file(
    "https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0.safetensors", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

refiner = StableDiffusionXLImg2ImgPipeline.from_single_file(
    "https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/blob/main/sd_xl_refiner_1.0.safetensors", torch_dtype=torch.float16, use_safetensors=True, variant="fp16"
).to("cuda")

text-to-image

在進行 text-to-image 生成時,需要傳入文本 prompt。SDXL 默認生成分辨率為 1024 * 1024,也可以設(shè)置為 768 或 512,但不要再低于 512 了:

from diffusers import AutoPipelineForText2Image
import torch

pipeline_text2image = AutoPipelineForText2Image.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipeline_text2image(prompt=prompt).images[0]
image

importerror: cannot import name 'stablediffusionxlpipeline' from 'diffusers,diffusion,stable diffusion,人工智能,深度學(xué)習(xí)

image-to-image

在進行 image-to-image 生成時,SDXL 在 768 - 1024 這個分辨率區(qū)間工作的最好。此時需要輸入一張原始圖像,并給一段文本 prompt:

from diffusers import AutoPipelineForImage2Image
from diffusers.utils import load_image, make_image_grid

# 使用 from_pipe,避免在加載 checkpoint 時消耗額外的內(nèi)存
pipeline = AutoPipelineForImage2Image.from_pipe(pipeline_text2image).to("cuda")

url = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/sdxl-text2img.png"
init_image = load_image(url)
prompt = "a dog catching a frisbee in the jungle"
image = pipeline(prompt, image=init_image, strength=0.8, guidance_scale=10.5).images[0]
make_image_grid([init_image, image], rows=1, cols=2)

importerror: cannot import name 'stablediffusionxlpipeline' from 'diffusers,diffusion,stable diffusion,人工智能,深度學(xué)習(xí)

inpainting

在記性 inpainting 時,需要傳入一張原始圖片和原始圖片中你想要修改部分的 mask 圖,并給一個文本 prompt 來描述 mask 區(qū)域需要生成什么內(nèi)容:

from diffusers import AutoPipelineForInpainting
from diffusers.utils import load_image, make_image_grid


pipeline = AutoPipelineForInpainting.from_pipe(pipeline_text2image).to("cuda")

img_url = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/sdxl-text2img.png"
mask_url = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/sdxl-inpaint-mask.png"

init_image = load_image(img_url)
mask_image = load_image(mask_url)

prompt = "A deep sea diver floating"
image = pipeline(prompt=prompt, image=init_image, mask_image=mask_image, strength=0.85, guidance_scale=12.5).images[0]
make_image_grid([init_image, mask_image, image], rows=1, cols=3)

importerror: cannot import name 'stablediffusionxlpipeline' from 'diffusers,diffusion,stable diffusion,人工智能,深度學(xué)習(xí)

refine image quality

SDXL 相比于之前的 SD 模型,一個很大的差別在于它包含了一個 refiner 模型。refiner 模型 可以接收 base 模型經(jīng)過幾步去噪之后的低噪聲圖像,并為圖像生成更多高質(zhì)量的細節(jié)。有兩種使用 refiner 模型的方式:

  1. 同時使用 base 模型和 refiner 模型,來生成高質(zhì)量圖片
  2. 使用 base 模型生成一張圖片,然后使用 refiner 模型為圖片添加更多的細節(jié)(這是 SDXL 訓(xùn)練時的方式)

接下來分別介紹這兩種方式的使用。

base + refiner model

當使用第一種方式,即同時使用 base 模型和 refiner 模型來生成圖片時,稱為 ensemble of expert denoisers。這種方式相比于第二種將 base 模型的輸出給 refiner 模型中的方式來說,整體需要的去噪步數(shù)更少,因此會快很多。但這種方式我們看到的 base 模型的輸出是帶有一些噪聲的。

在第一種方式中,base 模型負責(zé)高噪聲階段的去噪,refiner 模型負責(zé)低噪聲階段的去噪。首先加載 base 模型和 refiner 模型:

from diffusers import DiffusionPipeline
import torch

base = DiffusionPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

refiner = DiffusionPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-refiner-1.0",
    text_encoder_2=base.text_encoder_2,
    vae=base.vae,
    torch_dtype=torch.float16,
    use_safetensors=True,
    variant="fp16",
).to("cuda")

在使用 ensemble of expert denoisers 這種方式時,我們需要定義不同的模型在他們各自階段的去噪步數(shù)。對于 base 模型,需要 denoising_end 參數(shù),對于 refiner 模型,需要 denoising_start 參數(shù)。

denoising_startdenoising_end 參數(shù)都時 0-1 之間的一個小數(shù),用于表示當前 schduler 下步數(shù)的比例。如果同時還傳入了 strength 參數(shù),它將被忽略,因為去噪步驟的數(shù)量是由模型訓(xùn)練的離散時間步長和聲明的比例截止值決定的。

這里,我們設(shè)置 denoising_end 為 0.8,從而 base 模型會負責(zé)前 80% 的高噪聲階段的降噪,并設(shè)置 denoising_start 為 0.8,從而 refiner 模型會負責(zé)后 20% 的低噪聲階段的降噪。注意 base 模型的輸出是在隱層 latent 空間的,而非可見的圖片。

prompt = "A majestic lion jumping from a big stone at night"

image = base(
    prompt=prompt,
    num_inference_steps=40,
    denoising_end=0.8,
    output_type="latent",
).images
image = refiner(
    prompt=prompt,
    num_inference_steps=40,
    denoising_start=0.8,
    image=image,
).images[0]
image

importerror: cannot import name 'stablediffusionxlpipeline' from 'diffusers,diffusion,stable diffusion,人工智能,深度學(xué)習(xí)

在 StableDiffusionXLInpaintPipeline 中,refiner 模型也可以用于進行 inpainting:

from diffusers import StableDiffusionXLInpaintPipeline
from diffusers.utils import load_image, make_image_grid
import torch

base = StableDiffusionXLInpaintPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

refiner = StableDiffusionXLInpaintPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-refiner-1.0",
    text_encoder_2=base.text_encoder_2,
    vae=base.vae,
    torch_dtype=torch.float16,
    use_safetensors=True,
    variant="fp16",
).to("cuda")

img_url = "https://raw.githubusercontent.com/CompVis/latent-diffusion/main/data/inpainting_examples/overture-creations-5sI6fQgYIuo.png"
mask_url = "https://raw.githubusercontent.com/CompVis/latent-diffusion/main/data/inpainting_examples/overture-creations-5sI6fQgYIuo_mask.png"

init_image = load_image(img_url)
mask_image = load_image(mask_url)

prompt = "A majestic tiger sitting on a bench"
num_inference_steps = 75
high_noise_frac = 0.7

image = base(
    prompt=prompt,
    image=init_image,
    mask_image=mask_image,
    num_inference_steps=num_inference_steps,
    denoising_end=high_noise_frac,
    output_type="latent",
).images
image = refiner(
    prompt=prompt,
    image=image,
    mask_image=mask_image,
    num_inference_steps=num_inference_steps,
    denoising_start=high_noise_frac,
).images[0]
make_image_grid([init_image, mask_image, image.resize((512, 512))], rows=1, cols=3)

這種 ensemble of expert denoisers 的方式對于所有 scheduler 都可用。

base to refiner model

第二種方式通過 base 模型先生成一張完全去噪的圖片,然后使用 refiner 模型以 image-to-image 的形式,為圖片添加更多的高質(zhì)量細節(jié),這使得 SDXL 的生成質(zhì)量有了極大的提高。首先加載 base 和 refiner 模型:

from diffusers import DiffusionPipeline
import torch

base = DiffusionPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

refiner = DiffusionPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-refiner-1.0",
    text_encoder_2=base.text_encoder_2,
    vae=base.vae,
    torch_dtype=torch.float16,
    use_safetensors=True,
    variant="fp16",
).to("cuda")

先使用 base 模型生成一張圖片,注意將輸出形式設(shè)置為 latent:

prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"

image = base(prompt=prompt, output_type="latent").images[0]

將生成的圖片輸入到 refiner 模型中:

image = refiner(prompt=prompt, image=image[None, :]).images[0]

importerror: cannot import name 'stablediffusionxlpipeline' from 'diffusers,diffusion,stable diffusion,人工智能,深度學(xué)習(xí)

要進行 inpainting,在 StableDiffusionXLInpaintPipeline 中加載 base 和 refiner 模型,去掉 denoising_enddenoising_start 參數(shù),并為 refiner 模型設(shè)置一個較小的步數(shù)。

micro-conditioning

SDXL 訓(xùn)練時使用了許多額外的條件方式,即 micro-conditioning,包括 original_image_size、target_image_size 和 cropping parameters。在推理階段,合理地使用 micro-conditioning 可以生成高質(zhì)量的、居中的圖片。

由于 classfier-free guidance 的存在,可以在 SDXL 相關(guān)的 pipeline 中使用 micro-conditioning 和 negative micro-conditioning 參數(shù)。

size conditioning

size conditioning 有兩種:

  1. original size conditioning。訓(xùn)練集中有許多圖片的分辨率是較低的,但又不能直接不用這些低分辨率圖像(占比達 40%,丟了太浪費了),因此通常會對這些圖像進行 resize,從而得到高分辨率的圖像。在這個過程中,不可避免得會引入插值這種人工合成的模糊痕跡,被 SDXL 學(xué)到,而在真正的高分辨率圖像中,是不該有這些痕跡的。因此訓(xùn)練時會告訴模型,這張圖片實際是多少分辨率的,作為條件。

    在推理階段,我們可以指定 original_size 來表示圖像的原始尺寸。使用默認的 1024,能生成出與原始數(shù)據(jù)集中高分辨率圖像類似的高質(zhì)量圖像。而如果將這個值設(shè)得很低,如 256,模型還是會生成分辨率為 1024 的圖像,但就會帶有低分辨率圖像的特征(如模糊、模式簡單等)。

  2. target size conditioning。SDXL 訓(xùn)練時支持多種不同的長寬比。

    推理時,如果使用默認的值 1024,生成的圖像會看起來像方形圖像(長寬比1:1)。這里建議將 target_size 和 original_size 設(shè)置為相同的值,但你也可以調(diào)一調(diào)這些參數(shù)實驗一下看看。

在 diffusers 中,我們還可以指定有關(guān)圖像大小的 negative 條件,從而引導(dǎo)生成遠離某些圖像分辨率:

from diffusers import StableDiffusionXLPipeline
import torch

pipe = StableDiffusionXLPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipe(
    prompt=prompt,
    negative_original_size=(512, 512),
    negative_target_size=(1024, 1024),
).images[0]

importerror: cannot import name 'stablediffusionxlpipeline' from 'diffusers,diffusion,stable diffusion,人工智能,深度學(xué)習(xí)

crop conditioning

SDXL 之前的 SD 模型的生成結(jié)果有時會看起來像是被裁剪過得。這是因為為了保證訓(xùn)練時每個 batch 內(nèi)的尺寸一致,輸入的訓(xùn)練數(shù)據(jù)確實有很多是裁剪過的。因此訓(xùn)練時,裁剪坐標也會作為條件給到模型。從而,在推理時,我們將裁剪坐標指定為 (0, 0) (也是 diffusers 默認值),就可以生成非裁剪的圖片了。你也可以試著調(diào)一下裁剪坐標這個參數(shù),看模型的生成結(jié)果會是什么樣子,應(yīng)該可以得到非居中的構(gòu)圖。

from diffusers import StableDiffusionXLPipeline
import torch

pipeline = StableDiffusionXLPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipeline(prompt=prompt, crops_coords_top_left=(256, 0)).images[0]
image

importerror: cannot import name 'stablediffusionxlpipeline' from 'diffusers,diffusion,stable diffusion,人工智能,深度學(xué)習(xí)

同樣可以指定 negative 裁剪坐標以引導(dǎo)生成遠離某些裁剪參數(shù):

from diffusers import StableDiffusionXLPipeline
import torch

pipe = StableDiffusionXLPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipe(
    prompt=prompt,
    negative_original_size=(512, 512),
    negative_crops_coords_top_left=(0, 0),
    negative_target_size=(1024, 1024),
).images[0]
image

Use a different prompt for each text-encoder

SDXL 有兩個 text encoder,所以給兩個 text encoder 傳入不同的文本 prompt 是可能的,這可以提高生成質(zhì)量(參考)。將原本的 prompt 傳到 prompt 中,另一個 prompt 傳到 prompt_2 中。如果使用 negative prompt 也是類似的,分別傳到 negative_promptnegative_prompt_2 。

from diffusers import StableDiffusionXLPipeline
import torch

pipeline = StableDiffusionXLPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0", torch_dtype=torch.float16, variant="fp16", use_safetensors=True
).to("cuda")

# prompt is passed to OAI CLIP-ViT/L-14
prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
# prompt_2 is passed to OpenCLIP-ViT/bigG-14
prompt_2 = "Van Gogh painting"
image = pipeline(prompt=prompt, prompt_2=prompt_2).images[0]
image

SDXL 的雙 text encoder 同樣支持 textual inversion embeddings,需要分別加載,詳情見:SDXL textual inversion 。

Optimizations

SDXL 的模型還是很大的,可能在一些設(shè)備上運行會比較吃力,以下是一些節(jié)約內(nèi)存和提高推理速度的技巧。

  1. 如果顯存不夠,可以臨時將模型 offload 到內(nèi)存中

    # base.to("cuda")
    # refiner.to("cuda")
    base.enable_model_cpu_offload()
    refiner.enable_model_cpu_offload()
    
  2. 如果你使用的 torch 版本 > 2.0,那么使用 torch.cmpile 可以提速約 20%

    base.unet = torch.compile(base.unet, mode="reduce-overhead", fullgraph=True)
    refiner.unet = torch.compile(refiner.unet, mode="reduce-overhead", fullgraph=True)
    
  3. 如果你使用的 torch 版本 < 2.0,記得要用 xFormers 來提供 flash attention

    base.enable_xformers_memory_efficient_attention()
    refiner.enable_xformers_memory_efficient_attention()
    

Other resources

如果你想要研究下 SDXL 中 UNet2DConditionModel 的最小版本,可參考minSDXL 。文章來源地址http://www.zghlxwxcb.cn/news/detail-839700.html

到了這里,關(guān)于Stable Diffusion XL on diffusers的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Stable Diffusion XL簡介

    Stable Diffusion XL簡介

    Stable Diffusion XL的是一個文生圖模型,是原來Stable Diffusion的升級版。相比舊版的Stable Diffusion模型,Stable Diffusion XL主要的不同有三點: 有一個精化模型(下圖的Refiner),通過image-to-image的方式來提高視覺保真度。 使用了兩個text encoder,OpenCLIP ViT-bigG和CLIP ViT-L。 增加了圖片大小

    2024年02月19日
    瀏覽(17)
  • Stable Diffusion XL 0.9

    Stable Diffusion XL 0.9

    雖然此前CEO曾陷入種種爭議,但依然不影響Stability AI登上時代雜志。近日,該公司又發(fā)布了Stable Diffusion 的XL 0.9版本,35億+66億雙模型,搭載最大OpenCLIP,讓AI生圖質(zhì)量又有了新的飛躍。 Stable Diffusion又雙叒升級了! 最近,Stability AI發(fā)布了最新版的Stable Diffusion XL 0.9(SDXL 0.9)。

    2024年02月12日
    瀏覽(22)
  • Stable Diffusion-XL

    Stable Diffusion-XL

    開源、免費的Stable Diffusion就能達到Midjourney水平! 自從Midjourney發(fā)布v5之后,在生成圖像的人物真實程度、手指細節(jié)等方面都有了顯著改善,并且在prompt理解的準確性、審美多樣性和語言理解方面也都取得了進步。 相比之下,Stable Diffusion雖然免費、開源,但每次都要寫一大長

    2024年02月15日
    瀏覽(28)
  • Stable Diffusion 模型分享:DreamShaper XL(夢想塑造者 XL)

    Stable Diffusion 模型分享:DreamShaper XL(夢想塑造者 XL)

    本文收錄于《AI繪畫從入門到精通》專欄,專欄總目錄:點這里。

    2024年03月24日
    瀏覽(27)
  • 【已解決cannot import name ‘OrderedDict‘ from ‘typing‘】

    【已解決cannot import name ‘OrderedDict‘ from ‘typing‘】

    在import tensorflow as tf 時報錯no mould tensorflow,自然而然想到pip一下,但是pip一直顯示成功,并且不會報任何錯 由于我下載的是python3.7版本,tensorflow可能需要下載補丁包,故在網(wǎng)上查詢解決方案: 在下載后,將該目錄下的function_type.py中的 改為 此時依舊會報錯 cannot import name ‘

    2024年02月16日
    瀏覽(22)
  • Stable Diffusion XL優(yōu)化終極指南

    Stable Diffusion XL優(yōu)化終極指南

    如何在自己的顯卡上獲得SDXL的最佳質(zhì)量和性能,以及如何選擇適當?shù)膬?yōu)化方法和工具,這一讓GenAI用戶倍感困惑的問題,業(yè)內(nèi)一直沒有一份清晰而詳盡的評測報告可供參考。直到全棧開發(fā)者Félix San出手。 在本文中,F(xiàn)élix介紹了相關(guān)SDXL優(yōu)化的方法論、基礎(chǔ)優(yōu)化、Pipeline優(yōu)化以

    2024年04月26日
    瀏覽(22)
  • Stable Diffusion XL訓(xùn)練LoRA

    Stable Diffusion XL訓(xùn)練LoRA

    主要包括SDXL模型結(jié)構(gòu),從0到1訓(xùn)練SDXL以及LoRA教程,從0到1搭建SDXL推理流程。? 【一】SDXL訓(xùn)練初識 Stable Diffusion系列模型的訓(xùn)練主要分成一下幾個步驟,Stable Diffusion XL也不例外: 訓(xùn)練集制作:數(shù)據(jù)質(zhì)量評估,標簽梳理,數(shù)據(jù)清洗,數(shù)據(jù)標注,標簽清洗,數(shù)據(jù)增強等。 訓(xùn)練文

    2024年02月07日
    瀏覽(26)
  • cannot import name ‘_compare_version‘ from ‘torchmetrics.utilities.imports‘

    Traceback (most recent call last): File “/scratch/AzureNfsServer_INPUT1/vc_data/users/willing/home/mQG/src/1_train.py”, line 14, in import pytorch_lightning as pl File “/home/aiscuser/.conda/envs/willing/lib/python3.9/site-packages/pytorch_lightning/ init .py”, line 34, in from pytorch_lightning.callbacks import Callback # noqa: E402 File “/home/ai

    2024年01月16日
    瀏覽(44)
  • python報錯:cannot import name ‘int‘ from ‘numpy‘

    python報錯:cannot import name ‘int‘ from ‘numpy‘

    在Python中導(dǎo)入包時出現(xiàn)報錯 報錯原因是numpy版本不支持該引用,np.int在numpy1.20已經(jīng)被廢棄掉了 在Anaconda Prompt中查看自己所使用的numpy版本 使用以下命令: ?我用的numpy版本是1.24.3,出現(xiàn)了報錯 解決方法:更換numpy版本 同樣在Anaconda Prompt中輸入以下命令: 我重新安裝的是1.22

    2024年02月09日
    瀏覽(21)
  • Stable Diffusion XL 帶來哪些新東西?

    Stable Diffusion XL 帶來哪些新東西?

    前幾天寫了一篇小短文《 Stable Diffusion 即將發(fā)布全新版本》,很快,Stability AI 的創(chuàng)始人兼首席執(zhí)行官 Emad Mostaque 在一條推文中宣布,Stable Diffusion XL 測試現(xiàn)已可用于公開測試。那么這樣一個全新版本會帶來哪些新東西,讓我們眼見為實吧。 不過在開始之前,簡單說明一下:

    2024年02月09日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包