国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了

這篇具有很好參考價值的文章主要介紹了還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Midjourney雖然出圖精美,使用方便,但是出圖的靈活性方面是一大硬傷,Stable Diffusion 作為Midjourney的開源替代品,由于其豐富的插件,靈活可控,受到社區(qū)的熱捧,一直被寄予厚望,這次Stable Diffusion發(fā)布了 XL 1.0版本,讓它又大火了一把。下面我們一起來認識下它。

Stable Diffusion XL 簡稱 SDXL,是 最新的圖像生成模型,在它出現(xiàn)之前,Stable Diffusion已經(jīng)有2個大版本在用了,stable 1.5和 stable 2.1。SDXL 1.0 出現(xiàn)前,同樣經(jīng)歷了0.9和beta版本的過渡階段, SDXL 1.0 在 stable 1.5的基礎(chǔ)上做了改進,參數(shù)數(shù)量從0.98B擴大到6.6B。在AI領(lǐng)域,更大的參數(shù)意味著更好的質(zhì)量。

在介紹SDXL的優(yōu)秀表現(xiàn)之前,有必要說明下為什么它這么受歡迎?

官方介紹了幾點,我在這里再引用一下,并做個詳細說明。

  1. 更有藝術(shù)感的圖像。在SDXL之前,應(yīng)用Stable Diffusion 生成圖像是基于SD的基礎(chǔ)模型,比如sd 1.5,sd2.1 那種,但是基礎(chǔ)通用的模型不僅缺少風(fēng)格等特征,而且不夠真實。為此,社區(qū)在基礎(chǔ)模型上做了大量的精調(diào),生成特定領(lǐng)域的風(fēng)格或場景圖,比如訓(xùn)練各種各樣的LoRA來改變風(fēng)格。LoRA,英文全稱Low-Rank Adaptation of Large Language Models,直譯為大語言模型的低階適應(yīng),在微軟的論文《LoRA: Low-Rank Adaptation of Large Language Models》提出了一種低秩adapters學(xué)習(xí)技術(shù)LoRA,實現(xiàn)大規(guī)模語言模型的跨領(lǐng)域與跨語言遷移。LoRA不僅可以實現(xiàn)跨領(lǐng)域與跨語言的遷移,當(dāng)應(yīng)用于Stable Diffusion模型中,可以實現(xiàn)該模型在不同領(lǐng)域與任務(wù)中的遷移。比如Stable Diffusion是一個多模態(tài)語言-圖像模型,LoRA可以學(xué)習(xí)將其語言表征遷移到圖像modal中,從而獲得跨模態(tài)語義一致的表示。還可以將Stable Diffusion模型從一個生成樣式或風(fēng)格遷移到其他樣式與風(fēng)格,如從寫實主義遷移到動漫風(fēng)格等。比如我之前的文章曾介紹的示例,它可以將真人模型轉(zhuǎn)為迪士尼風(fēng)格的圖片,常用于個人頭像訂制等場景。

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

LoRA僅需要少量的數(shù)據(jù)就可以進行訓(xùn)練的一種模型。在生成圖片時,LoRA模型會與大模型結(jié)合使用,從而實現(xiàn)對輸出圖片結(jié)果的調(diào)整。

與LoRA相對的是checkpoint模型。checkpoint模型在基礎(chǔ)模型之上的再訓(xùn)練,通過追加更多的數(shù)據(jù),checkpoint模型包含生成圖像所需的一切,可以獨立使用,不需要額外的文件。但是它們體積很大,通常為2G-7G。

前比較流行和常見的checkpoint模型有Anything系列(v3、v4.5、v5.0)、AbyssOrangeMix3、ChilloutMix、Deliberate、國風(fēng)系列等等。這些checkpoint模型是從Stable Diffusion基本模型訓(xùn)練而來的,相當(dāng)于基于原生安卓系統(tǒng)進行的二次開發(fā)。目前,大多數(shù)模型都是從 v1.4 或 v1.5 訓(xùn)練的。它們使用其他數(shù)據(jù)進行訓(xùn)練,以生成特定風(fēng)格或?qū)ο蟮膱D像。

而有了SDXL之后,就可以一步到位生成照片級的圖像,SDXL默認生成1025*1024,而stable之前的圖片是512*512,像素大小提高4倍,更清晰。

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

而且還可以在一個模型中生成比如動畫風(fēng)格的人物形象。

anime, photorealistic, 1girl, collarbone, wavy hair, looking at viewer, upper body, necklace, floral print, ponytail, freckles, red hair, sunlight

disfigured, ugly, bad, immature, photo, amateur, overexposed, underexposed

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

  1. 更真實的圖像

在SDXL之前,通過Stable Diffusion生成繪畫,經(jīng)常會出現(xiàn)恐怖片場景,SD基礎(chǔ)模型特別不擅長進行真人繪制,所繪制的人物要么多頭,要么少胳膊,要么多手指,要么少腿,總之人物經(jīng)常會發(fā)生變形。舉幾個不那么讓人不適的圖片:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

為此,如果要生成一張富有美感的照片,需要輸入非常多的描述詞,比如為了得到下面這張圖片:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

需要提供者這么多的正向提示詞:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

有時候不放心,還要追加一連串重復(fù)的形容詞:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

同時再提供一堆的負向描述:

bad anatomy, disfigured, blurry, cloned face, low contrast, over/underexposed,bad hands,cloned face ,disfigured ,extra limbs,extra legs,fused fingers,extra fingers,extra arms,long neck,poorly Rendered face,deformed body features,poorly rendered hands,malformed limbs,bad anatomy,ugly,missing arms,missing legs,bad proportions,cloned face,cropped, poorly drawn feet,extra limbs ,mutated hands,morbid,dehydrated,cut off,body out of frame,out of frame,malformed limbs

盡管如此,你仍然無法保證能得到一張好的圖像,而這些正反提示詞本身就足夠嚇退初學(xué)者。

在Midjourney中,這再簡單不過了,自動有了SDXL之后,我們生成圖像的難度進一步降低,更接近Midjourney了,盡管還有不少的差距。舉一個示例,這里隨意生成一張中國女性的圖像:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

雖然圖像很普通,但至少沒有出現(xiàn)恐怖場景,提示詞只需要簡單的 “chinese woman”即可,負向提示詞都可以省略,更關(guān)鍵的是,再也不需要使用其他特別訓(xùn)練的大模型或者搭配類似國風(fēng)LoRA模型了。

提示詞只需要簡單的 chinese woman即可,負向提示詞都可以省略,更關(guān)鍵的是,再也不需要使用其他特別訓(xùn)練的大模型或者搭配類似國風(fēng)LoRA模型了。

3. 更清晰可讀的字體

在之前的stable中圖像中添加文字,可是一件非常難以辦到的事,比如在之前的模型中在生成的圖像中生成下面的文字:

A fast food restaurant on the moon with name “Moon Burger”

它可能是這種效果:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

在SDXL中,不出意外可能是這種:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

關(guān)于圖像文字生成,額外介紹一下,盡管SDXL也很優(yōu)秀,但是可能在這方面不如DeepFloyd/IF.

比如在DeepFloyd/IF中生成下面的圖片:

?a photo of a violet baseball cap with yellow text: "JZ AIGC". 50mm lens, photo realism, cine lens. violet baseball cap says "JZ AIGC". reflections, render. yellow stitch?text "JZ AIGC"

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

而在SDXL中是這樣的:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

反正我是嘗試了N次,這是最好的結(jié)果,要么多字符,要么少字符,還有字符漂移到帽子之外的。當(dāng)然DeepFloyd/IF 也不是每次都能保證好質(zhì)量。

講到zhel,大家應(yīng)該明白為什么SDXL為什么這么火,這么受歡迎了,確實它在一個模型之中,幫助我們節(jié)省了更多的精力,為什么它有這種能耐的,這得從其工作原理說起:

還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了,人工智能

我們簡單看一下工作原理,它包括兩個模型:base基礎(chǔ)模型和一個Refiner精煉模型。基礎(chǔ)模型設(shè)置全局的構(gòu)圖,精煉模型在其基礎(chǔ)上增加更多細節(jié),當(dāng)然你也可以單獨使用基礎(chǔ)模型。

語言模型結(jié)合了OpenClip (ViT-G/14) 和 OpenAI CLIP ViT-L。而StableDiffusionV2僅僅使用了?OpenClip?,導(dǎo)致很難寫prompts。此外,Stable Diffusion中最關(guān)鍵的?U-Net是之前的3倍,加上更大的語言模型,使得SDXL能夠用prompts匹配到更高質(zhì)量的圖像。

最后,前面提到SDXL默認生成圖像大小為1024×1024,是 之前的4倍。

接下來,我們再一起過一下,怎么來用SDXL?

如果你喜歡使用現(xiàn)成的網(wǎng)頁,你可以選擇在 Clipdrop 上線的SDXL 1.0 ,地址:

Clipdrop - Stable Diffusion

這個免費網(wǎng)站不足之處是需要排隊,而且免費生成的圖像細節(jié)和質(zhì)量都不如收費的。

下面幾個免費網(wǎng)站值得去看看,尤其是playgroundai,它做的類似智能版本的線上PS:

https://playgroundai.com/?目前是SDXL1.0

https://canvas.krea.ai/files/recent?目前是SDXL1.0

leonardo.ai?目前是SDXL0.9

另外,DreamStudio也具有可用于圖像生成的 SDXL 1.0,每個賬號試用 25 個credits,大概12張圖片的試用額度。

http://dreamstudio.ai/

其他商用版的還有:AWS Sagemaker和AWS Bedrock:

Foundation Model API Service – Amazon Bedrock – AWS

Stable Foundation Discord也開放用于 SDXL 模型的實時測試。Discord是SDXL的測試渠道,可以趁著測試期間,薅一波羊毛:

https://discord.com/channels/1002292111942635562/

如果你想接入API,這幾個網(wǎng)站可以嘗試:

https://platform.stability.ai/

https://clipdrop.co/stable-diffusion

http://dreamstudio.ai/

如果你傾向于寫Python代碼去調(diào)用SDXL模型,可以看這個:

stabilityai/stable-diffusion-xl-base-1.0 · Hugging Face

如果你傾向于源碼部署可以看下面的資源鏈接:SDXL 1.0的權(quán)重和相關(guān)源代碼已在Stability AI GitHub上發(fā)布,地址:

GitHub - Stability-AI/generative-models: Generative Models by Stability AI

相關(guān)模型下載地址:

Download SDXL 1.0 base model【https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors】

Download SDXL 1.0 refiner model【https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors】

Download SDXL VAE file【https://huggingface.co/stabilityai/sdxl-vae/resolve/main/sdxl_vae.safetensors】

下面是一些在colab 平臺部署很不錯的代碼:

GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI

GitHub - TheLastBen/fast-stable-diffusion: fast-stable-diffusion + DreamBooth

https://colab.research.google.com/github/R3gm/InsightSolver-Colab/blob/main/SDXL_0_9.ipynb#scrollTo=WC7GtSaEHY9F

https://colab.research.google.com/github/camenduru/sdxl-colab/blob/main/sdxl_v1.0_webui_colab.ipynb

https://colab.research.google.com/github/yilundu/reduce_reuse_recycle/blob/main/notebooks/image_tapestry.ipynb#scrollTo=gMRVuthGU0y2

https://github.com/jduke99/DeepFloyd-Colab/blob/main/Deep_Floyd_from_HF_Spaces.ipynb?short_path=7f7ad36

GitHub - TonyLianLong/stable-diffusion-xl-demo: A gradio web UI demo for Stable Diffusion XL 1.0, with refiner and MultiGPU support

先整理這幾個親測可行的吧,后面再更新。歡迎關(guān)注微信公眾號:縱橫AI大世界。文章來源地址http://www.zghlxwxcb.cn/news/detail-649175.html

到了這里,關(guān)于還沒有上手Stable Diffusion XL 1.0 的同學(xué),看這篇文章就夠了的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 運行stable-diffusion-xl-refiner-1.0遇到version `GLIBCXX_3.4.29‘ not found的問題

    https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0 在運行示例程序時候遇到GLIBCXX_3.4.29‘ not found diffusers to = 0.18.0 以前也遇到過GLBXX沒有的問題,通過編譯高版本的GCC,感覺頭大了, 但是這次其實的裝的python3.10的環(huán)境中帶有的,通過搜尋到,然后鏈接到該so就可以了 1、找到高

    2024年02月06日
    瀏覽(23)
  • 【文生圖】Stable Diffusion XL 1.0模型Full Fine-tuning指南(U-Net全參微調(diào))

    【文生圖】Stable Diffusion XL 1.0模型Full Fine-tuning指南(U-Net全參微調(diào))

    Stable Diffusion是計算機視覺領(lǐng)域的一個生成式大模型,能夠進行文生圖(txt2img)和圖生圖(img2img)等圖像生成任務(wù)。Stable Diffusion的開源公布,以及隨之而來的一系列借助Stable Diffusion為基礎(chǔ)的工作使得人工智能繪畫領(lǐng)域呈現(xiàn)出前所未有的高品質(zhì)創(chuàng)作與創(chuàng)意。 今年7月Stability A

    2024年02月03日
    瀏覽(48)
  • Stable Diffusion XL簡介

    Stable Diffusion XL簡介

    Stable Diffusion XL的是一個文生圖模型,是原來Stable Diffusion的升級版。相比舊版的Stable Diffusion模型,Stable Diffusion XL主要的不同有三點: 有一個精化模型(下圖的Refiner),通過image-to-image的方式來提高視覺保真度。 使用了兩個text encoder,OpenCLIP ViT-bigG和CLIP ViT-L。 增加了圖片大小

    2024年02月19日
    瀏覽(17)
  • Stable Diffusion XL搭建

    Stable Diffusion XL搭建

    這里主要介紹如何從0到1搭建Stable Diffusion XL進行AI繪畫。 Stable Diffusion XL是Stable Diffusion的優(yōu)化版本,由Stability AI發(fā)布。比起Stable Diffusion,Stable Diffusion XL做了全方位的優(yōu)化,Rocky相信,Stable Diffusion會是圖像生成領(lǐng)域的“YOLO”,而Stable Diffusion XL那就是“YOLOv3”。 零基礎(chǔ)使用Co

    2024年02月11日
    瀏覽(22)
  • Stable Diffusion XL 0.9

    Stable Diffusion XL 0.9

    雖然此前CEO曾陷入種種爭議,但依然不影響Stability AI登上時代雜志。近日,該公司又發(fā)布了Stable Diffusion 的XL 0.9版本,35億+66億雙模型,搭載最大OpenCLIP,讓AI生圖質(zhì)量又有了新的飛躍。 Stable Diffusion又雙叒升級了! 最近,Stability AI發(fā)布了最新版的Stable Diffusion XL 0.9(SDXL 0.9)。

    2024年02月12日
    瀏覽(22)
  • Stable Diffusion-XL

    Stable Diffusion-XL

    開源、免費的Stable Diffusion就能達到Midjourney水平! 自從Midjourney發(fā)布v5之后,在生成圖像的人物真實程度、手指細節(jié)等方面都有了顯著改善,并且在prompt理解的準確性、審美多樣性和語言理解方面也都取得了進步。 相比之下,Stable Diffusion雖然免費、開源,但每次都要寫一大長

    2024年02月15日
    瀏覽(27)
  • Stable Diffusion 模型分享:DreamShaper XL(夢想塑造者 XL)

    Stable Diffusion 模型分享:DreamShaper XL(夢想塑造者 XL)

    本文收錄于《AI繪畫從入門到精通》專欄,專欄總目錄:點這里。

    2024年03月24日
    瀏覽(27)
  • Stable Diffusion XL優(yōu)化終極指南

    Stable Diffusion XL優(yōu)化終極指南

    如何在自己的顯卡上獲得SDXL的最佳質(zhì)量和性能,以及如何選擇適當(dāng)?shù)膬?yōu)化方法和工具,這一讓GenAI用戶倍感困惑的問題,業(yè)內(nèi)一直沒有一份清晰而詳盡的評測報告可供參考。直到全棧開發(fā)者Félix San出手。 在本文中,F(xiàn)élix介紹了相關(guān)SDXL優(yōu)化的方法論、基礎(chǔ)優(yōu)化、Pipeline優(yōu)化以

    2024年04月26日
    瀏覽(21)
  • Stable Diffusion XL訓(xùn)練LoRA

    Stable Diffusion XL訓(xùn)練LoRA

    主要包括SDXL模型結(jié)構(gòu),從0到1訓(xùn)練SDXL以及LoRA教程,從0到1搭建SDXL推理流程。? 【一】SDXL訓(xùn)練初識 Stable Diffusion系列模型的訓(xùn)練主要分成一下幾個步驟,Stable Diffusion XL也不例外: 訓(xùn)練集制作:數(shù)據(jù)質(zhì)量評估,標(biāo)簽梳理,數(shù)據(jù)清洗,數(shù)據(jù)標(biāo)注,標(biāo)簽清洗,數(shù)據(jù)增強等。 訓(xùn)練文

    2024年02月07日
    瀏覽(25)
  • Stable Diffusion XL(SDXL)原理詳解

    Stable Diffusion XL(SDXL)原理詳解

    ??關(guān)注公眾號 funNLPer 暢讀全文?? 技術(shù)報告:SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis 官方代碼:Stability-AI-generative-models 模型權(quán)重:HuggingFace-Stability AI 非官方代碼:Linaqruf/kohya-trainer diffuser庫:diffusers/pipelines/stable_diffusion_xl

    2024年02月10日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包