国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2!

這篇具有很好參考價(jià)值的文章主要介紹了Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2!。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2!

擴(kuò)散模型 (Diffusion models) 是「生成模型」算法領(lǐng)域中的一個(gè)相對(duì)較新的算法。生成模型通過學(xué)習(xí)大量訓(xùn)練樣本(例如圖像或者音頻),創(chuàng)建一些與訓(xùn)練數(shù)據(jù)神似,但又不是完全相同的多樣化輸出。

Diffusers 庫是一個(gè)操作擴(kuò)散模型的工具箱,由 Hugging Face 團(tuán)隊(duì)發(fā)布,它可以非常方便的使用各種擴(kuò)散模型生成圖像、音頻,也可以非常方便的使用各種噪聲調(diào)度器,用于調(diào)節(jié)在模型推理中的速度和質(zhì)量,同時(shí),這個(gè)庫也支持多種類型的模型。

上周,Diffusers 發(fā)布了 v0.9.0 版,正式支持了最新的 Stable Diffusion 2,Stable Diffusion 可以簡要理解為是一個(gè)自然語言生成圖片的模型,并于上周發(fā)布了 2.0 版本,可以生成 768x768 和 512x512 分辨率的圖片,也包括了一個(gè) Upscaler Diffusion 模型,可以將圖片分辨率升級(jí)為 2048x2048 甚至更高,更多關(guān)于 Stable Diffusion 2 的更新,請(qǐng)閱讀 機(jī)器之心的文章 了解更多。

你可以在 Hugging Face Spaces 上體驗(yàn) Stable Diffusion 2:
https://huggingface.co/spaces/stabilityai/stable-diffusion

Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2! 差一點(diǎn)忘記我們的「正事兒」——介紹 Diffusers 的更新,下面開始正文部分內(nèi)容:

?? 安裝最新版 Diffusers v0.9.0 體驗(yàn) Stable Diffusion 2

pip?install?diffusers[torch]==0.9?transformers

Diffusers 支持 Stable Diffusion 2 中的多種模型,我們將在后面的章節(jié)介紹用法以及示例代碼。

基于 768x768 圖像的 Stable Diffusion 2.0-V

Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2!

最新的基于 768x768 大小圖像的穩(wěn)定擴(kuò)散模型:Stable Diffusion 2.0-V,它的參數(shù)數(shù)量為 U-Net 模型的 1.5 倍,但采用了 OpenCLIP-ViT/H 作為文本編碼器從頭開始訓(xùn)練,因此 2.0-V 也被稱為:v-prediction 模型。

  • OpenCLIP-ViT/H:
    https://github.com/mlfoundations/open_clip

  • v-prediction 模型:
    https://arxiv.org/abs/2202.00512

import?torch
from?diffusers?import?DiffusionPipeline,?DPMSolverMultistepScheduler

repo_id?=?"stabilityai/stable-diffusion-2"
pipe?=?DiffusionPipeline.from_pretrained(repo_id,?torch_dtype=torch.float16,?revision="fp16")
pipe.scheduler?=?DPMSolverMultistepScheduler.from_config(pipe.scheduler.config)
pipe?=?pipe.to("cuda")

prompt?=?"High?quality?photo?of?an?astronaut?riding?a?horse?in?space"
image?=?pipe(prompt,?guidance_scale=9,?num_inference_steps=25).images[0]
image.save("astronaut.png")

基于 512x512 圖像的 Stable Diffusion 2.0-base

上面的模型是基于 SD 2.0-base 進(jìn)行微調(diào)而來,SD 2.0-base 在 512x512 圖像數(shù)據(jù)集上被訓(xùn)練為標(biāo)準(zhǔn)的噪聲預(yù)測模型,當(dāng)然 base 模型在我們的平臺(tái)上也是支持的。

Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2!
import?torch
from?diffusers?import?DiffusionPipeline,?DPMSolverMultistepScheduler

repo_id?=?"stabilityai/stable-diffusion-2-base"
pipe?=?DiffusionPipeline.from_pretrained(repo_id,?torch_dtype=torch.float16,?revision="fp16")
pipe.scheduler?=?DPMSolverMultistepScheduler.from_config(pipe.scheduler.config)
pipe?=?pipe.to("cuda")

prompt?=?"High?quality?photo?of?an?astronaut?riding?a?horse?in?space"
image?=?pipe(prompt,?num_inference_steps=25).images[0]
image.save("astronaut.png")

Stable Diffusion 2.0 用于圖像修補(bǔ) (Inpanting)

該模型用于文本引導(dǎo)的圖像修補(bǔ),它同樣基于 SD 2.0-base 進(jìn)行微調(diào),遵循 LAMA 中提出的掩碼生成策略 (mask-generation strategy),并結(jié)合掩碼圖像 (masked image) 的隱式 VAE 表示。

  • LAMA:
    https://github.com/saic-mdal/lama

Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2!
import?PIL
import?requests
import?torch
from?io?import?BytesIO
from?diffusers?import?DiffusionPipeline,?DPMSolverMultistepScheduler

def?download_image(url):
????response?=?requests.get(url)
????return?PIL.Image.open(BytesIO(response.content)).convert("RGB")

img_url?=?"https://raw.githubusercontent.com/CompVis/latent-diffusion/main/data/inpainting_examples/overture-creations-5sI6fQgYIuo.png"
mask_url?=?"https://raw.githubusercontent.com/CompVis/latent-diffusion/main/data/inpainting_examples/overture-creations-5sI6fQgYIuo_mask.png"
init_image?=?download_image(img_url).resize((512,?512))
mask_image?=?download_image(mask_url).resize((512,?512))

repo_id?=?"stabilityai/stable-diffusion-2-inpainting"
pipe?=?DiffusionPipeline.from_pretrained(repo_id,?torch_dtype=torch.float16,?revision="fp16")
pipe.scheduler?=?DPMSolverMultistepScheduler.from_config(pipe.scheduler.config)
pipe?=?pipe.to("cuda")

prompt?=?"Face?of?a?yellow?cat,?high?resolution,?sitting?on?a?park?bench"
image?=?pipe(prompt=prompt,?image=init_image,?mask_image=mask_image,?num_inference_steps=25).images[0]
image.save("yellow_cat.png")

Stable Diffusion X4 超分辨率圖像 (Upscaler)

這款模型在 512x512 的數(shù)據(jù)集上訓(xùn)練,并且是基于文本指導(dǎo) (text-guided) 的隱式分辨率提高擴(kuò)散器模型 (latent upscaling diffusion model)。

除了文本輸入之外,它還接收一個(gè) noise_level 作為輸入?yún)?shù),可用于根據(jù)預(yù)定義的擴(kuò)散計(jì)劃 (predefined diffusion schedule) 向輸入的低分辨率圖像添加噪聲。

  • latent upscaling diffusion model:
    https://arxiv.org/abs/2112.10752

  • predefined diffusion schedule:
    https://hf.co/stabilityai/stable-diffusion-x4-upscaler/blob/main/low_res_scheduler/scheduler_config.json

Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2!

保存并加載多功能擴(kuò)散器 (Versatile Diffusion) 的 bug 已經(jīng)被修復(fù)

我們修復(fù)了之前在保存并加載多功能擴(kuò)散器時(shí)出現(xiàn)的 bug ,以便保證大家更高效地工作。

以上就是本次 Diffusers v0.9.0 更新的內(nèi)容,更詳細(xì)的更新內(nèi)容,歡迎點(diǎn)擊閱讀原文在 GitHub 上查閱,如果有任何發(fā)現(xiàn)的 Bug 和建議,歡迎你在 GitHub Issue 里向我們提出:
https://github.com/huggingface/diffusers/issues


正文部分譯者:

丁繼崢 Johnson,微信號(hào):ZJUer_0817 拾象DAO成員,浙江大學(xué)機(jī)器人工程專業(yè),主要關(guān)注 AI 模型與交互的前沿進(jìn)展,專用機(jī)器人的產(chǎn)業(yè)落地,通用機(jī)器人的無限可能。

文章頭圖: Lynn

我們正在招募更多翻譯志愿者幫助我們擴(kuò)充官方公眾號(hào)內(nèi)容,如果你感興趣,歡迎通過文章下方的留言功能介紹自己,并留下聯(lián)系方式。謝謝!文章來源地址http://www.zghlxwxcb.cn/news/detail-493911.html

到了這里,關(guān)于Diffusers 0.9.0 正式發(fā)布,支持 Stable Diffusion 2!的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • huggingface的diffusers訓(xùn)練stable diffusion記錄

    huggingface的diffusers訓(xùn)練stable diffusion記錄

    目錄 1.原理 ????????????????擴(kuò)散模型的目的是什么????????? ????????????????擴(kuò)散模型是怎么做的????????? ????????????????前向過程在干啥? ????????????????反向過程在干啥? 2.安裝環(huán)境 3.lora 訓(xùn)練 4.推理 5.源代碼? ????????

    2024年04月26日
    瀏覽(23)
  • 【Stable Diffusion XL】huggingface diffusers 官方教程解讀

    【Stable Diffusion XL】huggingface diffusers 官方教程解讀

    相關(guān)鏈接: GitHub: https://github.com/huggingface/diffusers 官方教程:https://huggingface.co/docs/diffusers/tutorials/tutorial_overview StableDiffuson: https://huggingface.co/blog/stable_diffusion#how-does-stable-diffusion-work Diffusers被設(shè)計(jì)成一個(gè)用戶友好和靈活的工具箱,用于構(gòu)建適合您用例的擴(kuò)散系統(tǒng)。工具箱的核

    2024年02月06日
    瀏覽(31)
  • Stable Diffusion with  Diffusers 學(xué)習(xí)筆記: 原理+完整pipeline代碼

    Stable Diffusion with Diffusers 學(xué)習(xí)筆記: 原理+完整pipeline代碼

    參考鏈接: https://huggingface.co/blog/stable_diffusion#how-does-stable-diffusion-work 在這篇文章中,我們想展示如何使用Stable Diffusion with the ?? Diffusers library,,解釋模型是如何工作的,最后深入探討擴(kuò)散器是如何允許自定義圖像生成pipeline的。 如果你對(duì)擴(kuò)散模型完全陌生,我們建議你閱讀

    2024年02月05日
    瀏覽(50)
  • 如何將 Stable Diffusion PT+YAML 轉(zhuǎn)換成 diffusers 格式

    Huggingface 的 diffusers 格式是初學(xué)者最愛的格式,只需要簡單幾行代碼,就可以下載模型,執(zhí)行 文字到圖片 轉(zhuǎn)換等常用功能 而有時(shí)候在網(wǎng)上淘模型的時(shí)候,經(jīng)常會(huì)遇到原版 Stable Diffusion 格式,只有一個(gè) .pt 文件和一個(gè) .yaml 配置文件 ,為了方便管理和加載,可以把原版格式轉(zhuǎn)換

    2024年02月16日
    瀏覽(22)
  • diffusers加速文生圖速度;stable-diffusion、PixArt-α模型

    diffusers加速文生圖速度;stable-diffusion、PixArt-α模型

    參考: https://pytorch.org/blog/accelerating-generative-ai-3/ https://colab.research.google.com/drive/1jZ5UZXk7tcpTfVwnX33dDuefNMcnW9ME?usp=sharing#scrollTo=jueYhY5YMe22 大概GPU資源8G-16G;另外模型資源下載慢可以在國內(nèi)鏡像:https://aifasthub.com/ 1、加速代碼 能加速到2秒左右

    2024年04月23日
    瀏覽(26)
  • Hugging Face使用Stable diffusion Diffusers Transformers Accelerate Pipelines VAE

    Hugging Face使用Stable diffusion Diffusers Transformers Accelerate Pipelines VAE

    A library that offers an implementation of various diffusion models, including text-to-image models. 提供不同擴(kuò)散模型的實(shí)現(xiàn)的庫,代碼上最簡潔,國內(nèi)的問題是?huggingface 需要翻墻。 A Hugging Face library that provides pre-trained deep learning models for natural language processing tasks. 提供了預(yù)訓(xùn)練深度學(xué)習(xí)模型,

    2024年02月07日
    瀏覽(49)
  • 使用 Docker 和 Diffusers 快速上手 Stable Video Diffusion 圖生視頻大模型

    使用 Docker 和 Diffusers 快速上手 Stable Video Diffusion 圖生視頻大模型

    本篇文章聊聊,如何快速上手 Stable Video Diffusion (SVD) 圖生視頻大模型。 月底計(jì)劃在機(jī)器之心的“AI技術(shù)論壇”做關(guān)于使用開源模型 “Stable Diffusion 模型” 做有趣視頻的實(shí)戰(zhàn)分享。 因?yàn)闀?huì)議分享時(shí)間有限,和之前一樣,比較簡單的部分,就用博客文章的形式來做補(bǔ)充分享吧。

    2024年01月24日
    瀏覽(106)
  • 《滿懷美夢的小崽子是pycharm主義者》之服務(wù)器部署stable diffusion /diffusers教程

    《滿懷美夢的小崽子是pycharm主義者》之服務(wù)器部署stable diffusion /diffusers教程

    距離上一次教大家在本地部署sd已經(jīng)過去了........俺也不知道多久了,相信大家現(xiàn)在應(yīng)該都已經(jīng)很熟悉了吧,估計(jì)大家也發(fā)現(xiàn)了一個(gè)問題,就是本地的配置跑sd,一個(gè)是對(duì)配置要求太高了,現(xiàn)在的模型都特別大,沒有一張3090根本玩不了,一個(gè)是內(nèi)存啥的根本不夠用模型加上各種

    2024年02月04日
    瀏覽(20)
  • IntelliJ IDEA 2023.1正式發(fā)布,Maven項(xiàng)目大提速&支持Apache Dubbo

    IntelliJ IDEA 2023.1正式發(fā)布,Maven項(xiàng)目大提速&支持Apache Dubbo

    你好,我是 YourBatman :做愛做之事?交配交之人。 一年一個(gè)大版本,共計(jì)3個(gè)中型版本 ,北京時(shí)間2023年3月月29日終于迎來了IntelliJ IDEA今年的首個(gè)版本2023.1。老規(guī)矩,吃肉之前,可以先把這幾碗湯干了,更有助于消化(每篇都很頂哦): IntelliJ IDEA 2023.1正式發(fā)布,Maven項(xiàng)目大提

    2023年04月20日
    瀏覽(18)
  • go-easy-utils 2.0 正式發(fā)布,全面支持泛型和any

    這是一個(gè)基于 Go 語言開發(fā)的通用數(shù)據(jù)類型處理工具類,幫助開發(fā)者在業(yè)務(wù)代碼實(shí)現(xiàn)中處理常見的數(shù)據(jù)類型和數(shù)據(jù)操作??梢宰屇鷮W⒂谀臉I(yè)務(wù)代碼的實(shí)現(xiàn),而免去處理基本數(shù)據(jù)類型轉(zhuǎn)換和驗(yàn)證的功能。該工具庫無侵入式的設(shè)計(jì)可以讓您的業(yè)務(wù)代碼更容易閱讀和優(yōu)雅。 安裝

    2023年04月13日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包