国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AI 作畫:Stable Diffusion 模型原理與實(shí)踐

這篇具有很好參考價(jià)值的文章主要介紹了AI 作畫:Stable Diffusion 模型原理與實(shí)踐。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前言

本文首先簡(jiǎn)單介紹 Stable Diffusion 模型結(jié)構(gòu) Latent Diffusion 的論文和博客,然后介紹模型的訓(xùn)練和推理技術(shù)細(xì)節(jié)(不含數(shù)學(xué)推導(dǎo)),接著介紹幾個(gè) prompt 搜索引擎等實(shí)用工具,最后簡(jiǎn)單介紹 AI 作畫(圖像生成)的發(fā)展史,并測(cè)試了 Stable Diffusion 不同風(fēng)格和 prompt 的生成樣例。

模型簡(jiǎn)介

Model:Latent Diffusion
Paper:High-Resolution Image Synthesis with Latent Diffusion Models

Huggingface官方博客:

  • Stable Diffusion with ?? Diffusers
  • The Annotated Diffusion Model

訓(xùn)練集:LAION-high-resolution 和 LAION-Aesthetics
使用協(xié)議:stable-diffusion-license(不要生成違禁圖;SD放棄版權(quán);商用時(shí)也需遵守上面協(xié)議)
模型結(jié)構(gòu)圖:
AI 作畫:Stable Diffusion 模型原理與實(shí)踐
模型原理(圖源Twitter):
AI 作畫:Stable Diffusion 模型原理與實(shí)踐

模型訓(xùn)練

本部分內(nèi)容主要翻譯自 Huggingface官方博客。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-496734.html

  • 訓(xùn)練目標(biāo):一步步對(duì)隨機(jī)的高斯噪聲降噪(denoise),參考 diffusers colab。
    AI 作畫:Stable Diffusion 模型原理與實(shí)踐
  • 優(yōu)勢(shì):Latent diffusion 之所以是 “l(fā)atent”,是因?yàn)槟P褪窃诘途S的潛空間(latent space)上進(jìn)行擴(kuò)散過(guò)程,而不是在實(shí)際的像素空間,從而降低了內(nèi)存消耗和計(jì)算復(fù)雜度(比如輸入shape是(3,512,512),下采樣因子是8,潛空間中變成了(3,64,64),節(jié)省了8×8=64倍的內(nèi)存)。訓(xùn)練完之后的模型就能把一張圖表示成一個(gè)低維的潛特征。
  • Latent diffusion 模型的三大核心部分:
    • Text Encoder:把 prompt 表示成潛特征,從而可以輸入到 U-Net。Stable Diffusion 直接用了CLIP 預(yù)訓(xùn)練的 Text Encoder,凍結(jié)權(quán)重。
    • VAE:VAE 的 encoder 用來(lái)將圖片編碼成潛特征(作為U-Net的輸入),decoder 用來(lái)將潛特征轉(zhuǎn)成圖像。顯然推理時(shí)只用到了VAE的decoder。
    • U-Net:由 encoder 和 decoder 都是由 ResNet blocks 構(gòu)成。其中 encoder 用來(lái)下采樣(降低分辨率),decoder 用來(lái)上采樣(升高分辨率)。U-Net 的輸出預(yù)測(cè)了噪聲的殘差,可用于計(jì)算預(yù)測(cè)的去噪圖像表示。為了防止下采樣時(shí)損失信息,通常把同一層上下采樣的 ResNet 之間給連起來(lái)。此外,Stable Diffusion 的 U-Net 還能通過(guò) cross-attention 層把 prompt 的表示給嵌入(U-Net的encoder和decoder都加了cross-attention層,在ResNet blocks之間加)。AI 作畫:Stable Diffusion 模型原理與實(shí)踐

到了這里,關(guān)于AI 作畫:Stable Diffusion 模型原理與實(shí)踐的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【AI作畫】使用stable-diffusion-webui搭建AI作畫平臺(tái)

    【AI作畫】使用stable-diffusion-webui搭建AI作畫平臺(tái)

    進(jìn)入官網(wǎng)下載安裝包https://www.anaconda.com/并安裝,然后將Anaconda配置到環(huán)境變量中。 打開命令行,依次通過(guò)如下命令創(chuàng)建Python運(yùn)行虛擬環(huán)境。 筆者的顯卡為NVIDIA,需安裝NVIDIA的開發(fā)者工具進(jìn)入官網(wǎng)https://developer.nvidia.com/,根據(jù)自己計(jì)算機(jī)的系統(tǒng)情況,選擇合適的安裝包下載安裝

    2024年01月21日
    瀏覽(43)
  • 【AI作畫】使用DiffusionBee with stable-diffusion在mac M1平臺(tái)玩AI作畫

    【AI作畫】使用DiffusionBee with stable-diffusion在mac M1平臺(tái)玩AI作畫

    DiffusionBee下載地址 運(yùn)行DiffusionBee的硬性要求:MacOS系統(tǒng)版本必須在12.3及以上 DBe安裝完成后,去C站挑選自己喜歡的圖畫風(fēng)格,下載對(duì)應(yīng)的模型,然后將模型添加進(jìn)去,如何添加? C站傳送門 1.點(diǎn)擊Model 2.點(diǎn)擊最底部Add New Model,進(jìn)入Setting頁(yè)面后點(diǎn)擊藍(lán)色的Add New Model按鈕 3.選中你

    2024年02月08日
    瀏覽(24)
  • AI作畫飛入尋常百姓家——stable diffusion初體驗(yàn)

    AI作畫飛入尋常百姓家——stable diffusion初體驗(yàn)

    stable_diffusion來(lái)了,這個(gè)號(hào)稱是最強(qiáng)的文本生成圖片的模型它來(lái)了,相比較DAEE等大模型,它能夠讓我們消費(fèi)級(jí)的顯卡也能夠?qū)崿F(xiàn)文本到圖像的生成。下面,我們也來(lái)試一下。 該服務(wù)器上必須要有的基礎(chǔ)工具anaconda,wget,git和yum。令我吃驚的是,當(dāng)我看到wget和yum互為前提的安裝時(shí)

    2024年02月12日
    瀏覽(22)
  • 無(wú)顯卡也能AI作畫 | Colab + Stable Diffusion WebUI

    無(wú)顯卡也能AI作畫 | Colab + Stable Diffusion WebUI

    事情起因是這樣的,我之前寫了如何在linux上用Stable Diffusion WebUI。 里邊提到我遲遲沒(méi)有弄webui是因?yàn)槲夜P記本A卡,臺(tái)式機(jī)顯卡帶不動(dòng)。所以無(wú)奈只能使用學(xué)校服務(wù)器搭一個(gè)。 當(dāng)時(shí)有人說(shuō)我,你自己電腦不行怎么不用colab,我當(dāng)時(shí)懶得弄。 原因如下: 服務(wù)器在我們本地,不用

    2024年02月10日
    瀏覽(25)
  • AI 作畫《Concept Art概念藝術(shù)》| 用stable diffusion生成

    AI 作畫《Concept Art概念藝術(shù)》| 用stable diffusion生成

    前言 “Concept Art”是一個(gè)藝術(shù)門類,即所謂“概念藝術(shù)”、“概念設(shè)計(jì)”,也稱為“初步設(shè)計(jì)”。一般常見(jiàn)于影視或游戲設(shè)計(jì)中,服務(wù)產(chǎn)品最初的視覺(jué)效果,是游戲或影片的核心工作內(nèi)容之一。 下面讓我們使用當(dāng)前很火的擴(kuò)散模型stable diffusion,生成一些概念藝術(shù)作品!看看

    2024年02月11日
    瀏覽(23)
  • AI繪畫Stable Diffusion原理之?dāng)U散模型DDPM

    AI繪畫Stable Diffusion原理之?dāng)U散模型DDPM

    傳送門: stable diffusion:Git|論文 stable-diffusion-webui:Git Google Colab Notebook部署stable-diffusion-webui:Git kaggle Notebook部署stable-diffusion-webui:Git AI繪畫,輸入一段文本就能生成相關(guān)的圖像,stable diffusion便是其中一個(gè)重要分支。自己對(duì)其中的原理比較感興趣,因此開啟這個(gè)系列的文章

    2024年02月03日
    瀏覽(27)
  • AI 作畫火了,如何用 Serverless 函數(shù)計(jì)算部署 Stable Diffusion?

    AI 作畫火了,如何用 Serverless 函數(shù)計(jì)算部署 Stable Diffusion?

    作者:寒斜 立即體驗(yàn)基于函數(shù)計(jì)算部署 Stable Diffusion: https://developer.aliyun.com/topic/aigc AIGC 領(lǐng)域目前大火, 除了 Chatgpt,在文生圖領(lǐng)域 Stable Diffusion 大放異彩,深刻的地影響著繪畫、視頻制作等相關(guān)領(lǐng)域。利用這項(xiàng)技術(shù),普通人也可以制作出令人驚嘆的藝術(shù)作品。 今天我們將

    2024年02月09日
    瀏覽(27)
  • 【AI作畫】使用Stable Diffusion的藝術(shù)二維碼完全生成攻略

    【AI作畫】使用Stable Diffusion的藝術(shù)二維碼完全生成攻略

    文中有彩蛋 隨著人工智能技術(shù)的快速發(fā)展,特別是深度學(xué)習(xí)和生成模型的突破,AI作圖已經(jīng)成為許多領(lǐng)域的主要工具和方法之一。它不僅提高了創(chuàng)造力和效率,還改變了我們與圖像、數(shù)據(jù)和媒體的交互方式。今天請(qǐng)跟隨阿Q的腳步,一起來(lái)使用 Stable Diffusion 創(chuàng)作出屬于我們自己

    2024年02月13日
    瀏覽(21)
  • AIGC-Stable Diffusion Webui-AI作畫初體驗(yàn)

    AIGC-Stable Diffusion Webui-AI作畫初體驗(yàn)

    一、項(xiàng)目地址 :傳送門:github:stable-diffusion-webui 二、安裝方式 :本地安裝?or Google Colab.(下文介紹中關(guān)于安裝的部分均以本地安裝為例) 本地安裝 : 1、git 2、python(推薦3.10.8) 3、下載git倉(cāng)庫(kù)代碼 4、配置:python及git路徑 5、啟動(dòng):(windows) (第一次啟動(dòng)會(huì)很慢,會(huì)下載安裝很多文

    2024年02月13日
    瀏覽(28)
  • AI作畫升級(jí)!一鍵幫你用Stable Diffusion 生成無(wú)限縮放效果視頻

    AI作畫升級(jí)!一鍵幫你用Stable Diffusion 生成無(wú)限縮放效果視頻

    在這一篇文章中,我們介紹了利用OpenVINO?優(yōu)化和加速Stable Diffusion模型的推理,在英特爾?獨(dú)立顯卡上能夠根據(jù)我們輸入的指令(prompt),快速生成我們喜愛(ài)的AI畫作。今天,我們對(duì)這一應(yīng)用場(chǎng)景再次升級(jí),除了能夠作畫,利用OpenVINO對(duì)Stable Diffusion v2模型的支持及優(yōu)化,我們還

    2024年02月10日
    瀏覽(27)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包