国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion

這篇具有很好參考價(jià)值的文章主要介紹了機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1 基本框架

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion,機(jī)器學(xué)習(xí),筆記,人工智能

  • ?①:文字變成向量
  • ?②:喂入噪聲+文字encoder,產(chǎn)生中間產(chǎn)物
  • ?③:decoder 還原圖片

2? text encoder

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion,機(jī)器學(xué)習(xí),筆記,人工智能

?這張圖越往右下表示效果越好,可以看到text encoder尺寸越大,對(duì)后續(xù)生成圖片的增益越多

3 評(píng)價(jià)圖片生成好壞的標(biāo)準(zhǔn)

3.1 FID

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion,機(jī)器學(xué)習(xí),筆記,人工智能

  • ?現(xiàn)有一個(gè)訓(xùn)練好的CNN 模型,可以生成真實(shí)影像和生成圖像的representation
  • 這兩組表征的分布越近,效果越好
  • ——>我們sample 一堆圖片,然后生成一組同語義的圖片,計(jì)算他們分布的distance

3.2? CLIP

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion,機(jī)器學(xué)習(xí),筆記,人工智能

  • ?如果圖片和文字是成對(duì)的,那么他們的representation越近表示生成的圖片效果越好

4 decoder

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion,機(jī)器學(xué)習(xí),筆記,人工智能

?文章來源地址http://www.zghlxwxcb.cn/news/detail-646148.html

  • 訓(xùn)練一個(gè)auoto encoder
  • 訓(xùn)練完把decoder拿出來用即可

5 噪聲加的位置

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion,機(jī)器學(xué)習(xí),筆記,人工智能

  • 之前defusion model 中,noise是加在圖片上
  • 但現(xiàn)在產(chǎn)生的東西已經(jīng)不是圖片了
    • ——>noise 加在中間產(chǎn)物上

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion,機(jī)器學(xué)習(xí),筆記,人工智能

機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion,機(jī)器學(xué)習(xí),筆記,人工智能

大體上和diffusion model 類似,這里就是最后多接一個(gè)decoder,將中間產(chǎn)物變成圖片

?

到了這里,關(guān)于機(jī)器學(xué)習(xí)筆記:李宏毅 stable diffusion的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 人工智能實(shí)戰(zhàn):Stable Diffusion技術(shù)分享

    人工智能實(shí)戰(zhàn):Stable Diffusion技術(shù)分享

    背景 Stable Diffusion是計(jì)算機(jī)圖形學(xué)和可視化領(lǐng)域中的一項(xiàng)重要技術(shù)。在這篇分 享中 ,我們將深入探討穩(wěn)定擴(kuò)散的原理、關(guān)鍵要素和實(shí)施步驟 ,通過了解Stable Diffusion的流程化 ,我們可以提升自身的設(shè)計(jì)能力和創(chuàng)造力 ,為公司 和個(gè)人注入更多的價(jià)值和創(chuàng)意。 美術(shù)制定 美術(shù)風(fēng)

    2024年01月19日
    瀏覽(17)
  • 人工智能基礎(chǔ)_機(jī)器學(xué)習(xí)003_有監(jiān)督機(jī)器學(xué)習(xí)_sklearn中線性方程和正規(guī)方程的計(jì)算_使用sklearn解算八元一次方程---人工智能工作筆記0042

    人工智能基礎(chǔ)_機(jī)器學(xué)習(xí)003_有監(jiān)督機(jī)器學(xué)習(xí)_sklearn中線性方程和正規(guī)方程的計(jì)算_使用sklearn解算八元一次方程---人工智能工作筆記0042

    然后我們?cè)賮砜纯?如何使用sklearn,來進(jìn)行正規(guī)方程的運(yùn)算,當(dāng)然這里 首先要安裝sklearn,這里如何安裝sklearn就不說了,自己查一下 首先我們還是來計(jì)算前面的八元一次方程的解,但是這次我們不用np.linalg.solve這個(gè) 解線性方程的方式,也不用 直接 解正規(guī)方程的方式: 也就是上面這種

    2024年02月08日
    瀏覽(29)
  • 人工智能基礎(chǔ)_機(jī)器學(xué)習(xí)007_高斯分布_概率計(jì)算_最小二乘法推導(dǎo)_得出損失函數(shù)---人工智能工作筆記0047

    人工智能基礎(chǔ)_機(jī)器學(xué)習(xí)007_高斯分布_概率計(jì)算_最小二乘法推導(dǎo)_得出損失函數(shù)---人工智能工作筆記0047

    這個(gè)不分也是挺難的,但是之前有詳細(xì)的,解釋了,之前的文章中有, 那么這里會(huì)簡單提一下,然后,繼續(xù)向下學(xué)習(xí) 首先我們要知道高斯分布,也就是,正太分布, 這個(gè)可以預(yù)測(cè)x在多少的時(shí)候,概率最大 要知道在概率分布這個(gè),高斯分布公式中,u代表平均值,然后西格瑪代表標(biāo)準(zhǔn)差,知道了

    2024年02月07日
    瀏覽(99)
  • 神奇的人工智能之神筆馬良|Stable Diffusion使用

    神奇的人工智能之神筆馬良|Stable Diffusion使用

    1,月球上騎馬的宇航員。 image generate by stable-diffusion model 2,下棋的狗 image generate by stable-diffusion model 3,沉迷學(xué)習(xí)的史努比 image generate by stable-diffusion model 4,鯉魚躍出海面

    2024年02月09日
    瀏覽(29)
  • 機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記39

    機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記39

    大模型+大資料 大模型的頓悟時(shí)刻 隨數(shù)據(jù)量增加,模型可以從量變達(dá)到質(zhì)變,從某一刻開始突然學(xué)會(huì)東西。 當(dāng)成為大模型時(shí),分?jǐn)?shù)會(huì)從0,0突然變成100,完成“頓悟”. 橫軸表示分布中產(chǎn)生答案的概率(信心分?jǐn)?shù)),縱軸表示答案正確的概率??梢园l(fā)現(xiàn)小模型的信心分?jǐn)?shù)跟答案

    2024年02月14日
    瀏覽(25)
  • 機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記33

    機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記33

    神經(jīng)網(wǎng)絡(luò)壓縮(一) 類神經(jīng)網(wǎng)絡(luò)剪枝(pruning) 簡化模型,用比較少的參數(shù),但讓效能差不多,這就是network compression這件事。有些情況下需要把模型用在resource constrain(資源有限)的情況下,比如說跑在智能手表上、小型無人機(jī)上等等。只有比較少的內(nèi)存和計(jì)算能力,這時(shí)就

    2024年02月11日
    瀏覽(20)
  • 機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記37

    機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記37

    ChatGPT簡單原理介紹 Chatgpt以句子為輸入,輸出這個(gè)句子后面接的詞匯的概率分布,給每一個(gè)可能的符號(hào)一個(gè)概率,根據(jù)這個(gè)分布進(jìn)行sample,每次sample出來的詞匯可能都是不一樣的,所以答案每次也都不相同。把輸出的詞匯加在輸入給gpt的句子后面,重復(fù)上面的過程,直到最后

    2024年02月16日
    瀏覽(16)
  • 人工智能AI系列 - java 版的stable diffusion 圖像生成

    人工智能AI系列 - java 版的stable diffusion 圖像生成

    圖像生成 文生圖:輸入提示詞(僅支持英文),生成圖片(僅支持英文) GPU版本 StableDiffusionGPU.java CPU版本 StableDiffusionCPU.java 圖生圖:根據(jù)圖片及提示詞(僅支持英文)生成圖片 GPU版本 Img2ImgStableDiffusionGPU.java 顯卡CUDA:11.7版本 參考測(cè)試數(shù)據(jù):分辨率 512*512 25步 CPU(i5處理器

    2024年02月09日
    瀏覽(57)
  • 人工智能基礎(chǔ)_機(jī)器學(xué)習(xí)015_BGD批量梯度下降代碼演示_在批量梯度下降中使用逆時(shí)衰減---人工智能工作筆記0055

    人工智能基礎(chǔ)_機(jī)器學(xué)習(xí)015_BGD批量梯度下降代碼演示_在批量梯度下降中使用逆時(shí)衰減---人工智能工作筆記0055

    然后我們用代碼來演示一下BGD批量梯度下降,首先啟動(dòng)jupyter notebook 然后我們新建一個(gè)文件 新建文件夾,然后新建一個(gè)python文件 然后我們這里用一元一次方程進(jìn)行批量梯度下降. import numpy as np 導(dǎo)入數(shù)學(xué)計(jì)算包 X = np.random.rand(100,1)? `np.random.rand(100, 1)` 是NumPy庫中的一個(gè)函數(shù),用于

    2024年02月05日
    瀏覽(35)
  • 李宏毅《機(jī)器學(xué)習(xí) 深度學(xué)習(xí)》簡要筆記(一)

    李宏毅《機(jī)器學(xué)習(xí) 深度學(xué)習(xí)》簡要筆記(一)

    一、線性回歸中的模型選擇 上圖所示: 五個(gè)模型,一個(gè)比一個(gè)復(fù)雜,其中所包含的function就越多,這樣就有更大幾率找到一個(gè)合適的參數(shù)集來更好的擬合訓(xùn)練集。所以,隨著模型的復(fù)雜度提高,train error呈下降趨勢(shì)。 上圖所示: 右上角的表格中分別體現(xiàn)了在train和test中的損

    2024年01月25日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包