国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch

這篇具有很好參考價(jià)值的文章主要介紹了【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。


前言

這次就不廢話了,我想趕在10點(diǎn)前回去洗頭(現(xiàn)在9.17,還差一篇文章)

一、nn.Upsample 上采樣

該函數(shù)有四個(gè)參數(shù):
【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch
參數(shù)的介紹如下:
【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch
稍微翻譯一下:
參數(shù):
1)size(int或Tuple[int]或Tuple[int,int]或Tupple[int,int,int],可選):輸出空間大小
2)scale_factor(float或Tuple[floot]或Tuple[floot,float]或Tuple[floot、float、float],可選):空間大小的乘數(shù)。如果是元組,則必須匹配輸入大小。
3)mode(str,可選):上采樣算法:“最近”,“線性”、“雙線性”、“雙三次”和“三線性”。默認(rèn)值 ‘nearst’
4)align_ccorners(bool,可選):如果“True”,則輸入的角像素和輸出張量對(duì)齊,從而保持這些像素。僅當(dāng):attr:mode為“線性”、“線性”或“三線性”。默認(rèn)值:False

深度學(xué)習(xí)里用的比較多的是二倍向上采樣,比如經(jīng)常出現(xiàn)在U-net網(wǎng)絡(luò)結(jié)構(gòu)里,例子如下:

import torch
import torch.nn as nn
A =torch.rand(1,3,24,24)
up=nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True)
B =up(A)
print(B.shape)

【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch

如果少寫(xiě)了一個(gè)維度,就會(huì)報(bào)錯(cuò):

import torch
import torch.nn as nn
A =torch.rand(3,24,24)
up=nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True)
B =up(A)
print(B.shape)

【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch

二、nn.ConvTranspose2d 轉(zhuǎn)置卷積

我們首先看看它的參數(shù),依然如此得多
【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch
其實(shí),轉(zhuǎn)置卷積和普通的卷積操作,參數(shù)配置都是很相似的??磶讉€(gè)例子把
1)311型轉(zhuǎn)置卷積:

import torch
import torch.nn as nn
A =torch.rand(1,64,24,24)
up=nn.ConvTranspose2d(64,32,3,1,1)
B =up(A)
print(B.shape)

【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch
和普通卷積的311一樣,寬高不變
2)310型轉(zhuǎn)置卷積:

import torch
import torch.nn as nn
A =torch.rand(1,64,24,24)
up=nn.ConvTranspose2d(64,32,3,1,0)
B =up(A)
print(B.shape)

【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch
和普通卷積類似,這里是+2(普通卷積是寬高-2)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-401616.html


到了這里,關(guān)于【深度學(xué)習(xí)】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——torch.nn模塊

    機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——torch.nn模塊

    torch.nn模塊包含著torch已經(jīng)準(zhǔn)備好的層,方便使用者調(diào)用構(gòu)建網(wǎng)絡(luò)。 卷積就是 輸入和卷積核之間的內(nèi)積運(yùn)算 ,如下圖: 容易發(fā)現(xiàn),卷積神經(jīng)網(wǎng)絡(luò)中通過(guò)輸入卷積核來(lái)進(jìn)行卷積操作,使輸入單元(圖像或特征映射)和輸出單元(特征映射)之間的連接時(shí)稀疏的,能夠減少需要

    2024年02月15日
    瀏覽(24)
  • 深度學(xué)習(xí)中的采樣:下采樣,上采樣,欠采樣,過(guò)采樣

    下采樣:池化操作就是經(jīng)典的下采樣,將一張圖片縮小,采用不同的方法將像素點(diǎn)合并從而獲得更小分辨率的照片就叫做下采樣。 上采樣:也叫做圖像插值上采樣就和下采樣反過(guò)來(lái),將一張照片放大,在像素點(diǎn)之間根據(jù)放大倍數(shù),以插值的形式插入像素值從而達(dá)到放大圖像的

    2024年02月14日
    瀏覽(24)
  • 深度學(xué)習(xí)上采樣下采樣概念以及實(shí)現(xiàn)

    #pic_center =400x 系列文章: 【深度學(xué)習(xí)】上采樣,下采樣,卷積 torch.nn.functional.interpolate函數(shù) 上采樣 簡(jiǎn)單說(shuō)將圖片放大,通過(guò)在像素鍵插入數(shù)據(jù) 1.插值,一般使用的是雙線性插值,因?yàn)樾Ч詈?,雖然計(jì)算上比其他插值方式復(fù)雜,但是相對(duì)于卷積計(jì)算可以說(shuō)不值一提,其他插

    2024年02月03日
    瀏覽(21)
  • UE引擎開(kāi)啟DLSS(深度學(xué)習(xí)超級(jí)采樣)

    UE引擎開(kāi)啟DLSS(深度學(xué)習(xí)超級(jí)采樣)

    首先打開(kāi)·NVIDIA官方網(wǎng)站 Getting Started with DLSS 從下面的鏈接里面找到unreal版本的DLSS ?根據(jù)提供的幾個(gè)版本去下載指定版本的壓縮包(另外在上面也提供了Unity版本的壓縮包) 解完壓縮包后將其解壓到插件目錄下面去 ?然后啟動(dòng)UE5 ?開(kāi)啟插件,在設(shè)置里面打開(kāi) 可以看到,有質(zhì)量

    2024年02月12日
    瀏覽(20)
  • 圖的學(xué)習(xí),深度和廣度遍歷

    圖的學(xué)習(xí),深度和廣度遍歷

    表示“多對(duì)多”的關(guān)系 包括: 一組頂點(diǎn):通常用V(Vertex)表示頂點(diǎn)集合 一組邊:通常用E(Edge)表示邊的集合 邊是頂點(diǎn)對(duì):(v, w)∈E,其中v,w∈V 有向邊v, w表示從v指向w的邊(單行線) 不考慮重邊和自回路 類型名稱:圖(Graph) 數(shù)據(jù)對(duì)象集:G(V, E)由一個(gè)非空的有限頂點(diǎn)

    2024年02月09日
    瀏覽(21)
  • 【深度學(xué)習(xí)】多卡訓(xùn)練__單機(jī)多GPU方法詳解(torch.nn.DataParallel、torch.distributed)

    【深度學(xué)習(xí)】多卡訓(xùn)練__單機(jī)多GPU方法詳解(torch.nn.DataParallel、torch.distributed)

    多GPU訓(xùn)練能夠加快模型的訓(xùn)練速度,而且在單卡上不能訓(xùn)練的模型可以使用多個(gè)小卡達(dá)到訓(xùn)練的目的。 多GPU訓(xùn)練可以分為單機(jī)多卡和多機(jī)多卡這兩種,后面一種也就是分布式訓(xùn)練——訓(xùn)練方式比較麻煩,而且要關(guān)注的性能問(wèn)題也有很多,據(jù)網(wǎng)上的資料有人建議能單機(jī)訓(xùn)練最好

    2024年02月02日
    瀏覽(20)
  • 【深度學(xué)習(xí)】實(shí)驗(yàn)03 特征處理

    【深度學(xué)習(xí)】實(shí)驗(yàn)03 特征處理

    標(biāo)準(zhǔn)化、歸一化和正則化是常見(jiàn)的數(shù)據(jù)處理方法,用于在機(jī)器學(xué)習(xí)和統(tǒng)計(jì)模型中對(duì)數(shù)據(jù)進(jìn)行預(yù)處理和特征轉(zhuǎn)換。它們具有不同的目的和方法。 歸一化是機(jī)器學(xué)習(xí)中一個(gè)非常重要的數(shù)據(jù)預(yù)處理方法,它通過(guò)對(duì)數(shù)據(jù)進(jìn)行縮放和轉(zhuǎn)換,使得數(shù)據(jù)能夠在計(jì)算時(shí)更加準(zhǔn)確、更加穩(wěn)定,從

    2024年02月11日
    瀏覽(12)
  • 深度學(xué)習(xí) - 40. N-Gram 采樣與 Session 數(shù)據(jù)獲取 For EGES

    深度學(xué)習(xí) - 40. N-Gram 采樣與 Session 數(shù)據(jù)獲取 For EGES

    目錄 一.引言 二.訂單數(shù)據(jù)預(yù)處理 1.數(shù)據(jù)樣例 2.訂單數(shù)據(jù)處理 3.用戶 Session 構(gòu)建 三.構(gòu)造 sku_id 游走序列 1.獲取完整 Session List 2.統(tǒng)計(jì) sku_id 轉(zhuǎn)移詞頻 3.構(gòu)建 sku_id 圖 4.游走構(gòu)造 sku 序列 四.商品側(cè)信息預(yù)處理 1.讀取商品信息 2.Left Join 匹配側(cè)信息 3.Id2Index 構(gòu)建 五.基于 Ngram 與 Negat

    2023年04月23日
    瀏覽(19)
  • 從零構(gòu)建深度學(xué)習(xí)推理框架-7 計(jì)算圖的表達(dá)式

    從零構(gòu)建深度學(xué)習(xí)推理框架-7 計(jì)算圖的表達(dá)式

    表達(dá)式就是一個(gè)計(jì)算過(guò)程,類似于如下: 用圖形來(lái)表達(dá)就是這樣的。 但是在PNNX的表達(dá)式(Experssion Layer)中不是這個(gè)樣子,而是以一種抽象得方式,替換掉輸入張量改為@1,@2等等 所以上面的計(jì)算圖也就變成了 我們是希望把這個(gè)抽象的表達(dá)式變回到一個(gè)方便后端執(zhí)行的計(jì)算過(guò)程

    2024年02月13日
    瀏覽(23)
  • 深度學(xué)習(xí)記錄--歸—化輸入特征

    深度學(xué)習(xí)記錄--歸—化輸入特征

    歸化輸入(normalizing inputs),對(duì)特征值進(jìn)行一定的處理,可以加速神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度 步驟 零均值化 通過(guò)x值更新讓均值穩(wěn)定在零附近,即為零均值化 歸化方差 適當(dāng)減小變量方差 歸化可以讓原本狹長(zhǎng)的數(shù)據(jù)圖像變得規(guī)整,梯度下降的迭代次數(shù)減少,訓(xùn)練速度變快 Python實(shí)現(xiàn)數(shù)據(jù)預(yù)

    2024年01月18日
    瀏覽(13)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包