国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

pytorch中nn.Conv1d功能介紹

這篇具有很好參考價值的文章主要介紹了pytorch中nn.Conv1d功能介紹。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

??????? 在使用Conv1d函數(shù)時,pytorch默認你的數(shù)據(jù)是一維的,比如一句話“深度學習”可以用一個一維數(shù)組 ['深', '度', '學', '習'] 表示,這個數(shù)據(jù)就是一維的。圖片是二維數(shù)據(jù),它有長寬兩個維度。

??????? 因此在使用 Conv1d 函數(shù)時,輸入是一個三位數(shù)組,三個維度分別表示? (批量,通道,長度)

??????? 使用 Conv2d 函數(shù)時,輸入是一個四維數(shù)組,四個維度分別是(批量,通道,行,列),這里不詳細介紹Conv2d。

??????? (批量即 batch_size)

??????? 用如下例子介紹Conv1d(input_channel=3, output_channel=4, kernel_size=1),輸入的例子數(shù)據(jù)為一句話,這句話有5個單詞,假設每個單詞都由三個字母組成,就相當于每個單詞有3個通道,假設這句話是 ['abc', 'def', 'ghi', 'jkl', 'mno'],這些數(shù)據(jù)放在圖1所示的矩陣里,可見長度為5,通道數(shù)為3。

pytorch中nn.Conv1d功能介紹,深度學習,pytorch,人工智能,python
圖1. 數(shù)據(jù)存儲格式

???????? output_channel=4,即有四個卷積核,每個卷積核的通道數(shù)和輸入的通道數(shù)相同,這里是3,如圖2所示,第一個元素'abc'的三個通道'a', 'b', 'c'輸入第一個卷積核,得到紅色數(shù)字,第二個單詞經(jīng)過卷積核得到黃色數(shù)字,排成一列得到第一個通道,四個卷積核得到輸出的四個通道。

????????如果一個batch里有很多句話,那么分別對每句話進行上述計算即可。

pytorch中nn.Conv1d功能介紹,深度學習,pytorch,人工智能,python
圖2. 單個channel計算過程

??????? 測試代碼:

??????? 輸入數(shù)據(jù)的 batch_size=10,通道數(shù)為3,長度為5。卷積核大小為1,卷積核通道數(shù)和輸入數(shù)據(jù)的通道數(shù)一致。輸出數(shù)據(jù)通道數(shù)為7,卷積核的數(shù)量和輸出數(shù)據(jù)的通道數(shù)一致。

??????? 因為卷積核大小為1,所以輸出長度與輸入長度一致,卷積不影響批量數(shù)(batch_size),因此輸出數(shù)據(jù)的(批量,通道,長度)應為(10, 7, 5)

from torch import nn

    conv1 = nn.Conv1d(in_channels=3, out_channels=7, kernel_size=1)
    input = torch.randn(10, 3, 5)
    out = conv1(input)
    print(out.size())

運行后的輸出如下圖所示,可見分析正確。

pytorch中nn.Conv1d功能介紹,深度學習,pytorch,人工智能,python文章來源地址http://www.zghlxwxcb.cn/news/detail-691182.html

到了這里,關(guān)于pytorch中nn.Conv1d功能介紹的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務器費用

相關(guān)文章

  • CONV1D一維卷積神經(jīng)網(wǎng)絡運算過程(舉例:n行3列?n行6列)

    CONV1D一維卷積神經(jīng)網(wǎng)絡運算過程(舉例:n行3列?n行6列)

    作者:CSDN @ _養(yǎng)樂多_ 背景 一維卷積的運算過程網(wǎng)上很多人說不清楚,示意圖畫的也不清楚。因此,本人針對一維卷積的過程,繪制了計算過程,以我的知識量解釋一下 pytorch 中 Conv1d() 函數(shù)的機理。 Conv1d() 計算過程 假設我們現(xiàn)在有 n 行,3列數(shù)據(jù)。n 行可以是 n 個點,也可以

    2024年02月06日
    瀏覽(19)
  • 【PyTorch】nn.Conv2d函數(shù)詳解

    CONV2D官方鏈接 in_channels:輸入的通道數(shù),RGB 圖像的輸入通道數(shù)為 3 out_channels:輸出的通道數(shù) kernel_size:卷積核的大小,一般我們會使用 5x5、3x3 這種左右兩個數(shù)相同的卷積核,因此這種情況只需要寫 kernel_size = 5這樣的就行了。如果左右兩個數(shù)不同,比如3x5的卷積核,那么寫作

    2024年01月22日
    瀏覽(15)
  • 深度學習之pytorch 中 torch.nn介紹

    pytorch 中必用的包就是 torch.nn,torch.nn 中按照功能分,主要如下有幾類: 1. Layers(層):包括全連接層、卷積層、池化層等。 2. Activation Functions(激活函數(shù)):包括ReLU、Sigmoid、Tanh等。 3. Loss Functions(損失函數(shù)):包括交叉熵損失、均方誤差等。 4. Optimizers(優(yōu)化器):包括

    2024年02月22日
    瀏覽(27)
  • 【Pytorch】三維卷積 nn.Conv3d 用法

    nn.Conv3d 是 PyTorch 中實現(xiàn)三維卷積操作的類。 其輸入和輸出的維度如下: 輸入維度: 輸入張量的維度應為 (N, C_in, D, H, W) ,其中: N : 批量大小 (batch size),即一批輸入數(shù)據(jù)中包含的樣本數(shù)量。 C_in : 輸入通道數(shù) (number of input channels),即輸入數(shù)據(jù)的通道數(shù)量,例如彩色圖像通常

    2024年02月05日
    瀏覽(25)
  • pytorch中 nn.Conv2d的簡單用法

    pytorch中 nn.Conv2d的簡單用法

    參數(shù)介紹 : in_channels :卷積層輸入通道數(shù) out_channels :卷積層輸出通道數(shù) kernel_size :卷積層的卷積核大小 padding :填充長度 stride :卷積核移動的步長 dilation :是否采用空洞卷積 groups :是否采用分組卷積 bias :是否添加偏置參數(shù) padding_mode : padding 的模式 如果輸入大小為:

    2024年02月11日
    瀏覽(18)
  • 【深度學習】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch

    【深度學習】特征圖的上采樣(nn.Upsample)和轉(zhuǎn)置卷積(nn.ConvTranspose2d) | pytorch

    這次就不廢話了,我想趕在10點前回去洗頭(現(xiàn)在9.17,還差一篇文章) 該函數(shù)有四個參數(shù): 參數(shù)的介紹如下: 稍微翻譯一下: 參數(shù): 1)size(int或Tuple[int]或Tuple[int,int]或Tupple[int,int,int],可選):輸出空間大小 2)scale_factor(float或Tuple[floot]或Tuple[floot,float]或Tuple[floo

    2023年04月08日
    瀏覽(18)
  • Pytorch學習筆記(5):torch.nn---網(wǎng)絡層介紹(卷積層、池化層、線性層、激活函數(shù)層)

    Pytorch學習筆記(5):torch.nn---網(wǎng)絡層介紹(卷積層、池化層、線性層、激活函數(shù)層)

    ?一、卷積層—Convolution Layers ?1.1?1d / 2d / 3d卷積 1.2 卷積—nn.Conv2d() nn.Conv2d 1.3?轉(zhuǎn)置卷積—nn.ConvTranspose nn.ConvTranspose2d ?二、池化層—Pooling Layer (1)nn.MaxPool2d (2)nn.AvgPool2d (3)nn.MaxUnpool2d ?三、線性層—Linear Layer ?nn.Linear ?四、激活函數(shù)層—Activate Layer (1)nn.Sigmoid ?(

    2024年01月20日
    瀏覽(22)
  • nn.BatchNorm講解,nn.BatchNorm1d, nn.BatchNorm2d代碼演示

    nn.BatchNorm講解,nn.BatchNorm1d, nn.BatchNorm2d代碼演示

    ??????? BatchNorm是深度網(wǎng)絡中經(jīng)常用到的加速神經(jīng)網(wǎng)絡訓練,加速收斂速度及穩(wěn)定性的算法,是深度網(wǎng)絡訓練必不可少的一部分,幾乎成為標配; ????????BatchNorm 即批規(guī)范化,是為了 將每個batch的數(shù)據(jù)規(guī)范化為統(tǒng)一的分布 ,幫助網(wǎng)絡訓練, 對輸入數(shù)據(jù)做規(guī)范化,稱為

    2023年04月18日
    瀏覽(30)
  • pytorch容器之nn.Sequential, nn.ModuleList, nn.ModuleDict介紹

    ??在深度學習模型創(chuàng)建的時候,我們經(jīng)常會碰到 nn.Sequential , nn.ModuleList , nn.ModuleDict 這三個東西,尤其是在遷移學習訓練的時候經(jīng)常碰到,他們到底是什么,怎么用的,使用的時候有哪些注意事項,通過這篇博文淺記一下。 ??在介紹這三個容器之前,我們需要先知道什么

    2024年02月08日
    瀏覽(21)
  • 【PyTorch API】 nn.RNN 和 nn.LSTM 介紹和代碼詳解

    【PyTorch API】 nn.RNN 和 nn.LSTM 介紹和代碼詳解

    torch.nn.RNN 的 PyTorch 鏈接:torch.nn.RNN(*args, **kwargs) nn.RNN 的用法和輸入輸出參數(shù)的介紹直接看代碼: 需要特別注意的是 nn.RNN 的第二個輸出 hn 表示所有掩藏層的在最后一個 time step 隱狀態(tài),聽起來很難理解,看下面的紅色方框內(nèi)的數(shù)據(jù)就懂了。即 output[:, -1, :] = hn[-1, : , :] 這里

    2024年02月12日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包