国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

學習pytorch13 神經(jīng)網(wǎng)絡-搭建小實戰(zhàn)&Sequential的使用

這篇具有很好參考價值的文章主要介紹了學習pytorch13 神經(jīng)網(wǎng)絡-搭建小實戰(zhàn)&Sequential的使用。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

B站小土堆pytorch視頻學習

官網(wǎng)

https://pytorch.org/docs/stable/generated/torch.nn.Sequential.html#torch.nn.Sequential

sequential 將模型結構組合起來 以逗號分割,按順序執(zhí)行,和compose使用方式類似。
學習pytorch13 神經(jīng)網(wǎng)絡-搭建小實戰(zhàn)&Sequential的使用,學習pytorch,神經(jīng)網(wǎng)絡,pytorch,python

模型結構

學習pytorch13 神經(jīng)網(wǎng)絡-搭建小實戰(zhàn)&Sequential的使用,學習pytorch,神經(jīng)網(wǎng)絡,pytorch,python

根據(jù)模型結構和數(shù)據(jù)的輸入shape,計算用在模型中的超參數(shù)

學習pytorch13 神經(jīng)網(wǎng)絡-搭建小實戰(zhàn)&Sequential的使用,學習pytorch,神經(jīng)網(wǎng)絡,pytorch,python

箭頭指向部分還需要一層flatten層,展開輸入shape為一維
學習pytorch13 神經(jīng)網(wǎng)絡-搭建小實戰(zhàn)&Sequential的使用,學習pytorch,神經(jīng)網(wǎng)絡,pytorch,python

code

import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.tensorboard import SummaryWriter


class MySeq(nn.Module):
    def __init__(self):
        super(MySeq, self).__init__()
        self.conv1 = Conv2d(3, 32, kernel_size=5, stride=1, padding=2)
        self.maxp1 = MaxPool2d(2)
        self.conv2 = Conv2d(32, 32, kernel_size=5, stride=1, padding=2)
        self.maxp2 = MaxPool2d(2)
        self.conv3 = Conv2d(32, 64, kernel_size=5, stride=1, padding=2)
        self.maxp3 = MaxPool2d(2)
        self.flatten1 = Flatten()
        self.linear1 = Linear(1024, 64)
        self.linear2 = Linear(64, 10)

    def forward(self, x):
        x = self.conv1(x)
        x = self.maxp1(x)
        x = self.conv2(x)
        x = self.maxp2(x)
        x = self.conv3(x)
        x = self.maxp3(x)
        x = self.flatten1(x)
        x = self.linear1(x)
        x = self.linear2(x)
        return x

class MySeq2(nn.Module):
    def __init__(self):
        super(MySeq2, self).__init__()
        self.model1 = Sequential(Conv2d(3, 32, kernel_size=5, stride=1, padding=2),
                                 MaxPool2d(2),
                                 Conv2d(32, 32, kernel_size=5, stride=1, padding=2),
                                 MaxPool2d(2),
                                 Conv2d(32, 64, kernel_size=5, stride=1, padding=2),
                                 MaxPool2d(2),
                                 Flatten(),
                                 Linear(1024, 64),
                                 Linear(64, 10)
                                 )

    def forward(self, x):
        x = self.model1(x)
        return x


myseq = MySeq()
input = torch.ones(64, 3, 32, 32)
print(myseq)
print(input.shape)
output = myseq(input)
print(output.shape)

myseq2 = MySeq2()
print(myseq2)
output2 = myseq2(input)
print(output2.shape)

wirter = SummaryWriter('logs')
wirter.add_graph(myseq, input)
wirter.add_graph(myseq2, input)

running log

MySeq(
  (conv1): Conv2d(3, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
  (maxp1): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
  (conv2): Conv2d(32, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
  (maxp2): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
  (conv3): Conv2d(32, 64, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
  (maxp3): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
  (flatten1): Flatten(start_dim=1, end_dim=-1)
  (linear1): Linear(in_features=1024, out_features=64, bias=True)
  (linear2): Linear(in_features=64, out_features=10, bias=True)
)
torch.Size([64, 3, 32, 32])
torch.Size([64, 10])
MySeq2(
  (model1): Sequential(
    (0): Conv2d(3, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    (1): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (2): Conv2d(32, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    (3): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (4): Conv2d(32, 64, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    (5): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (6): Flatten(start_dim=1, end_dim=-1)
    (7): Linear(in_features=1024, out_features=64, bias=True)
    (8): Linear(in_features=64, out_features=10, bias=True)
  )
)
torch.Size([64, 10])

網(wǎng)絡結構可視化

from torch.utils.tensorboard import SummaryWriter
wirter = SummaryWriter('logs')
wirter.add_graph(myseq, input)
tensorboard --logdir=logs

tensorboard 展示圖文件, 雙擊每層網(wǎng)絡,可查看層定義細節(jié)
學習pytorch13 神經(jīng)網(wǎng)絡-搭建小實戰(zhàn)&Sequential的使用,學習pytorch,神經(jīng)網(wǎng)絡,pytorch,python文章來源地址http://www.zghlxwxcb.cn/news/detail-725363.html

到了這里,關于學習pytorch13 神經(jīng)網(wǎng)絡-搭建小實戰(zhàn)&Sequential的使用的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Pytorch學習第二周--Day 12-13: 構建你的第一個神經(jīng)網(wǎng)絡

    Day 12-13: 構建你的第一個神經(jīng)網(wǎng)絡 在這兩天里,我動手實踐構建了我的第一個神經(jīng)網(wǎng)絡,目的是解決一個基本的分類問題。使用了兩個主流的深度學習框架:PyTorch和TensorFlow,以對比和理解它們在神經(jīng)網(wǎng)絡構建方面的不同。 目標:構建一個全連接的神經(jīng)網(wǎng)絡來處理分類問題。

    2024年01月20日
    瀏覽(39)
  • PyTorch深度學習實戰(zhàn)(3)——使用PyTorch構建神經(jīng)網(wǎng)絡

    PyTorch深度學習實戰(zhàn)(3)——使用PyTorch構建神經(jīng)網(wǎng)絡

    我們已經(jīng)學習了如何從零開始構建神經(jīng)網(wǎng)絡,神經(jīng)網(wǎng)絡通常包括輸入層、隱藏層、輸出層、激活函數(shù)、損失函數(shù)和學習率等基本組件。在本節(jié)中,我們將學習如何在簡單數(shù)據(jù)集上使用 PyTorch 構建神經(jīng)網(wǎng)絡,利用張量對象操作和梯度值計算更新網(wǎng)絡權重。 1.1 使用 PyTorch 構建神

    2024年02月08日
    瀏覽(25)
  • 小白的機器學習之路(四)神經(jīng)網(wǎng)絡的初步認識:基于pytorch搭建自己的神經(jīng)網(wǎng)絡

    小白的機器學習之路(四)神經(jīng)網(wǎng)絡的初步認識:基于pytorch搭建自己的神經(jīng)網(wǎng)絡

    當前交通大數(shù)據(jù)業(yè)務的需要,需要承擔一部分算法工作(數(shù)據(jù)處理) 目標四: 學習深度學習基礎:了解神經(jīng)網(wǎng)絡的基本結構、反向傳播算法和激活函數(shù)等。 目標任務:使用深度學習算法構建一個簡單的神經(jīng)網(wǎng)絡模型,并訓練模型。 學習計劃小貼士: 每天定期復習前幾天的

    2024年02月15日
    瀏覽(21)
  • Pytorch入門學習——快速搭建神經(jīng)網(wǎng)絡、優(yōu)化器、梯度計算

    Pytorch入門學習——快速搭建神經(jīng)網(wǎng)絡、優(yōu)化器、梯度計算

    我的代碼可以在我的Github找到 GIthub地址 https://github.com/QinghongShao-sqh/Pytorch_Study 因為最近有同學問我如何Nerf入門,這里就簡單給出一些我的建議: (1)基本的pytorch,機器學習,深度學習知識,本文介紹的pytorch知識掌握也差不多. 機器學習、深度學習零基礎的話B站?吳恩達、

    2024年02月14日
    瀏覽(20)
  • PyTorch深度學習實戰(zhàn)(1)——神經(jīng)網(wǎng)絡與模型訓練過程詳解

    PyTorch深度學習實戰(zhàn)(1)——神經(jīng)網(wǎng)絡與模型訓練過程詳解

    人工神經(jīng)網(wǎng)絡 ( Artificial Neural Network , ANN ) 是一種監(jiān)督學習算法,其靈感來自人類大腦的運作方式。類似于人腦中神經(jīng)元連接和激活的方式,神經(jīng)網(wǎng)絡接受輸入,通過某些函數(shù)在網(wǎng)絡中進行傳遞,導致某些后續(xù)神經(jīng)元被激活,從而產(chǎn)生輸出。函數(shù)越復雜,網(wǎng)絡對于輸入的數(shù)據(jù)擬

    2024年02月06日
    瀏覽(26)
  • 項目實戰(zhàn)解析:基于深度學習搭建卷積神經(jīng)網(wǎng)絡模型算法,實現(xiàn)圖像識別分類

    項目實戰(zhàn)解析:基于深度學習搭建卷積神經(jīng)網(wǎng)絡模型算法,實現(xiàn)圖像識別分類

    隨著人工智能的不斷發(fā)展,深度學習這門技術也越來越重要,很多人都開啟了學習機器學習,本文將通過項目開發(fā)實例,帶領大家從零開始設計實現(xiàn)一款基于深度學習的圖像識別算法。 學習本章內(nèi)容, 你需要掌握以下基礎知識: Python 基礎語法 計算機視覺庫(OpenCV) 深度學習

    2024年02月03日
    瀏覽(100)
  • 【Pytorch】神經(jīng)網(wǎng)絡搭建

    【Pytorch】神經(jīng)網(wǎng)絡搭建

    在之前我們學習了如何用Pytorch去導入我們的數(shù)據(jù)和數(shù)據(jù)集,并且對數(shù)據(jù)進行預處理。接下來我們就需要學習如何利用Pytorch去構建我們的神經(jīng)網(wǎng)絡了。 目錄 基本網(wǎng)絡框架Module搭建 卷積層 從conv2d方法了解原理 從Conv2d方法了解使用 池化層 填充層 非線性層 線性層 Pytorch里面有一

    2023年04月17日
    瀏覽(19)
  • PyTorch 神經(jīng)網(wǎng)絡搭建模板

    在 PyTorch 中, Dataset 和 DataLoader 是用來處理數(shù)據(jù)的重要工具。它們的作用分別如下: Dataset : Dataset 用于存儲數(shù)據(jù)樣本及其對應的標簽。在使用神經(jīng)網(wǎng)絡訓練時,通常需要將原始數(shù)據(jù)集轉換為 Dataset 對象,以便能夠通過 DataLoader 進行批量讀取數(shù)據(jù),同時也可以方便地進行數(shù)據(jù)

    2023年04月08日
    瀏覽(16)
  • Python深度學習實戰(zhàn)-基于class類搭建BP神經(jīng)網(wǎng)絡實現(xiàn)分類任務(附源碼和實現(xiàn)效果)

    Python深度學習實戰(zhàn)-基于class類搭建BP神經(jīng)網(wǎng)絡實現(xiàn)分類任務(附源碼和實現(xiàn)效果)

    實現(xiàn)功能 上篇文章介紹了用Squential搭建BP神經(jīng)網(wǎng)絡,Squential可以搭建出上層輸出就是下層輸入的順序神經(jīng)網(wǎng)絡結構,無法搭出一些帶有跳連的非順序網(wǎng)絡結構,這個時候我們可以選擇類class搭建封裝神經(jīng)網(wǎng)絡結構。 第一步:import tensorflow as tf:導入模塊 第二步:制定輸入網(wǎng)絡

    2024年02月08日
    瀏覽(34)
  • 【搭建PyTorch神經(jīng)網(wǎng)絡進行氣溫預測】

    【搭建PyTorch神經(jīng)網(wǎng)絡進行氣溫預測】

    year month day week temp_2 temp_1 average actual friend 0 2016 1 1 Fri 45 45 45.6 45 29 1 2016 1 2 Sat 44 45 45.7 44 61 2 2016 1 3 Sun 45 44 45.8 41 56 3 2016 1 4 Mon 44 41 45.9 40 53 4 2016 1 5 Tues 41 40 46.0 44 41 數(shù)據(jù)表中 year,moth,day,week分別表示的具體的時間 temp_2:前天的最高溫度值 temp_1:昨天的最高溫度值 average:在歷

    2024年02月14日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包