国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

pytorch對(duì)網(wǎng)絡(luò)層的增加,刪除,變更和切片

這篇具有很好參考價(jià)值的文章主要介紹了pytorch對(duì)網(wǎng)絡(luò)層的增加,刪除,變更和切片。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。


前言

今天在這里紀(jì)錄一下如何對(duì)torch網(wǎng)絡(luò)的層進(jìn)行更改:變更,增加,刪除與查找
這里拿VGG16網(wǎng)絡(luò)舉例,先看一下網(wǎng)絡(luò)結(jié)構(gòu)

import torch
import torch.nn as nn
from torchvision import models

net = models.vgg11(pretrained=True)

pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch

一、在網(wǎng)絡(luò)中添加一層:

net網(wǎng)絡(luò)是一個(gè)樹型結(jié)構(gòu), net下面有三個(gè)結(jié)點(diǎn),分別是(features, avgpoll, classifier), 我們先在features結(jié)點(diǎn)添加一層’lastlayer’層

net.features.add_module('lastlayer', nn.Conv2d(512,512, kernel_size=3, stride=1, padding=1))

pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch

  • 在classifier結(jié)點(diǎn)添加一個(gè)線性層:
net.classifier.add_module('Linear', nn.Linear(1000, 10))

pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch

二、修改網(wǎng)絡(luò)中的某一層

  • 以features 結(jié)點(diǎn)舉例
net.features[8] = nn.Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))

pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch

  • 以classifier結(jié)點(diǎn)舉例
net.classifier[6] = nn.Linear(1000, 5)

注意: 這里我嘗試對(duì)Linear這一層進(jìn)行更新, 但是Linear名字是字符串, 提取不出來,所以應(yīng)該在之前添加網(wǎng)絡(luò)時(shí)候, 名字不要取字符串, 否則會(huì)報(bào)錯(cuò) ‘ 'str' object cannot be interpreted as an integer’。
pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch

三、網(wǎng)絡(luò)層的刪除

方法一:使用關(guān)鍵字del刪除層(推薦)

刪除前
pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch

model = prepare_vitmodel('mae_visualize_vit_large_ganloss.pth', 'vit_large_patch16')
del model.head  # 刪除層
model

刪除后
pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch

方法二:將層設(shè)置為空層

以features舉例 classifier結(jié)點(diǎn)的操作相同,這里直接使用nn.Sequential()對(duì)改層設(shè)置為空即可

net.features[13] = nn.Sequential()

pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch

四、網(wǎng)絡(luò)層的切片

net.features = nn.Sequential(*list(net.features.children())[:-4])

可以看到后面4層被去除了, 就是說可以使用列表切片的方法來刪除網(wǎng)絡(luò)層
net.classifier 對(duì)應(yīng) net.classifier.children()
net.features 對(duì)應(yīng) net.features.children()
pytorch添加新層,深度學(xué)習(xí)學(xué)習(xí)筆記,人工智能,深度學(xué)習(xí),python,pytorch文章來源地址http://www.zghlxwxcb.cn/news/detail-649834.html

五、網(wǎng)絡(luò)層的凍結(jié)


#凍結(jié)指定層的預(yù)訓(xùn)練參數(shù):
net.feature[26].weight.requires_grad = False

到了這里,關(guān)于pytorch對(duì)網(wǎng)絡(luò)層的增加,刪除,變更和切片的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Python實(shí)現(xiàn)Excel切片刪除功能(附源碼)

    Python實(shí)現(xiàn)Excel切片刪除功能(附源碼)

    先上效果圖?。?! 如下是需要處理的Excel文件,可以看到在2 7行和117行處的E列 存在數(shù)據(jù)不一致情況,需進(jìn)行“ 切片刪除 ” 運(yùn)行結(jié)果圖如下: 我們可以發(fā)現(xiàn), E列27行至117行 處的不一致數(shù)據(jù)已經(jīng)被刪除,即實(shí)現(xiàn)了在Excel文件內(nèi)部進(jìn)行進(jìn)行**“切片化”**的數(shù)據(jù)刪除操作?。?!

    2024年01月17日
    瀏覽(9)
  • pytorch中的矩陣切片操作完全講解

    pytorch中的矩陣切片操作完全講解

    我們經(jīng)常需要從2維或3維tensor中進(jìn)行切片操作,比如從mask模型中取出mask所在位置的向量。 Talk is cheap, show me code.? 以下所有維度從0開始,3維即 0,1,2 ----------------------------------------------------- 另外,pytorch的函數(shù)已經(jīng)為 這種切片操作準(zhǔn)備好了,用以下代碼: batch[\\\"loss_ids \\\"] 是

    2024年02月14日
    瀏覽(23)
  • 深度學(xué)習(xí)--PyTorch定義Tensor以及索引和切片

    ?這些方法只是開辟了空間,所附的初始值(非常大,非常小,0),后面還需要我們進(jìn)行數(shù)據(jù)的存入。 torch.empty():返回一個(gè)沒有初始化的Tensor,默認(rèn)是FloatTensor類型。 torch.FloatTensor():返回沒有初始化的FloatTensor。 torch.IntTensor():返回沒有初始化的IntTensor。 隨機(jī)均勻分布:

    2023年04月20日
    瀏覽(29)
  • 【pytorch】隨著epoch增加,顯存逐漸增加?解決pytorch顯存釋放問題

    在訓(xùn)練時(shí),檢測(cè) “out of memory” 的error并通過torch.cuda.empty_cache()處理 如: 在測(cè)試時(shí),避免忘記設(shè)置 torch.no_grad() 如: Pytroch - 顯存釋放問題

    2024年02月11日
    瀏覽(20)
  • 四、網(wǎng)絡(luò)層(一)網(wǎng)絡(luò)層的功能

    四、網(wǎng)絡(luò)層(一)網(wǎng)絡(luò)層的功能

    目錄 1.0 網(wǎng)絡(luò)層的功能 1.1 異構(gòu)網(wǎng)絡(luò)互連 1.2 路由選擇與分組轉(zhuǎn)發(fā) 1.3 軟件定義網(wǎng)絡(luò)(SDN) 1.4 擁塞控制 網(wǎng)絡(luò)層的主要任務(wù)就是 將分組從源主機(jī)經(jīng)過多個(gè)網(wǎng)絡(luò)和多段鏈路傳輸?shù)侥康闹鳈C(jī) ,可以將該任務(wù)劃分為 分組轉(zhuǎn)發(fā) 和 路由選擇 兩種重要的功能。? 網(wǎng)絡(luò)層使用的是 向上只提供

    2024年02月09日
    瀏覽(20)
  • 從 X 入門Pytorch——Tensor的索引,切片,拼接,拆分,Reduction操作

    從 X 入門Pytorch——Tensor的索引,切片,拼接,拆分,Reduction操作

    本文參加新星計(jì)劃人工智能(Pytorch)賽道: https://bbs.csdn.net/topics/613989052 承接上文:自己深度學(xué)習(xí)環(huán)境搭建和免費(fèi)環(huán)境使用+Tensor構(gòu)造+Tensor基本操作: 從 X 入門深度學(xué)習(xí)(Pytorch版本) 匯總: Name Out a[i, j, k, …] = a[i][j][k][…] 獲取張量a的具體數(shù)據(jù) a[start : end : step, start1 : end1 : step1

    2024年02月03日
    瀏覽(28)
  • C#匿名方法增加、刪除委托

    匿名方法給我們帶來了方便,那么如何增加刪除匿名方法中附加的委托(事件)呢 一般寫法: 1 2 3 4 this .Loaded += (sender, e) = ????? { ???????????? //Do something ????? }; 進(jìn)化寫法: 1 2 3 4 5 6 7 this .Loaded += new ? RoutedEventHandler(FormulaAssign_Loaded); void ? FormulaAssign_Loaded( objec

    2024年02月11日
    瀏覽(19)
  • Elasticsearch 常用的增加、刪除、修改、查詢語(yǔ)句

    新增 刪除 修改 批量增刪改 查詢 查詢指定索引下全部數(shù)據(jù) 查詢指定索引下指定id的數(shù)據(jù) 查詢指定索引下全部數(shù)據(jù) 查詢指定值(match) 在多個(gè)字段中查詢指定值(multi_match) match、multi_match是模糊匹配,匹配時(shí)會(huì)對(duì)所查找的進(jìn)行分詞,然后按分詞匹配查找。 term 查詢

    2024年02月03日
    瀏覽(31)
  • ubuntu增加、刪除、查看、賦予權(quán)限用戶命令大全

    先說下增加用戶的兩種命令adduser和useradd的區(qū)別: 為了省事情,習(xí)慣于用adduser; 1、新建用戶 name是你要?jiǎng)?chuàng)建的用戶的用戶名,然后設(shè)置密碼,一路回車就可以了 2、給新用戶sudo權(quán)限 新創(chuàng)建的用戶沒有root權(quán)限,我們執(zhí)行以下命令給用戶sudo權(quán)限 3、刪除用戶 刪除用戶及用戶所有

    2024年02月05日
    瀏覽(20)
  • windows 刪除+增加右鍵新建菜單選項(xiàng)

    windows 刪除+增加右鍵新建菜單選項(xiàng)

    目錄 一、刪除右鍵新建菜單選項(xiàng) 1. win + R 打開注冊(cè)表 2. 查看現(xiàn)有的右鍵新建菜單選項(xiàng) 3. 刪除現(xiàn)有的右鍵新建菜單選項(xiàng) 二、增加右鍵新建菜單選項(xiàng) ? 1. win + R 打開注冊(cè)表 鍵盤 win + R,輸入 regedit,從而打開注冊(cè)表。 2. 查看現(xiàn)有的右鍵新建菜單選項(xiàng) 如果你不清楚你的右鍵新建

    2024年02月06日
    瀏覽(86)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包