国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【Python】【Torch】神經(jīng)網(wǎng)絡(luò)中各層輸出的特征圖可視化詳解和示例

這篇具有很好參考價(jià)值的文章主要介紹了【Python】【Torch】神經(jīng)網(wǎng)絡(luò)中各層輸出的特征圖可視化詳解和示例。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

本文對(duì)神經(jīng)網(wǎng)絡(luò)各層特征圖可視化的過程進(jìn)行運(yùn)行示例,方便大家使用,有助于更好的理解深度學(xué)習(xí)的過程,尤其是每層的結(jié)果。

神經(jīng)網(wǎng)絡(luò)各層特征圖可視化的好處和特點(diǎn)如下:

可視化過程可以了解網(wǎng)絡(luò)對(duì)圖像像素的權(quán)重分布,可以了解網(wǎng)絡(luò)對(duì)圖像特征的提取過程,還可以剔除對(duì)特征表達(dá)無關(guān)緊要的像素,縮短網(wǎng)絡(luò)訓(xùn)練時(shí)間,減少模型復(fù)雜度。
可以將復(fù)雜多維數(shù)據(jù)以圖像形式呈現(xiàn),幫助科研人員更好的理解數(shù)據(jù)特征,同時(shí)可以建立定量化的圖像與病理切片的對(duì)應(yīng)關(guān)系,為后續(xù)病理研究提供可視化依據(jù)。

本示例以一幅圖象經(jīng)過一層卷積輸出為例進(jìn)行。在自己運(yùn)行時(shí)可以多加幾層卷積和調(diào)整相應(yīng)的輸出通道等操作。

import torch
import torch.nn as nn
import matplotlib.pyplot as plt
from PIL import Image
import numpy as np
import math
from torchvision import transforms
# 定義一個(gè)卷積層
conv_layer = nn.Conv2d(in_channels=3, out_channels=64, kernel_size=3, stride=2, padding=1)

# 輸入圖像(隨機(jī)生成)
image = Image.open("../11111.jpg")
#input_image = torch.randn(1, 3, 224, 224)
transform = transforms.Compose([
    transforms.ToTensor()
])

# 對(duì)圖像應(yīng)用轉(zhuǎn)換操作
input_image= transform(image)
input_image = input_image.unsqueeze(0)

# 通過卷積層獲取特征圖
feature_map = conv_layer(input_image)

batch, channels, height, width = feature_map.shape
blocks = torch.chunk(feature_map[0].cpu(), channels, dim=0)
n = min(32, channels)  # number of plots
fig, ax = plt.subplots(math.ceil(n / 8), 8, tight_layout=True)  # 8 rows x n/8 cols
ax = ax.ravel()
plt.subplots_adjust(wspace=0.05, hspace=0.05)
for i in range(n):
    ax[i].imshow(blocks[i].squeeze().detach().numpy())  # cmap='gray'
    ax[i].axis('off')
plt.savefig('./tezhengtu.jpg', dpi=300, bbox_inches='tight')
plt.show()
plt.close()

代碼解釋:
步驟1 定義一個(gè)卷積層(Convolutional Layer):conv_layer,該卷積層有3個(gè)輸入通道,64個(gè)輸出通道, kernel size為3x3,步長(zhǎng)為2,填充為1。
步驟2輸入圖像:這里使用了一個(gè)真實(shí)的圖像文件路徑"…/11111.jpg"作為輸入圖像。你可以替換為你自己的圖像文件路徑。
步驟3定義一個(gè)圖像轉(zhuǎn)換操作(transform)序列,用于將輸入圖像轉(zhuǎn)換為PyTorch需要的張量格式。這里僅包含一個(gè)操作:轉(zhuǎn)換為張量(ToTensor)。
步驟4對(duì)輸入圖像應(yīng)用轉(zhuǎn)換操作:通過transform(image)將圖像轉(zhuǎn)換為PyTorch張量,然后通過unsqueeze(0)增加一個(gè)額外的維度(batch維度),使得輸入圖像的形狀變?yōu)?1, 3, H, W)。

步驟5通過卷積層獲取特征圖:將輸入圖像傳遞給卷積層conv_layer,得到特征圖feature_map。
步驟6將特征圖轉(zhuǎn)換為numpy數(shù)組:為了可視化,需要將特征圖從PyTorch張量轉(zhuǎn)換為numpy數(shù)組。這里使用了detach().numpy()方法來實(shí)現(xiàn)轉(zhuǎn)換。
步驟7獲取特征圖的一些屬性:使用shape屬性獲取特征圖的batch大小、通道數(shù)、高度和寬度。
步驟8分塊顯示特征圖:為了在圖像中顯示特征圖,需要將特征圖分塊處理。這里使用torch.chunk方法將特征圖按照通道數(shù)分割成若干塊,每一塊代表一個(gè)通道的輸出。然后使用Matplotlib庫中的subplot功能將分塊后的圖像顯示在畫布上。具體地,這段代碼將分塊后的圖像顯示在一個(gè)8x8的畫布上,每個(gè)小圖的尺寸為256x256像素(因?yàn)樽詈笠粔K圖像可能不足8個(gè)通道,所以使用了最少的小圖數(shù)量)。最后使用savefig方法保存圖像到文件,并關(guān)閉Matplotlib的畫布。

輸入的圖像為:
python神經(jīng)網(wǎng)絡(luò)可視化,Python學(xué)習(xí)和使用過程積累,python,神經(jīng)網(wǎng)絡(luò),開發(fā)語言,深度學(xué)習(xí),人工智能,pytorch
經(jīng)過一層卷積之后的特征圖為:

python神經(jīng)網(wǎng)絡(luò)可視化,Python學(xué)習(xí)和使用過程積累,python,神經(jīng)網(wǎng)絡(luò),開發(fā)語言,深度學(xué)習(xí),人工智能,pytorch文章來源地址http://www.zghlxwxcb.cn/news/detail-756032.html

到了這里,關(guān)于【Python】【Torch】神經(jīng)網(wǎng)絡(luò)中各層輸出的特征圖可視化詳解和示例的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 一維卷積神經(jīng)網(wǎng)絡(luò)理解(torch.nn.Conv1d)

    一維卷積神經(jīng)網(wǎng)絡(luò)理解(torch.nn.Conv1d)

    in_channels : (int)輸入數(shù)據(jù)的通道數(shù),即對(duì)某條訓(xùn)練數(shù)據(jù)來說由多少組向量表示。例如對(duì)于由一維向量表示的一條數(shù)據(jù)來說,通道數(shù)為1;對(duì)于文本數(shù)據(jù)來說,一個(gè)句子是由m個(gè)單詞組成,那么通道數(shù)就可以是m out_channels : (int)卷積產(chǎn)生的通道數(shù),可以理解為卷積核的個(gè)數(shù) kernel_siz

    2023年04月08日
    瀏覽(23)
  • 神經(jīng)網(wǎng)絡(luò)輸出中間特征圖

    神經(jīng)網(wǎng)絡(luò)輸出中間特征圖

    在進(jìn)行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,會(huì)生成不同的特征圖信息,這些特征圖中包含大量圖像信息,如輪廓信息,細(xì)節(jié)信息等,然而,我們一般只獲取最終的輸出結(jié)果,至于中間的特征圖則很少關(guān)注。 前兩天師弟突然問起了這個(gè)問題,但我也沒有頭緒,后來和師弟研究了一下,大概

    2024年02月09日
    瀏覽(19)
  • 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)-神經(jīng)網(wǎng)絡(luò)補(bǔ)充概念-12-向量化邏輯回歸的梯度輸出

    我們首先定義了 compute_gradient 函數(shù),它計(jì)算梯度向量。然后,在 batch_gradient_descent 函數(shù)中使用向量化的梯度計(jì)算,從而避免了循環(huán)操作。 這種向量化的梯度計(jì)算方法可以有效地處理多個(gè)樣本,從而提高代碼的性能。

    2024年02月12日
    瀏覽(17)
  • 一文速學(xué)-讓神經(jīng)網(wǎng)絡(luò)不再神秘,一天速學(xué)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)-輸出層(四)

    一文速學(xué)-讓神經(jīng)網(wǎng)絡(luò)不再神秘,一天速學(xué)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)-輸出層(四)

    思索了很久到底要不要出深度學(xué)習(xí)內(nèi)容,畢竟在數(shù)學(xué)建模專欄里邊的機(jī)器學(xué)習(xí)內(nèi)容還有一大半算法沒有更新,很多坑都沒有填滿,而且現(xiàn)在深度學(xué)習(xí)的文章和學(xué)習(xí)課程都十分的多,我考慮了很久決定還是得出神經(jīng)網(wǎng)絡(luò)系列文章,不然如果以后數(shù)學(xué)建模競(jìng)賽或者是其他更優(yōu)化模

    2024年02月10日
    瀏覽(23)
  • 【深度學(xué)習(xí)】2-3 神經(jīng)網(wǎng)絡(luò)-輸出層設(shè)計(jì)

    【深度學(xué)習(xí)】2-3 神經(jīng)網(wǎng)絡(luò)-輸出層設(shè)計(jì)

    前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network),之前介紹的單層感知機(jī)、多層感知機(jī)等都屬于前饋神經(jīng)網(wǎng)絡(luò),它之所以稱為前饋(Feedforward),或許與其信息往前流有關(guān):數(shù)據(jù)從輸入開始,流過中間計(jì)算過程,最后達(dá)到 輸出層 。 下面來看輸出層如何設(shè)計(jì) 機(jī)器學(xué)習(xí)的問題大致可以分為分類

    2024年02月10日
    瀏覽(17)
  • GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)形參分析-筆記

    GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)形參分析-筆記 分析結(jié)果為: 輸入數(shù)據(jù)形狀:[10, 3, 224, 224] 最后輸出結(jié)果:linear_0 [10, 1] [1024, 1] [1] 子空間執(zhí)行邏輯 其中拼接張量情況為: 拼接代碼:paddle.concat([p1, p2, p3, p4], axis=1) 如 p1=[10,64,5,6,56] p2=[10,128,56,56] p3=[10,32,56,56] p4=[10,32,56,56] 拼接后結(jié)果

    2024年02月14日
    瀏覽(21)
  • ResNet50卷積神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)形參分析-筆記

    ResNet50卷積神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)形參分析-筆記

    ResNet50卷積神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)形參分析-筆記 ResNet50包含多個(gè)模塊,其中第2到第5個(gè)模塊分別包含3、4、6、3個(gè)殘差塊 50=49個(gè)卷積(3+4+6+3)*3+1和一個(gè)全連接層 分析結(jié)果為: 輸入數(shù)據(jù)形狀:[10, 3, 224, 224] 最后輸出結(jié)果:linear_0 [10, 1] [2048, 1] [1] ResNet50包含多個(gè)模塊,其中第2到第5個(gè)模

    2024年02月14日
    瀏覽(59)
  • 【環(huán)境搭建】MacOS系統(tǒng)M1芯片從零開始安裝torch torch-geometric(PyG) torch-sparse torch-scatter步驟詳解、配置圖神經(jīng)網(wǎng)絡(luò)(GNN)訓(xùn)練環(huán)境教程

    前言:實(shí)際上只裝PyTorch或者torch不會(huì)遇到什么問題,但是torch-geometric、torch-scatter、torch-sparse在M1 chip的Mac上非常難安裝( PyG DocumentationInstallation 里注明了“Conda packages are currently not available for M1/M2/M3 macs”)。博主試錯(cuò)過程中遇到了很多無解的bug,還把conda搞炸了,最終不得不

    2024年02月02日
    瀏覽(59)
  • 如何使用torch.nn.utils.prune稀疏神經(jīng)網(wǎng)絡(luò),以及如何擴(kuò)展它以實(shí)現(xiàn)自己的自定義剪裁技術(shù)

    最新的深度學(xué)習(xí)技術(shù)依賴于難以部署的過度參數(shù)化模型。 相反,已知生物神經(jīng)網(wǎng)絡(luò)使用有效的稀疏連通性。 為了減少內(nèi)存,電池和硬件消耗,同時(shí)又不犧牲精度,在設(shè)備上部署輕量級(jí)模型并通過私有設(shè)備上計(jì)算來確保私密性,確定通過減少模型中的參數(shù)數(shù)量來壓縮模型的最

    2024年02月12日
    瀏覽(20)
  • 回歸預(yù)測(cè) | MATLAB實(shí)現(xiàn)GRNN廣義回歸神經(jīng)網(wǎng)絡(luò)多輸入多輸出預(yù)測(cè)

    回歸預(yù)測(cè) | MATLAB實(shí)現(xiàn)GRNN廣義回歸神經(jīng)網(wǎng)絡(luò)多輸入多輸出預(yù)測(cè)

    預(yù)測(cè)效果 基本介紹 MATLAB實(shí)現(xiàn)GRNN廣義回歸神經(jīng)網(wǎng)絡(luò)多輸入多輸出預(yù)測(cè),輸入10個(gè)特征,輸出3個(gè)變量,程序亂碼是由于版本不一致導(dǎo)致,可以用記事本打開復(fù)制到你的文件,運(yùn)行環(huán)境MATLAB2018b及以上。 命令窗口輸出MAE和R2,可在下載區(qū)獲取數(shù)據(jù)和程序內(nèi)容。 程序設(shè)計(jì) 完整程序和

    2024年02月12日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包