国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

PyTorch自學(xué)&遇到的一些錯(cuò)誤

這篇具有很好參考價(jià)值的文章主要介紹了PyTorch自學(xué)&遇到的一些錯(cuò)誤。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

為什么是false?

①檢查GPU是否支持CUDA?

支持

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

理解Package結(jié)構(gòu)及法寶函數(shù)的作用

pytorch就像一個(gè)工具箱

dir():打開操作,能看到里面有什么東西---->dir(torch)

help():說明書---->help(torch.cuda.is_available)

From torch.utils.data import Dataset

pytorch如何讀取數(shù)據(jù)?

①Dataset

?提供一種方式去獲取數(shù)據(jù)及其label

如何獲取每一個(gè)數(shù)據(jù)及其label

告訴我們總共有多少的數(shù)據(jù)

②Dataloader

為網(wǎng)絡(luò)提供不同的數(shù)據(jù)形式

Tensorboard的使用

Global_step:x軸

Scalar_value:y軸

如何讀取logs里面的文件

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

PS F:\HDU\PyTorchStudy> tensorboard --logdir=logs

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

指定端口:tensorboard --logdir=logs --port=6007

結(jié)果:有圖像展示

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

圖像變換,transform的使用

利用numpy.array(),對PIL圖片進(jìn)行轉(zhuǎn)換

torchvision中的transforms:對圖像進(jìn)行一個(gè)變換

Transforms.py 工具箱

Totensor/resize/。。。

圖片--->工具 --->結(jié)果

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

結(jié)果:

tensor([[[0.3137, 0.3137, 0.3137,? ..., 0.3176, 0.3098, 0.2980],
???????? [0.3176, 0.3176, 0.3176,? ..., 0.3176, 0.3098, 0.2980],
???????? [0.3216, 0.3216, 0.3216,? ..., 0.3137, 0.3098, 0.3020],
???????? ...,
???????? [0.3412, 0.3412, 0.3373,? ..., 0.1725, 0.3725, 0.3529],
???????? [0.3412, 0.3412, 0.3373,? ..., 0.3294, 0.3529, 0.3294],
???????? [0.3412, 0.3412, 0.3373,? ..., 0.3098, 0.3059, 0.3294]],

??????? [[0.5922, 0.5922, 0.5922,? ..., 0.5961, 0.5882, 0.5765],
???????? [0.5961, 0.5961, 0.5961,? ..., 0.5961, 0.5882, 0.5765],
???????? [0.6000, 0.6000, 0.6000,? ..., 0.5922, 0.5882, 0.5804],
???????? ...,
???????? [0.6275, 0.6275, 0.6235,? ..., 0.3608, 0.6196, 0.6157],
???????? [0.6275, 0.6275, 0.6235,? ..., 0.5765, 0.6275, 0.5961],
???????? [0.6275, 0.6275, 0.6235,? ..., 0.6275, 0.6235, 0.6314]],

??????? [[0.9137, 0.9137, 0.9137,? ..., 0.9176, 0.9098, 0.8980],
???????? [0.9176, 0.9176, 0.9176,? ..., 0.9176, 0.9098, 0.8980],
???????? [0.9216, 0.9216, 0.9216,? ..., 0.9137, 0.9098, 0.9020],
???????? ...,
???????? [0.9294, 0.9294, 0.9255,? ..., 0.5529, 0.9216, 0.8941],
???????? [0.9294, 0.9294, 0.9255,? ..., 0.8863, 1.0000, 0.9137],
???????? [0.9294, 0.9294, 0.9255,? ..., 0.9490, 0.9804, 0.9137]]])

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

常見的Transforms

輸入

?????? PIL?

?? Image.open()

輸出

tensor

ToTensor()

作用

narrays

Cv.imread()

call的使用

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

__call__Hello zhangsan
Hellolisi

?

?

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

?

?

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

?

?

歸一化:Normalize

output[channel] = (input[channel] - mean[channel]) / std[channel]

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

<PIL.JpegImagePlugin.JpegImageFile image mode=RGB size=500x333 at 0x232A68BC488>
tensor(0.8863)
tensor(0.7725)

?

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

?

?

Resize()的使用

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

(500, 333)
tensor([[[0.8863, 0.8824, 0.8745,? ..., 0.8392, 0.8392, 0.8392],
???????? [0.8824, 0.8784, 0.8706,? ..., 0.8392, 0.8392, 0.8392],
???????? [0.8784, 0.8745, 0.8667,? ..., 0.8353, 0.8353, 0.8353],
???????? ...,
???????? [1.0000, 1.0000, 1.0000,? ..., 0.8314, 0.8314, 0.8314],
???????? [1.0000, 1.0000, 1.0000,? ..., 0.8314, 0.8314, 0.8314],
???????? [1.0000, 1.0000, 1.0000,? ..., 0.8314, 0.8314, 0.8314]],

??????? [[0.1451, 0.1412, 0.1333,? ..., 0.8471, 0.8471, 0.8471],
???????? [0.1451, 0.1412, 0.1333,? ..., 0.8471, 0.8471, 0.8471],
???????? [0.1490, 0.1451, 0.1373,? ..., 0.8431, 0.8431, 0.8431],
???????? ...,
???????? [0.8275, 0.8275, 0.8275,? ..., 0.8549, 0.8549, 0.8549],
???????? [0.8275, 0.8275, 0.8275,? ..., 0.8549, 0.8549, 0.8549],
???????? [0.8275, 0.8275, 0.8275,? ..., 0.8549, 0.8549, 0.8549]],

??????? [[0.1686, 0.1647, 0.1569,? ..., 0.4275, 0.4275, 0.4275],
???????? [0.1686, 0.1647, 0.1569,? ..., 0.4275, 0.4275, 0.4275],
???????? [0.1686, 0.1647, 0.1569,? ..., 0.4235, 0.4235, 0.4235],
???????? ...,
???????? [0.0078, 0.0078, 0.0078,? ..., 0.4235, 0.4235, 0.4235],
???????? [0.0078, 0.0078, 0.0078,? ..., 0.4235, 0.4235, 0.4235],
???????? [0.0078, 0.0078, 0.0078,? ..., 0.4235, 0.4235, 0.4235]]])

?

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

?

?

Compose()用法

數(shù)據(jù)需要時(shí)transforms類型,所以得到Compose([transforms參數(shù)1,transforms參數(shù)2,…])

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

RandomCrop

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

PyTorch自學(xué)&遇到的一些錯(cuò)誤,深度學(xué)習(xí),pytorch,人工智能,python

關(guān)注輸入和輸出類型

多看官方文檔

關(guān)注方法需要什么參數(shù)

不知道返回值的時(shí)候

*print

*print(type())

*debug

DataLoader的使用

例:

Dataloader(batch_size=4)

Img0,target0 = dataset[0]

Img1,target1 = dataset[1]

Img2,target2 = dataset[2]

Img3,target3 = dataset[3]

Getitem():

Return img,target

神經(jīng)網(wǎng)絡(luò)的搭建nn.Module文章來源地址http://www.zghlxwxcb.cn/news/detail-783090.html

到了這里,關(guān)于PyTorch自學(xué)&遇到的一些錯(cuò)誤的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深度學(xué)習(xí)實(shí)戰(zhàn)24-人工智能(Pytorch)搭建transformer模型,真正跑通transformer模型,深刻了解transformer的架構(gòu)

    大家好,我是微學(xué)AI,今天給大家講述一下人工智能(Pytorch)搭建transformer模型,手動(dòng)搭建transformer模型,我們知道transformer模型是相對復(fù)雜的模型,它是一種利用自注意力機(jī)制進(jìn)行序列建模的深度學(xué)習(xí)模型。相較于 RNN 和 CNN,transformer 模型更高效、更容易并行化,廣泛應(yīng)用于神

    2023年04月22日
    瀏覽(94)
  • pytorch3d安裝遇到的一些坑和解決過程

    最近為了安裝pytorch3d,折騰了兩天,足足兩天! 要注意,安裝pytorch3d之前,必須先安裝pytorch torchvision Pytorch3d官方?是建議用conda install的方式來安裝,也可以用pip來安裝: pip install PyTorch torchvision -c pytorch-nightly 1.首先說一下MacOS M1 芯片安裝情況,剛開始使用的是: 會安裝完成

    2024年02月06日
    瀏覽(37)
  • 《人工智能專欄》必讀150篇 | 專欄介紹 & 專欄目錄 & Python與PyTorch | 機(jī)器與深度學(xué)習(xí) | 目標(biāo)檢測 | YOLOv5及改進(jìn) | YOLOv8及改進(jìn) | 關(guān)鍵知識點(diǎn) | 工具

    《人工智能專欄》必讀150篇 | 專欄介紹 & 專欄目錄 & Python與PyTorch | 機(jī)器與深度學(xué)習(xí) | 目標(biāo)檢測 | YOLOv5及改進(jìn) | YOLOv8及改進(jìn) | 關(guān)鍵知識點(diǎn) | 工具

    各位讀者們好,本專欄最近剛推出,限于個(gè)人能力有限,不免會有諸多錯(cuò)誤,敬請私信反饋給我,接受善意的提示,后期我會改正,謝謝,感謝。 第一步 :[ 購買點(diǎn)擊跳轉(zhuǎn) ] 第二步 : 代碼函數(shù)調(diào)用關(guān)系圖(全網(wǎng)最詳盡-重要) 因文檔特殊,不能在博客正確顯示,請移步以下鏈接

    2024年02月02日
    瀏覽(131)
  • AI寫作革命:PyTorch如何助力人工智能走向深度創(chuàng)新

    AI寫作革命:PyTorch如何助力人工智能走向深度創(chuàng)新

    身為專注于人工智能研究的學(xué)者,我十分熱衷于分析\\\"AI寫稿\\\"與\\\"PyTorch\\\"這兩項(xiàng)領(lǐng)先技術(shù)。面對日益精進(jìn)的人工智能科技,\\\"AI寫作\\\"已不再是天方夜譚;而\\\"PyTorch\\\"如璀璨明珠般耀眼,作為深度學(xué)習(xí)領(lǐng)域的尖端工具,正有力地推進(jìn)著人工智能化進(jìn)程。于此篇文章中,我將詳細(xì)解析\\\"

    2024年04月13日
    瀏覽(29)
  • 人工智能學(xué)習(xí)07--pytorch14--ResNet網(wǎng)絡(luò)/BN/遷移學(xué)習(xí)詳解+pytorch搭建

    人工智能學(xué)習(xí)07--pytorch14--ResNet網(wǎng)絡(luò)/BN/遷移學(xué)習(xí)詳解+pytorch搭建

    亮點(diǎn):網(wǎng)絡(luò)結(jié)構(gòu)特別深 (突變點(diǎn)是因?yàn)閷W(xué)習(xí)率除0.1?) 梯度消失 :假設(shè)每一層的誤差梯度是一個(gè)小于1的數(shù),則在反向傳播過程中,每向前傳播一層,都要乘以一個(gè)小于1的誤差梯度。當(dāng)網(wǎng)絡(luò)越來越深的時(shí)候,相乘的這些小于1的系數(shù)越多,就越趨近于0,這樣梯度就會越來越小

    2023年04月11日
    瀏覽(784)
  • 人工智能學(xué)習(xí)07--pytorch15(前接pytorch10)--目標(biāo)檢測:FPN結(jié)構(gòu)詳解

    人工智能學(xué)習(xí)07--pytorch15(前接pytorch10)--目標(biāo)檢測:FPN結(jié)構(gòu)詳解

    backbone:骨干網(wǎng)絡(luò),例如cnn的一系列。(特征提?。?(a)特征圖像金字塔 檢測不同尺寸目標(biāo)。 首先將圖片縮放到不同尺度,針對每個(gè)尺度圖片都一次通過算法進(jìn)行預(yù)測。 但是這樣一來,生成多少個(gè)尺度就要預(yù)測多少次,訓(xùn)練效率很低。 (b)單一特征圖 faster rcnn所采用的一種方式

    2023年04月12日
    瀏覽(237)
  • PyTorch深度學(xué)習(xí)實(shí)戰(zhàn)(2)——PyTorch基礎(chǔ)

    PyTorch 是廣泛應(yīng)用于機(jī)器學(xué)習(xí)領(lǐng)域中的強(qiáng)大開源框架,因其易用性和高效性備受青睞。在本節(jié)中,將介紹使用 PyTorch 構(gòu)建神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識。首先了解 PyTorch 的核心數(shù)據(jù)類型——張量對象。然后,我們將深入研究用于張量對象的各種操作。 PyTorch 提供了許多幫助構(gòu)建神經(jīng)網(wǎng)

    2024年02月09日
    瀏覽(20)
  • Pytorch深度學(xué)習(xí) - 學(xué)習(xí)筆記

    Pytorch深度學(xué)習(xí) - 學(xué)習(xí)筆記

    dir() :打開,看見包含什么 help() :說明書 pytorch中讀取數(shù)據(jù)主要涉及到兩個(gè)類 Dataset 和 Dataloader 。 Dataset可以將可以使用的數(shù)據(jù)提取出來,并且可以對數(shù)據(jù)完成編號。即提供一種方式獲取數(shù)據(jù)及其對應(yīng)真實(shí)的label值。 Dataloader為網(wǎng)絡(luò)提供不同的數(shù)據(jù)形式。 Dataset Dataset是一個(gè)抽

    2024年02月07日
    瀏覽(15)
  • PyTorch深度學(xué)習(xí)實(shí)戰(zhàn)(3)——使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)

    PyTorch深度學(xué)習(xí)實(shí)戰(zhàn)(3)——使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)

    我們已經(jīng)學(xué)習(xí)了如何從零開始構(gòu)建神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)通常包括輸入層、隱藏層、輸出層、激活函數(shù)、損失函數(shù)和學(xué)習(xí)率等基本組件。在本節(jié)中,我們將學(xué)習(xí)如何在簡單數(shù)據(jù)集上使用 PyTorch 構(gòu)建神經(jīng)網(wǎng)絡(luò),利用張量對象操作和梯度值計(jì)算更新網(wǎng)絡(luò)權(quán)重。 1.1 使用 PyTorch 構(gòu)建神

    2024年02月08日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包