国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【PyTorch】PyTorch中張量(Tensor)統(tǒng)計操作

這篇具有很好參考價值的文章主要介紹了【PyTorch】PyTorch中張量(Tensor)統(tǒng)計操作。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

PyTorch深度學習總結

第五章 PyTorch中張量(Tensor)統(tǒng)計操作



前言

上文介紹了PyTorch中張量(Tensor)的計算操作,本文將介紹張量的統(tǒng)計操作。


一、最值查找

函數(shù) 描述
torch.max() 找出張量中的最大值
torch.argmax() 輸出最大值所在位置
torch.min() 找出張量中的最小值
torch.argmin() 輸出最小值所在位置
torch.sort() 對一維張量或多維(每個維度單獨)進行排序
torch.topk(A, k) 根據指定值k,計算出張量A取值為前k大的值,并顯示所在位置
torch.kthvalue(A, k) 根據指定值k,計算出張量A取值為第k小的值,并顯示所在位置

創(chuàng)建張量:

# 引入庫
import torch

# 創(chuàng)建張量A
A = torch.arange(2., 8.).reshape(2,3)
print(A)

輸出結果為:tensor([[2, 3, 4], [5, 6, 7]])


測試函數(shù):

print(A.max())
print(A.argmax())
print(A.min())
print(A.argmin())

輸出結果為(含注釋):
tensor(7.)
tensor(5) # 0-5的最后一位
tensor(2.)
tensor(0) # 0-5的第一位


torch.sort()
創(chuàng)建隨機張量B:

# 創(chuàng)建隨機張量B
B = torch.randperm(15).reshape(3, 5) # torch.randperm(n)可以生成有n個0-10之間整數(shù)組成的張量
print(B)

輸出結果為:
tensor(
[[13, 9, 1, 2, 0],
[ 4, 14, 12, 3, 7],
[ 5, 6, 8, 11, 10]])


對張量B進行排序:

# 升序輸出
print(B.sort())  # 分別輸出排序后的值,以及該值在原索引中不同維度的位置(列數(shù))

輸出結果為:
torch.return_types.sort(
values=tensor([[ 0, 1, 2, 9, 13],
[ 3, 4, 7, 12, 14],
[ 5, 6, 8, 10, 11]]),
indices=tensor([[4, 2, 3, 1, 0],
[3, 0, 4, 2, 1],
[0, 1, 2, 4, 3]]))


# 降序輸出
print(B.sort(descending=True))

輸出結果為:
torch.return_types.sort(
values=tensor([[13, 9, 2, 1, 0],
[14, 12, 7, 4, 3],
[11, 10, 8, 6, 5]]),
indices=tensor([[0, 1, 3, 2, 4],
[1, 2, 4, 0, 3],
[3, 4, 2, 1, 0]]))


測試函數(shù)torch.topk()

# 選取每個維度最大和次大的值,及其位置
print(B.topk(2))

輸出結果為:
torch.return_types.topk(
values=tensor([[13, 9],
[14, 12],
[11, 10]]),
indices=tensor([[0, 1],
[1, 2],
[3, 4]]))


# 選取2-dim維度前2大的值及其位置
print(B)
print(B.topk(2, dim=0))  # 每列最大的兩個值

輸出結果為(含注釋):
tensor([[13, 9, 1, 2, 0],
[ 4, 14, 12, 3, 7],
[ 5, 6, 8, 11, 10]])
torch.return_types.topk(
values=tensor([[13, 14, 12, 11, 10],
[ 5, 9, 8, 3, 7]]),
indices=tensor([[0, 1, 1, 2, 2],
[2, 0, 2, 1, 1]])) # indices表示對應元素的行數(shù)


# 選取2-dim最大和次大的值,及其位置
print(B.topk(2, dim=1))  # 與默認情況相同默認情況

輸出結果為:
torch.return_types.topk(
values=tensor([[13, 9],
[14, 12],
[11, 10]]),
indices=tensor([[0, 1],
[1, 2],
[3, 4]]))


測試函數(shù)torch.kthvalue()

# 選取每個維度第2小的值及其位置
print(B)
print(B.kthvalue(2))

輸出結果為:
tensor([[13, 9, 1, 2, 0],
[ 4, 14, 12, 3, 7],
[ 5, 6, 8, 11, 10]])
torch.return_types.kthvalue(
values=tensor([1, 4, 6]),
indices=tensor([2, 0, 1]))


二、特殊值查詢

函數(shù) 描述
torch.mean(A, dim=0) 根據指定維度計算均值
torch.sum(A, dim=0) 根據指定維度求和
torch.cumsum(A, dim=0) 根據指定維度計算累加和
torch.median(A, dim=0) 根據指定維度計算中位數(shù)
torch.cumprod(A, dim=0) 根據指定維度計算乘積
torch.std(A, dim=0) 根據指定維度計算標準差

測試函數(shù)(維度0):

print(A)
print(A.mean(dim=0))
print(A.sum(dim=0))
print(A.cumsum(dim=0))
print(A.median(dim=0))
print(A.cumprod(dim=0))
print(A.std(dim=0))

輸出結果為(含注釋):
tensor([[2., 3., 4.],
[5., 6., 7.]]) # 張量A
tensor([3.5000, 4.5000, 5.5000]) # 每列均值
tensor([ 7., 9., 11.]) # 每列求和
tensor([[ 2., 3., 4.],
[ 7., 9., 11.]]) # 每列累加求和
torch.return_types.median(
values=tensor([2., 3., 4.]),
indices=tensor([0, 0, 0])) # 每列中位數(shù)及索引
tensor([[ 2., 3., 4.],
[10., 18., 28.]]) # 每列累乘
tensor([2.1213, 2.1213, 2.1213]) # 每列標準差


print(A)
print(A.mean(dim=1))
print(A.sum(dim=1))
print(A.cumsum(dim=1))
print(A.median(dim=1))
print(A.cumprod(dim=1))
print(A.std(dim=1))

輸出結果為(含注釋):
tensor([[2., 3., 4.],
[5., 6., 7.]]) # 張量A
tensor([3., 6.]) # 每行均值
tensor([ 9., 18.]) # 每行求和
tensor([[ 2., 5., 9.],
[ 5., 11., 18.]]) # 按行逐個累加
torch.return_types.median(
values=tensor([3., 6.]),
indices=tensor([1, 1])) # 每行中位數(shù)
tensor([[ 2., 6., 24.],
[ 5., 30., 210.]]) # 按行逐個累乘
tensor([1., 1.]) # 每行標準差文章來源地址http://www.zghlxwxcb.cn/news/detail-833577.html

到了這里,關于【PyTorch】PyTorch中張量(Tensor)統(tǒng)計操作的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【深度學習】pytorch——Tensor(張量)詳解

    【深度學習】pytorch——Tensor(張量)詳解

    筆記為自我總結整理的學習筆記,若有錯誤歡迎指出喲~ Tensor,又名張量。它可以是一個數(shù)(標量)、一維數(shù)組(向量)、二維數(shù)組(矩陣)和更高維的數(shù)組(高階數(shù)據)。Tensor和Numpy的ndarrays類似,但PyTorch的tensor支持GPU加速。 官方文檔 : https://pytorch.org/docs/stable/tensors.html

    2024年02月06日
    瀏覽(61)
  • tensor是pytorch的核心,那torch.tensor和torch.Tensor區(qū)別是?

    從本節(jié)課程開始我們將正式開啟pytorch的學習了,在深度學習框架中有一個重要的概念叫做張量,它是pytorch的基本操作單位,要想創(chuàng)建tensor有很多的方式,但是有兩個torch.tensor和torch.Tensor容易混淆,本節(jié)課程對二者進行總結。 torch.Tensor是默認的tensor類型(torch.FloatTensor)的簡

    2024年04月24日
    瀏覽(35)
  • 【帶著學Pytorch】2、張量(Tensor)的介紹與創(chuàng)建

    【帶著學Pytorch】2、張量(Tensor)的介紹與創(chuàng)建

    ? ? ? ?最開始在出現(xiàn)CPU和GPU, GPU出現(xiàn)主要解決的問題時并行計算,在此基礎上的軟件層面的工作基本上圍繞著并行計算進行的,張量也不例外。 首先,我們先來聊聊 編程語言,python,java ,C,C++等,他們都有的共同特點是什么?在大學中計算機類專業(yè)耳熟能詳, 算法、數(shù)

    2024年02月11日
    瀏覽(18)
  • 深入淺出Pytorch函數(shù)——torch.tensor

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關文章: · 深入淺出TensorFlow2函數(shù)——tf.constant · 深入淺出Pytorch函數(shù)——torch.tensor · 深入淺出Pytorch函數(shù)——torch.as_tensor · 深入淺出Pytorch函數(shù)——torch.Tensor · 深入淺出PaddlePaddle函數(shù)——paddle.to_tensor 基于 data 構建一個沒有梯度歷史

    2024年02月04日
    瀏覽(101)
  • Pytorch數(shù)據類型轉換(torch.tensor,torch.FloatTensor)

    Pytorch數(shù)據類型轉換(torch.tensor,torch.FloatTensor)

    之前遇到轉為tensor轉化為浮點型的問題,今天整理下,我只講幾個我常用的,如果有更好的方法,歡迎補充 1.首先講下torch.tensor,默認整型數(shù)據類型為torch.int64,浮點型為torch.float32 2.這是我認為平常最愛用的轉數(shù)據類型的方法,可以用dtype去定義數(shù)據類型 1.這個函數(shù)不要亂用

    2024年02月11日
    瀏覽(26)
  • 【1】深度學習之Pytorch——張量(tensor)的尺寸、儲存偏移及步長等基本概念

    【1】深度學習之Pytorch——張量(tensor)的尺寸、儲存偏移及步長等基本概念

    深度學習的基本概念 深度學習是一種人工神經網絡的學習方法。它通過模仿人腦的學習方式來處理信息。深度學習的網絡有很多層,每層都能學習到更抽象的概念。這種方法在語音識別、計算機視覺、自然語言處理等領域有很好的應用。 深度學習也有許多應用,這些應用往

    2024年02月02日
    瀏覽(43)
  • pytorch里torch.gather()和torch.Tensor.scatter()解析

    pytorch里torch.gather()和torch.Tensor.scatter()解析

    torch.Tensor.scatter() 類似 gather 的反向操作(gather是讀出數(shù)據,scatter是寫入數(shù)據),所以這里只解析torch.gather()。 gather()這個操作在功能上較為反人類,即使某段時間理解透徹了,過了幾個月不碰可能又會變得生疏。官方文檔對其描述也是較為簡單,有些小伙伴看完可能還是不完

    2024年02月16日
    瀏覽(21)
  • 深入淺出Pytorch函數(shù)——torch.Tensor.backward

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關文章: · 深入淺出Pytorch函數(shù)——torch.Tensor 計算當前張量相對于圖的梯度,該函數(shù)使用鏈式法則對圖進行微分。如果張量不是一個標量(即其數(shù)據具有多個元素)并且需要梯度,則函數(shù)還需要指定梯度,指定的梯度應該是一個與

    2024年02月15日
    瀏覽(89)
  • 【Pytorch基礎教程39】torch常用tensor處理函數(shù)

    【Pytorch基礎教程39】torch常用tensor處理函數(shù)

    torch.tensor 會復制data,不想復制可以使用 torch.Tensor.detach() 。 如果是獲得numpy數(shù)組數(shù)據,可以使用 torch.from_numpy() ,共享內存 torch.mm : 用于兩個矩陣(不包括向量)的乘法。如維度為(l,m)和(m,n)相乘 torch.bmm : 用于帶batch的三維向量的乘法。如維度為(b,l,m)和(b,m,n)相乘 torch.mul : 用于

    2024年02月13日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包