国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

pytorch中torch.roll用法說明

這篇具有很好參考價值的文章主要介紹了pytorch中torch.roll用法說明。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

torch.roll(input, shifts, dims=None)?

這個函數(shù)是用來移位的,是順移。input是咱們要移動的tensor向量,shifts是要移動到的位置,要移動去哪兒,dims是值在什么方向上(維度)去移動。比如2維的數(shù)據(jù),那就兩個方向,橫著或者豎著。最關(guān)鍵的一句話,所有操作針對的是第一行或者第一列,下面舉例子給大家做解釋,自己慢慢體會

import torch

x = torch.tensor([1, 2, 3, 4, 5, 6, 7, 8, 9]).view(3, 3)
print("")
print(x)

y = torch.roll(x, 1, 0)
print("")
print(y)

輸出:
tensor([[1, 2, 3],
        [4, 5, 6],
        [7, 8, 9]])

tensor([[7, 8, 9],
        [1, 2, 3],
        [4, 5, 6]])

torch.roll(x, 1, 0) 這行代碼的意思就是把x的第一行(0維度)移到1這個位置上,其他位置的數(shù)據(jù)順移。
x——咱們要移動的向量
1——第一行向量要移動到的最終位置
0——從行的角度去移動

import torch

x = torch.tensor([1, 2, 3, 4, 5, 6, 7, 8, 9]).view(3, 3)
print("")
print(x)

y = torch.roll(x, -1, 1)
print("")
print(y)

輸出:
tensor([[1, 2, 3],
        [4, 5, 6],
        [7, 8, 9]])

tensor([[2, 3, 1],
        [5, 6, 4],
        [8, 9, 7]])

torch.roll(x, -1, 1) 意思就是把x的第一列(1維度)移到-1這個位置(最后一個位置)上,其他位置的數(shù)據(jù)順移。

shifts和dims可以是元組,其實就是分步驟去移動

import torch

x = torch.tensor([1, 2, 3, 4, 5, 6, 7, 8, 9]).view(3, 3)
print("")
print(x)

y = torch.roll(x, (0,1), (1,1))
print("")
print(y)

輸出:

tensor([[1, 2, 3],
        [4, 5, 6],
        [7, 8, 9]])

tensor([[3, 1, 2],
        [6, 4, 5],
        [9, 7, 8]])

torch.roll(x, (0,1), (1,1)) :
首先,針對元組第一個元素,把x的第一列(1維度)移到0這個位置(已經(jīng)在0這個位置,因此原地不動)上,其他位置的數(shù)據(jù)順移。(所有數(shù)據(jù)原地不動)

然后,針對元組第二個元素,把a的第一列(1維度)移到1這個位置上,其他位置的數(shù)據(jù)順移。文章來源地址http://www.zghlxwxcb.cn/news/detail-856848.html

到了這里,關(guān)于pytorch中torch.roll用法說明的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • torch.einsum() 用法說明

    關(guān)聯(lián)網(wǎng)站: einops官網(wǎng) torch.einsum( equation , * operands ) → Tensor 對輸入元素 operands 沿指定的維度、使用愛因斯坦求和符號的乘積求和。 參數(shù): equation ( string ) – 愛因斯坦求和的下標(biāo)。 operands ( List [ Tensor ] )——計算愛因斯坦求和的張量。 ? Einsum允許計算許多常見的 多維線性

    2024年02月15日
    瀏覽(18)
  • Pytorch深度學(xué)習(xí)-----神經(jīng)網(wǎng)絡(luò)之線性層用法

    PyTorch深度學(xué)習(xí)——Anaconda和PyTorch安裝 Pytorch深度學(xué)習(xí)-----數(shù)據(jù)模塊Dataset類 Pytorch深度學(xué)習(xí)------TensorBoard的使用 Pytorch深度學(xué)習(xí)------Torchvision中Transforms的使用(ToTensor,Normalize,Resize ,Compose,RandomCrop) Pytorch深度學(xué)習(xí)------torchvision中dataset數(shù)據(jù)集的使用(CIFAR10) Pytorch深度學(xué)習(xí)--

    2024年02月14日
    瀏覽(24)
  • 【pytorch】torch.cdist使用說明

    【pytorch】torch.cdist使用說明

    torch.cdist的使用介紹如官網(wǎng)所示, 它是批量計算兩個向量集合的距離。 其中, x1和x2是輸入的兩個向量集合。 p 默認(rèn)為2,為歐幾里德距離。 它的功能上等同于 scipy.spatial.distance.cdist (input,’minkowski’, p=p) 如果x1的shape是 [B,P,M], x2的shape是[B,R,M],則cdist的結(jié)果shape是 [B,P,R] x1一般

    2024年01月15日
    瀏覽(25)
  • 舉例說明PyTorch函數(shù)torch.cat與torch.stack的區(qū)別

    舉例說明PyTorch函數(shù)torch.cat與torch.stack的區(qū)別

    torch.cat 用于在 給定的維度 上連接多個張量,它將這些張量沿著指定維度堆疊在一起。 torch.stack 用于在 新的維度 上堆疊多個張量,它會創(chuàng)建一個新的維度,并將這些張量沿著這個新維度堆疊在一起。 Example1: Example1: Example2:

    2024年02月09日
    瀏覽(26)
  • 人工智能概論報告-基于PyTorch的深度學(xué)習(xí)手寫數(shù)字識別模型研究與實踐

    人工智能概論報告-基于PyTorch的深度學(xué)習(xí)手寫數(shù)字識別模型研究與實踐

    本文是我人工智能概論的課程大作業(yè)實踐應(yīng)用報告,可供各位同學(xué)參考,內(nèi)容寫的及其水,部分也借助了gpt自動生成,排版等也基本做好,大家可以參照。如果有需要word版的可以私信我,或者在評論區(qū)留下郵箱,我會逐個發(fā)給。word版是我最后提交的,已經(jīng)調(diào)整統(tǒng)一了全文格

    2024年02月05日
    瀏覽(110)
  • 人工智能深度學(xué)習(xí)100種網(wǎng)絡(luò)模型,精心整理,全網(wǎng)最全,PyTorch框架逐一搭建

    人工智能深度學(xué)習(xí)100種網(wǎng)絡(luò)模型,精心整理,全網(wǎng)最全,PyTorch框架逐一搭建

    大家好,我是微學(xué)AI,今天給大家介紹一下人工智能深度學(xué)習(xí)100種網(wǎng)絡(luò)模型,這些模型可以用PyTorch深度學(xué)習(xí)框架搭建。模型按照個人學(xué)習(xí)順序進(jìn)行排序: 深度學(xué)習(xí)模型 ANN (Artificial Neural Network) - 人工神經(jīng)網(wǎng)絡(luò):基本的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),包括輸入層、隱藏層和輸出層。 學(xué)習(xí)點擊地

    2024年02月14日
    瀏覽(258)
  • Pytorch實用教程:Pytorch中torch.max的用法

    torch.max 在 PyTorch 中是一個非常有用的函數(shù),它可以用于多種場景,包括尋找張量中的最大值、沿指定維度進(jìn)行最大值操作,并且還可以返回最大值的索引。其用法可以根據(jù)你的需求進(jìn)行不同的調(diào)用方式。 基本用法 找到整個張量的最大值 如果直接對一個張量使用 torch.max ,它

    2024年04月13日
    瀏覽(17)
  • Pytorch中torch.rand()、torch.randn()、torch.randint()、torch.randperm()幾個函數(shù)的說明

    1. torch.rand(*sizes, out=None) - Tensor 參數(shù) : sizes (int...) :整數(shù)序列,定義了輸出張量的形狀。 out (Tensor, 可選) :輸出張量。 返回值 : 一個新的張量,包含了在區(qū)間 [0, 1) 上均勻分布的隨機數(shù)。 用途 : torch.rand 用于生成指定形狀的張量,其元素從 [0, 1) 的均勻分布中隨機抽取。

    2024年01月19日
    瀏覽(60)
  • Pytorch:torch.nn.Module.apply用法詳解

    torch.nn.Module.apply 是 PyTorch 中用于遞歸地應(yīng)用函數(shù)到模型的所有子模塊的方法。它允許對模型中的每個子模塊進(jìn)行操作,比如初始化權(quán)重、改變參數(shù)類型等。 以下是關(guān)于 torch.nn.Module.apply 的示例: 1. 語法 Module:PyTorch 中的神經(jīng)網(wǎng)絡(luò)模塊,例如 torch.nn.Module 的子類。 fn:要應(yīng)用到

    2024年01月15日
    瀏覽(41)
  • Pytorch:torch.repeat_interleave()用法詳解

    torch.repeat_interleave() 是 PyTorch 中的一個函數(shù),用于 按指定的方式重復(fù)張量中的元素 。 以下是該函數(shù)的詳細(xì)說明: torch.repeat_interleave() 的原理是將 輸入張量中的每個元素 重復(fù) 指定的次數(shù) ,并將這些重復(fù)的元素拼接成一個新的張量。 input: 輸入的張量。 repeats: 用于指定每個元

    2024年01月16日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包