国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深入淺出Pytorch函數(shù)——torch.max

這篇具有很好參考價(jià)值的文章主要介紹了深入淺出Pytorch函數(shù)——torch.max。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

分類目錄:《深入淺出Pytorch函數(shù)》總目錄
相關(guān)文章:
· 深入淺出Pytorch函數(shù)——torch.max
· 深入淺出Pytorch函數(shù)——torch.maximum


torch.max有三種輸入形式,根據(jù)其輸入形式及參數(shù)的不同有下列三種返回形式:文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-607201.html

  • torch.max(input):返回輸入張量所有元素的最大值。
  • torch.max(input, dim, keepdim=False, *, out=None):返回輸入張量給定維度上每行的最大值,并同時(shí)返回每個(gè)最大值的位置索引。如果keepdimTrue,則輸出張量的大小與輸入張量的大小相同,但尺寸為1的維度dim除外。否則,dim會(huì)被擠壓(請(qǐng)參見(jiàn)torch.squeeze()),即輸出張量比輸入少1個(gè)維度。
  • torch.max(input, other, *, out=None):參考torch.maximum
語(yǔ)法
torch.max(input) -> Tensor
torch.max(input, dim, keepdim=False, *, out=None) -> (values, indices) 
torch.max(input, other, *, out=None) -> Tensor
參數(shù)
  • input:[Tensor] 輸入張量
  • dim:[int] 待求最大值維度的索引,即返回值中被收縮維度的索引
  • keepdim:[bool] 是否保持輸出張量與輸入張量的形狀一致,默認(rèn)為False
實(shí)例
>>> a = torch.randn(1, 3)
>>> a
tensor([[ 0.6763,  0.7445, -2.2369]])
>>> torch.max(a)
tensor(0.7445)

>>> a = torch.randn(4, 5)
>>> a
tensor([[ 1.1299, -1.2838, -1.0533, -1.8278,  0.1653],
        [ 0.6461,  0.4583,  1.5229, -1.0642, -1.8352],
        [-0.9679,  1.1227, -0.2506, -0.4781, -0.2027],
        [ 0.2576,  0.7588, -0.1484, -0.0256,  0.7012]])

>>> torch.max(a, 0)
torch.return_types.max(
values=tensor([ 1.1299,  1.1227,  1.5229, -0.0256,  0.7012]),
indices=tensor([0, 2, 1, 3, 3]))

>>> torch.max(a, 1)
torch.return_types.max(
values=tensor([1.1299, 1.5229, 1.1227, 0.7588]),
indices=tensor([0, 2, 1, 1]))

到了這里,關(guān)于深入淺出Pytorch函數(shù)——torch.max的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深入淺出Pytorch函數(shù)——torch.maximum

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.max · 深入淺出Pytorch函數(shù)——torch.maximum 計(jì)算 input 和 other 的元素最大值。 語(yǔ)法 參數(shù) input :[ Tensor ] 輸入張量 other :[ Tensor ] 輸入的第二個(gè)張量 實(shí)例

    2024年02月15日
    瀏覽(95)
  • 深入淺出Pytorch函數(shù)——torch.zeros

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.Tensor · 深入淺出Pytorch函數(shù)——torch.ones · 深入淺出Pytorch函數(shù)——torch.zeros · 深入淺出Pytorch函數(shù)——torch.full · 深入淺出Pytorch函數(shù)——torch.ones_like · 深入淺出Pytorch函數(shù)——torch.zeros_like · 深

    2024年02月07日
    瀏覽(97)
  • 深入淺出Pytorch函數(shù)——torch.ones

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.Tensor · 深入淺出Pytorch函數(shù)——torch.ones · 深入淺出Pytorch函數(shù)——torch.zeros · 深入淺出Pytorch函數(shù)——torch.full · 深入淺出Pytorch函數(shù)——torch.ones_like · 深入淺出Pytorch函數(shù)——torch.zeros_like · 深

    2023年04月26日
    瀏覽(125)
  • 深入淺出Pytorch函數(shù)——torch.exp

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出TensorFlow2函數(shù)——tf.exp · 深入淺出TensorFlow2函數(shù)——tf.math.exp · 深入淺出Pytorch函數(shù)——torch.exp · 深入淺出PaddlePaddle函數(shù)——paddle.exp 對(duì)輸入 input 逐元素進(jìn)行以自然數(shù) e e e 為底指數(shù)運(yùn)算。 語(yǔ)法 參數(shù) input :[ Te

    2024年02月11日
    瀏覽(90)
  • 深入淺出Pytorch函數(shù)——torch.t

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出TensorFlow2函數(shù)——tf.transpose · 深入淺出Pytorch函數(shù)——torch.t · 深入淺出Pytorch函數(shù)——torch.transpose · 深入淺出PaddlePaddle函數(shù)——paddle.transpose 語(yǔ)法 參數(shù) input : [Tensor] 輸入的張量。 返回值 被轉(zhuǎn)置的張量。 實(shí)例

    2024年02月11日
    瀏覽(91)
  • 深入淺出Pytorch函數(shù)——torch.tensor

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出TensorFlow2函數(shù)——tf.constant · 深入淺出Pytorch函數(shù)——torch.tensor · 深入淺出Pytorch函數(shù)——torch.as_tensor · 深入淺出Pytorch函數(shù)——torch.Tensor · 深入淺出PaddlePaddle函數(shù)——paddle.to_tensor 基于 data 構(gòu)建一個(gè)沒(méi)有梯度歷史

    2024年02月04日
    瀏覽(101)
  • 深入淺出PyTorch函數(shù)torch.rand與torch.randn

    深入淺出PyTorch函數(shù)torch.rand與torch.randn

    torch.rand 和 torch.randn 都是PyTorch中用于生成隨機(jī)張量的函數(shù),但它們生成隨機(jī)數(shù)的方式有所不同。 torch.rand 生成在區(qū)間 [0, 1) 內(nèi)均勻分布的隨機(jī)數(shù)。 size 參數(shù)是一個(gè)表示所需張量形狀的元組或整數(shù)??梢陨扇魏涡螤畹碾S機(jī)張量。 torch.randn 生成從標(biāo)準(zhǔn)正態(tài)分布(均值為0,標(biāo)準(zhǔn)

    2024年02月09日
    瀏覽(102)
  • 深入淺出Pytorch函數(shù)——torch.Tensor.backward

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.Tensor 計(jì)算當(dāng)前張量相對(duì)于圖的梯度,該函數(shù)使用鏈?zhǔn)椒▌t對(duì)圖進(jìn)行微分。如果張量不是一個(gè)標(biāo)量(即其數(shù)據(jù)具有多個(gè)元素)并且需要梯度,則函數(shù)還需要指定梯度,指定的梯度應(yīng)該是一個(gè)與

    2024年02月15日
    瀏覽(89)
  • 深入淺出Pytorch函數(shù)——torch.nn.Linear

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 對(duì)輸入數(shù)據(jù)做線性變換 y = x A T + b y=xA^T+b y = x A T + b 語(yǔ)法 參數(shù) in_features :[ int ] 每個(gè)輸入樣本的大小 out_features :[ int ] 每個(gè)輸出樣本的大小 bias :[ bool ] 若設(shè)置為 False ,則該層不會(huì)學(xué)習(xí)偏置項(xiàng)目,默認(rèn)值為 True 變量形狀 輸入變量:

    2024年02月12日
    瀏覽(94)
  • 深入淺出Pytorch函數(shù)——torch.nn.Module

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 Pytorch中所有網(wǎng)絡(luò)的基類,我們的模型也應(yīng)該繼承這個(gè)類。 Modules 也可以包含其它 Modules ,允許使用樹(shù)結(jié)構(gòu)嵌入他們,我們還可以將子模塊賦值給模型屬性。 語(yǔ)法 方法 torch.nn.Module.apply 實(shí)例 通過(guò)上面方式賦值的 submodule 會(huì)被注冊(cè),當(dāng)調(diào)

    2024年02月12日
    瀏覽(99)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包