国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深入淺出Pytorch函數(shù)——torch.nn.init.eye_

這篇具有很好參考價(jià)值的文章主要介紹了深入淺出Pytorch函數(shù)——torch.nn.init.eye_。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

分類目錄:《深入淺出Pytorch函數(shù)》總目錄
相關(guān)文章:
· 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain
· 深入淺出Pytorch函數(shù)——torch.nn.init.uniform_
· 深入淺出Pytorch函數(shù)——torch.nn.init.normal_
· 深入淺出Pytorch函數(shù)——torch.nn.init.constant_
· 深入淺出Pytorch函數(shù)——torch.nn.init.ones_
· 深入淺出Pytorch函數(shù)——torch.nn.init.zeros_
· 深入淺出Pytorch函數(shù)——torch.nn.init.eye_
· 深入淺出Pytorch函數(shù)——torch.nn.init.dirac_
· 深入淺出Pytorch函數(shù)——torch.nn.init.xavier_uniform_
· 深入淺出Pytorch函數(shù)——torch.nn.init.xavier_normal_
· 深入淺出Pytorch函數(shù)——torch.nn.init.kaiming_uniform_
· 深入淺出Pytorch函數(shù)——torch.nn.init.kaiming_normal_
· 深入淺出Pytorch函數(shù)——torch.nn.init.trunc_normal_
· 深入淺出Pytorch函數(shù)——torch.nn.init.orthogonal_
· 深入淺出Pytorch函數(shù)——torch.nn.init.sparse_


torch.nn.init模塊中的所有函數(shù)都用于初始化神經(jīng)網(wǎng)絡(luò)參數(shù),因此它們都在torc.no_grad()模式下運(yùn)行,autograd不會(huì)將其考慮在內(nèi)。

該函數(shù)用單位矩陣填充二維輸入張量,其在線性層中保留盡可能多的輸入特征。

語(yǔ)法
torch.nn.init.eye_(tensor)
參數(shù)
  • tensor:[Tensor] 一個(gè)2維張量torch.Tensor
返回值

一個(gè)torch.Tensor且參數(shù)tensor也會(huì)更新文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-667110.html

實(shí)例
w = torch.empty(3, 5)
nn.init.eye_(w)
函數(shù)實(shí)現(xiàn)
def eye_(tensor):
    r"""Fills the 2-dimensional input `Tensor` with the identity
    matrix. Preserves the identity of the inputs in `Linear` layers, where as
    many inputs are preserved as possible.

    Args:
        tensor: a 2-dimensional `torch.Tensor`

    Examples:
        >>> w = torch.empty(3, 5)
        >>> nn.init.eye_(w)
    """
    if tensor.ndimension() != 2:
        raise ValueError("Only tensors with 2 dimensions are supported")

    with torch.no_grad():
        torch.eye(*tensor.shape, out=tensor, requires_grad=tensor.requires_grad)
    return tensor

到了這里,關(guān)于深入淺出Pytorch函數(shù)——torch.nn.init.eye_的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深入淺出Pytorch函數(shù)——torch.nn.init.zeros_

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain · 深入淺出Pytorch函數(shù)——torch.nn.init.uniform_ · 深入淺出Pytorch函數(shù)——torch.nn.init.normal_ · 深入淺出Pytorch函數(shù)——torch.nn.init.constant_ · 深入淺出Pytorch函數(shù)——torch.nn.init.ones_ ·

    2024年02月12日
    瀏覽(96)
  • 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain · 深入淺出Pytorch函數(shù)——torch.nn.init.uniform_ · 深入淺出Pytorch函數(shù)——torch.nn.init.normal_ · 深入淺出Pytorch函數(shù)——torch.nn.init.constant_ · 深入淺出Pytorch函數(shù)——torch.nn.init.ones_ ·

    2024年02月11日
    瀏覽(91)
  • 深入淺出Pytorch函數(shù)——torch.nn.init.xavier_normal_

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain · 深入淺出Pytorch函數(shù)——torch.nn.init.uniform_ · 深入淺出Pytorch函數(shù)——torch.nn.init.normal_ · 深入淺出Pytorch函數(shù)——torch.nn.init.constant_ · 深入淺出Pytorch函數(shù)——torch.nn.init.ones_ ·

    2024年02月12日
    瀏覽(93)
  • 深入淺出Pytorch函數(shù)——torch.nn.init.kaiming_uniform_

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain · 深入淺出Pytorch函數(shù)——torch.nn.init.uniform_ · 深入淺出Pytorch函數(shù)——torch.nn.init.normal_ · 深入淺出Pytorch函數(shù)——torch.nn.init.constant_ · 深入淺出Pytorch函數(shù)——torch.nn.init.ones_ ·

    2024年02月12日
    瀏覽(95)
  • 深入淺出Pytorch函數(shù)——torch.nn.init.trunc_normal_

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain · 深入淺出Pytorch函數(shù)——torch.nn.init.uniform_ · 深入淺出Pytorch函數(shù)——torch.nn.init.normal_ · 深入淺出Pytorch函數(shù)——torch.nn.init.constant_ · 深入淺出Pytorch函數(shù)——torch.nn.init.ones_ ·

    2024年02月11日
    瀏覽(94)
  • 深入淺出Pytorch函數(shù)——torch.nn.init.kaiming_normal_

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain · 深入淺出Pytorch函數(shù)——torch.nn.init.uniform_ · 深入淺出Pytorch函數(shù)——torch.nn.init.normal_ · 深入淺出Pytorch函數(shù)——torch.nn.init.constant_ · 深入淺出Pytorch函數(shù)——torch.nn.init.ones_ ·

    2024年02月12日
    瀏覽(80)
  • 深入淺出Pytorch函數(shù)——torch.nn.init.xavier_uniform_

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 深入淺出Pytorch函數(shù)——torch.nn.init.calculate_gain · 深入淺出Pytorch函數(shù)——torch.nn.init.uniform_ · 深入淺出Pytorch函數(shù)——torch.nn.init.normal_ · 深入淺出Pytorch函數(shù)——torch.nn.init.constant_ · 深入淺出Pytorch函數(shù)——torch.nn.init.ones_ ·

    2024年02月11日
    瀏覽(90)
  • 深入淺出Pytorch函數(shù)——torch.nn.Linear

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 對(duì)輸入數(shù)據(jù)做線性變換 y = x A T + b y=xA^T+b y = x A T + b 語(yǔ)法 參數(shù) in_features :[ int ] 每個(gè)輸入樣本的大小 out_features :[ int ] 每個(gè)輸出樣本的大小 bias :[ bool ] 若設(shè)置為 False ,則該層不會(huì)學(xué)習(xí)偏置項(xiàng)目,默認(rèn)值為 True 變量形狀 輸入變量:

    2024年02月12日
    瀏覽(94)
  • 深入淺出Pytorch函數(shù)——torch.nn.Module

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 Pytorch中所有網(wǎng)絡(luò)的基類,我們的模型也應(yīng)該繼承這個(gè)類。 Modules 也可以包含其它 Modules ,允許使用樹結(jié)構(gòu)嵌入他們,我們還可以將子模塊賦值給模型屬性。 語(yǔ)法 方法 torch.nn.Module.apply 實(shí)例 通過(guò)上面方式賦值的 submodule 會(huì)被注冊(cè),當(dāng)調(diào)

    2024年02月12日
    瀏覽(99)
  • 深入淺出Pytorch函數(shù)——torch.nn.Softmax

    分類目錄:《深入淺出Pytorch函數(shù)》總目錄 相關(guān)文章: · 機(jī)器學(xué)習(xí)中的數(shù)學(xué)——激活函數(shù):Softmax函數(shù) · 深入淺出Pytorch函數(shù)——torch.softmax/torch.nn.functional.softmax · 深入淺出Pytorch函數(shù)——torch.nn.Softmax 將Softmax函數(shù)應(yīng)用于 n n n 維輸入張量,重新縮放它們,使得 n n n 維輸出張量的

    2024年02月15日
    瀏覽(23)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包