国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【人工智能概論】 optimizer.param_groups簡(jiǎn)介

這篇具有很好參考價(jià)值的文章主要介紹了【人工智能概論】 optimizer.param_groups簡(jiǎn)介。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

【人工智能概論】 optimizer.param_groups簡(jiǎn)介


一. optimizer.param_groups究竟是什么

  • optimizer.param_groups: 是一個(gè)list,其中的元素為字典;
  • optimizer.param_groups[0]:是一個(gè)字典,一般包括[‘params’, ‘lr’, ‘betas’, ‘eps’, ‘weight_decay’, ‘a(chǎn)msgrad’, ‘maximize’]等參數(shù)(不同的優(yōu)化器包含的可能略有不同,而且還可以額外人為添加鍵值對(duì));
  • 舉例展示:
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)
optimizer1 = torch.optim.Adam(model.parameters(), lr=0.1)
print(optimizer.param_groups[0].keys())
# dict_keys(['params', 'lr', 'momentum', 'dampening', 'weight_decay', 'nesterov', 'maximize', 'foreach', 'differentiable'])
print(optimizer1.param_groups[0].keys())
# dict_keys(['params', 'lr', 'betas', 'eps', 'weight_decay', 'amsgrad', 'maximize', 'foreach', 'capturable', 'differentiable', 'fused'])
  • 不同鍵有不同的含義,還是要具體分析為好。
  • 通過(guò)修改其中的值,可以實(shí)現(xiàn)對(duì)優(yōu)化器更為靈活的控制,優(yōu)化器的其他參數(shù)就好比默認(rèn)服務(wù),而它所控制的就好比私人訂制,且具有更高的優(yōu)先級(jí)。

二. 實(shí)際應(yīng)用——給不同層匹配不同的學(xué)習(xí)率

  • 構(gòu)建案例模型:
import torch

class Resnet(torch.nn.Module):
    def __init__(self):
        super(Resnet, self).__init__()
        self.block1 = torch.nn.Sequential(
            torch.nn.Conv2d(1, 10, 5),
            torch.nn.MaxPool2d(2),
            torch.nn.ReLU(True),
            torch.nn.BatchNorm2d(10),
        )
        self.block2 = torch.nn.Sequential(
            torch.nn.Conv2d(10, 20, 5),
            torch.nn.MaxPool2d(2),
            torch.nn.ReLU(True),
            torch.nn.BatchNorm2d(20),
        )
        self.fc = torch.nn.Sequential(
            torch.nn.Flatten(),
            torch.nn.Linear(320, 10)
        )
    def forward(self, x):
        x = self.block1(x)
        x = self.block2(x)
        x = self.fc(x)
        return x
    
model = Resnet()
  • 正常的設(shè)置優(yōu)化器方式:
optimizer = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.5)
  • 對(duì)網(wǎng)絡(luò)不同模塊設(shè)置不同的學(xué)習(xí)率:
params = [
        {"params":model.block1.parameters()},  # 其采用默認(rèn)的學(xué)習(xí)率
        {"params":model.block2.parameters(),"lr":0.08},
        ]
optimizer = torch.optim.SGD(params, lr=0.1,) # 此處的lr是默認(rèn)的學(xué)習(xí)率
# optimizer.param_groups[1]在這對(duì)應(yīng)的就是{"params":model.block2.parameters(),"lr":0.08}
  • 動(dòng)態(tài)調(diào)整學(xué)習(xí)率:
start_lr = [0.1, 0.08, 0.09]  # 不同層的初始學(xué)習(xí)率
def adjust_learning_rate(optimizer, epoch, start_lr):
    for index, param_group in enumerate(optimizer.param_groups):
        lr = start_lr[index] * (0.9 ** (epoch // 1))    # 每1個(gè)eporch學(xué)習(xí)率改變?yōu)樯弦粋€(gè)eporch的 0.9倍
        param_group['lr'] = lr

三. 用add_param_group方法給param_group添加內(nèi)容:

optimizer.add_param_group({"params":model.fc.parameters(),"lr":0.09})

文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-498740.html

到了這里,關(guān)于【人工智能概論】 optimizer.param_groups簡(jiǎn)介的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【人工智能概論】 XGBoost應(yīng)用——特征篩選

    【人工智能概論】 XGBoost應(yīng)用——特征篩選

    換一個(gè)評(píng)價(jià)指標(biāo),特征排序結(jié)果就會(huì)不一樣,甚至同樣的數(shù)據(jù)同樣的方法多次執(zhí)行得到的結(jié)果也不是完全一樣,特征篩選這件事見(jiàn)仁見(jiàn)智,要理性看待,但確實(shí)可以提供一種交叉驗(yàn)證的角度。 使用梯度提升算法的好處是在提升樹(shù)被創(chuàng)建后,可以相對(duì)直接地得到每個(gè)特征的重要

    2024年01月23日
    瀏覽(27)
  • hnu計(jì)算機(jī)與人工智能概論5.6

    hnu計(jì)算機(jī)與人工智能概論5.6

    最近有點(diǎn)忙,好久沒(méi)更新了,大家見(jiàn)諒!最后一關(guān)howell也做不出來(lái) ?第1關(guān):數(shù)據(jù)分析基礎(chǔ) 1.將scores.xls文件讀到名為df的dataframe中 2.添加平均分列:考勤、實(shí)驗(yàn)操作、實(shí)驗(yàn)報(bào)告的平均 3.輸出前3行學(xué)生的平均分列表,控制小數(shù)點(diǎn)后兩位 4.輸出學(xué)生人數(shù)和班級(jí)數(shù) 5.分別輸出實(shí)驗(yàn)報(bào)

    2024年02月04日
    瀏覽(26)
  • hnu計(jì)算機(jī)與人工智能概論答案3.8

    hnu計(jì)算機(jī)與人工智能概論答案3.8

    連夜更新,求求關(guān)注??! 寫(xiě)在前面:這一課難度較低,報(bào)錯(cuò)時(shí)多看看冒號(hào)和縮進(jìn)有無(wú)錯(cuò)誤,祝大家做題順利?。。?第1關(guān):python分支入門(mén)基礎(chǔ) 根據(jù)提示,在右側(cè)編輯器補(bǔ)充代碼,完成分支程序設(shè)計(jì)(用函數(shù)調(diào)用的方式來(lái)實(shí)現(xiàn))。 第1題: 閏年的判斷:判斷某一年是否是閏年,

    2024年02月08日
    瀏覽(26)
  • hnu計(jì)算機(jī)與人工智能概論答案2.20

    hnu計(jì)算機(jī)與人工智能概論答案2.20

    補(bǔ)一下第一次作業(yè) 第1關(guān):數(shù)據(jù)輸入與輸出 第一題 在屏幕上輸出字符串:hi, \\\"how are you\\\" ,I\\\'m fine and you 第二題 從鍵盤(pán)輸入兩個(gè)整數(shù),計(jì)算兩個(gè)數(shù)相除的商與余數(shù) 假設(shè)輸入12,5 輸出為 2 2 第三題 在屏幕上 輸入一個(gè)三位數(shù)輸出該數(shù)的個(gè)位、十位和百位數(shù)字 假設(shè)輸入125 輸出為 5 2

    2024年02月08日
    瀏覽(30)
  • hnu計(jì)算機(jī)與人工智能概論答案3.15

    hnu計(jì)算機(jī)與人工智能概論答案3.15

    ?終于肝完了!有一說(shuō)一,這一次難度肉眼可見(jiàn)的提升,終于明白程序員為什么會(huì)禿頂了(頭發(fā)真的禁不住薅?。4蠹液眠\(yùn)! 第1關(guān):循環(huán)結(jié)構(gòu)-while與for循環(huán) 第1題 編程計(jì)算如下公式的值1^2+3^2+5^2+...+995^2+997^2+999^2并輸出結(jié)果 第2題 用 while 語(yǔ)句完成程序邏輯,求如下算法可

    2024年02月08日
    瀏覽(95)
  • hnu計(jì)算機(jī)與人工智能概論5.26(方程求根)

    第1關(guān):用暴力搜索法求方程的近似根? 本關(guān)任務(wù):用暴力搜索法求 f(x)=x3?x?1 在[-10,10]之間的近似根。已知f(-10)0,f(10)0,畫(huà)圖可知函數(shù)在[-10,10]區(qū)間有且僅有一個(gè)根。要求近似根帶入函數(shù)f(x)之后,函數(shù)值與0之間的誤差在 10?6 之內(nèi),請(qǐng)保留4位小數(shù)輸出該根值,并輸出搜尋次

    2024年02月03日
    瀏覽(26)
  • 【人工智能概論】 使用kaggle提供的GPU訓(xùn)練神經(jīng)網(wǎng)絡(luò)

    【人工智能概論】 使用kaggle提供的GPU訓(xùn)練神經(jīng)網(wǎng)絡(luò)

    注冊(cè)賬號(hào)的時(shí)候可能會(huì)遇到無(wú)法進(jìn)行人際驗(yàn)證的問(wèn)題,因此可能需要科學(xué)上網(wǎng)一下。具體步驟略。 kaggle的GPU資源需要綁定手機(jī)號(hào)才能使用 點(diǎn)擊右上角的頭像。 點(diǎn)擊Account 找到手機(jī)驗(yàn)證界面Phone Verification,會(huì)看到下圖,根據(jù)1處的提示知,這種情況下手機(jī)是收不到驗(yàn)證碼的,因

    2024年02月04日
    瀏覽(23)
  • 【人工智能概論】 PyTorch可視化工具Tensorboard安裝與簡(jiǎn)單使用

    Tensorboard原本是Tensorflow的可視化工具,但自PyTorch1.2.0版本開(kāi)始,PyTorch正式內(nèi)置Tensorboard的支持,盡管如此仍需手動(dòng)安裝Tensorboard。否則會(huì)報(bào)錯(cuò)。 ModuleNotFoundError: No module named ‘tensorboard’ 進(jìn)入相應(yīng)虛擬環(huán)境后,輸入以下指令即可安裝。 輸入以下指令,不報(bào)錯(cuò)即說(shuō)明安裝成功。

    2023年04月24日
    瀏覽(22)
  • 【人工智能概論】 自編碼器(Auto-Encoder , AE)

    【人工智能概論】 自編碼器(Auto-Encoder , AE)

    自編碼器結(jié)構(gòu)圖 自編碼器是自監(jiān)督學(xué)習(xí)的一種,其可以理解為一個(gè)試圖還原其原始輸入的系統(tǒng)。 其主要由編碼器(Encoder)和解碼器(Decoder)組成,其工作流程是將輸入的數(shù)據(jù) x 經(jīng)編碼器壓縮成 y , y 再由解碼器轉(zhuǎn)化成 x* ,其目的是讓 x* 和 x 盡可能相近。 注意:盡管自編碼

    2024年02月04日
    瀏覽(23)
  • NHU-Python(商)實(shí)驗(yàn)九-二維列表(計(jì)算與人工智能概論)

    NHU-Python(商)實(shí)驗(yàn)九-二維列表(計(jì)算與人工智能概論)

    任務(wù)描述 血壓的正常范圍是 60mmHg舒張壓90mmHg 90mmHg收縮壓140mmHg 輸入小張測(cè)量血壓的日期,舒張壓和收縮壓,存放到列表xy中 將小張血壓不正常次數(shù)百分比計(jì)算并顯示出來(lái) 將小張血壓不正常的日期,舒張壓和收縮壓顯示出來(lái) 例如輸入 2020-1-1,80,100 2020-1-2,90,120 2020-1-3,100,150 202

    2024年02月04日
    瀏覽(17)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包