国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

d2l學(xué)習(xí)——第一章Introduction

這篇具有很好參考價(jià)值的文章主要介紹了d2l學(xué)習(xí)——第一章Introduction。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

x.0 環(huán)境配置

使用d2l庫(kù),安裝如下:

conda create --name d2l python=3.9 -y
conda activate d2l

pip install torch==1.12.0 torchvision==0.13.0
pip install d2l==1.0.0b0

mkdir d2l-en && cd d2l-en
curl https://d2l.ai/d2l-en.zip -o d2l-en.zip
unzip d2l-en.zip && rm d2l-en.zip
cd pytorch

如果安裝不上d2l可以用下面的方法:

pip install git+https://github.com/d2l-ai/d2l-en

x.1 key components in ML

就和統(tǒng)計(jì)學(xué)習(xí)方法書中說的一樣,機(jī)器學(xué)習(xí)也可以分為幾個(gè)核心要義,Data, Models, Objective Functions, Optimization Algorithms, 其中:

  • Data: 用來學(xué)習(xí)的數(shù)據(jù)
  • Model: 如何轉(zhuǎn)換/translate數(shù)據(jù)的模型
  • Objective Function: 目標(biāo)函數(shù),用來量化模型有效性
  • Optimization Algorithm: 調(diào)整模型參數(shù)以優(yōu)化目標(biāo)函數(shù)的算法

整個(gè)機(jī)器學(xué)習(xí)的過程就是一輪一輪的數(shù)據(jù)迭代,通過下面的圖更方便記憶:

d2l學(xué)習(xí)——第一章Introduction

x.2 Kinds of Machine Learning Problems

機(jī)器學(xué)習(xí)分類主要為兩大類,如下所示:

  • Supervised Learning
    • Regression
    • Classification
    • Tagging
    • Search
    • Recommender Systems
    • Sequence Learning
  • Unsupervised and Self-Supervised Learning
    • Interacting with an Environment
    • Reinforcement Learning

其中自監(jiān)督學(xué)習(xí)也可以當(dāng)做是無監(jiān)督學(xué)習(xí)的一種,例如GAN就是將輸入當(dāng)做輸出來進(jìn)行真假標(biāo)簽的判定。文章來源地址http://www.zghlxwxcb.cn/news/detail-476911.html

到了這里,關(guān)于d2l學(xué)習(xí)——第一章Introduction的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 卷積神經(jīng)網(wǎng)絡(luò)——中篇【深度學(xué)習(xí)】【PyTorch】【d2l】

    卷積神經(jīng)網(wǎng)絡(luò)——中篇【深度學(xué)習(xí)】【PyTorch】【d2l】

    5.5.1、理論部分 兩個(gè)? 卷積塊 ? 每個(gè)卷積塊中的基本單元是一個(gè)? 卷積層 ?、一個(gè) ? sigmoid激活函數(shù) ?和 ? 平均匯聚層 ? 三個(gè)? 全連接層密集塊 ? 早期神經(jīng)網(wǎng)絡(luò),先使用卷積層學(xué)習(xí)圖片空間信息,然后全連接層轉(zhuǎn)換到類別空間。 5.5.2、代碼實(shí)現(xiàn) 定義一個(gè) Sequential塊

    2024年02月11日
    瀏覽(31)
  • 卷積神經(jīng)網(wǎng)絡(luò)——下篇【深度學(xué)習(xí)】【PyTorch】【d2l】

    卷積神經(jīng)網(wǎng)絡(luò)——下篇【深度學(xué)習(xí)】【PyTorch】【d2l】

    5.10.1、理論部分 批量歸一化可以解決深層網(wǎng)絡(luò)中梯度消失和收斂慢的問題,通過固定每個(gè)批次的均值和方差來加速收斂,一般不改變模型精度。批量規(guī)范化已經(jīng)被證明是一種不可或缺的方法,它適用于幾乎所有圖像分類器。 批量規(guī)劃是一個(gè)線性變換 ,把參數(shù)的均值方差給拉

    2024年02月12日
    瀏覽(24)
  • 線性神經(jīng)網(wǎng)路——線性回歸隨筆【深度學(xué)習(xí)】【PyTorch】【d2l】

    線性神經(jīng)網(wǎng)路——線性回歸隨筆【深度學(xué)習(xí)】【PyTorch】【d2l】

    線性回歸是顯式解,深度學(xué)習(xí)中絕大多數(shù)遇到的都是隱式解。 3.1.1、PyTorch 從零實(shí)現(xiàn)線性回歸 生成數(shù)據(jù)集及標(biāo)簽 d2l.plt.scatter(,,) ,使用d2l庫(kù)中的繪圖函數(shù)來創(chuàng)建散點(diǎn)圖。 這個(gè)函數(shù)接受三個(gè)參數(shù): features[:,1].detach().numpy() 是一個(gè)二維張量features的切片操作,選擇了所有行的第二

    2024年02月15日
    瀏覽(25)
  • d2l_第八章學(xué)習(xí)_現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)

    d2l_第八章學(xué)習(xí)_現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)

    參考: d2l 研究人員認(rèn)為: 更大更干凈的 數(shù)據(jù)集 或是稍加改進(jìn)的特征提取方法,比任何學(xué)習(xí)算法帶來的進(jìn)步大得多。 認(rèn)為特征本身應(yīng)該被學(xué)習(xí),即卷積核參數(shù)應(yīng)該是可學(xué)習(xí)的。 創(chuàng)新點(diǎn)在于GPU與更深的網(wǎng)絡(luò),使用ReLU激活函數(shù),Dropout層。 可參考: AlexNet https://blog.csdn.net/qq_4

    2024年02月11日
    瀏覽(15)
  • D2L學(xué)習(xí)記錄-10-詞嵌入word2vec

    D2L學(xué)習(xí)記錄-10-詞嵌入word2vec

    《動(dòng)手學(xué)深度學(xué)習(xí) Pytorch 第1版》第10章 自然語言處理 第1、2、3 和 4節(jié) (詞嵌入) 詞向量:自然語言中,詞是表義的基本單元。詞向量是用來表示詞的向量。 詞嵌入 (word embedding):將詞映射為實(shí)數(shù)域向量的技術(shù)稱為詞嵌入。 詞嵌入出現(xiàn)的原因:由于 one-hot 編碼的詞向量不能準(zhǔn)確

    2024年02月14日
    瀏覽(26)
  • 關(guān)于安裝李沐深度學(xué)習(xí)d2l包報(bào)錯(cuò)的解決辦法(保姆教程)

    關(guān)于安裝李沐深度學(xué)習(xí)d2l包報(bào)錯(cuò)的解決辦法(保姆教程)

    因?yàn)閾Q了新電腦,所以環(huán)境都是從零開始配置,但是在安裝李沐深度學(xué)習(xí)里常用的d2l包的時(shí)候,確實(shí)頻繁報(bào)錯(cuò)。 這里總結(jié)一下我的報(bào)錯(cuò)原因,希望大家在遇到bug的時(shí)候能夠從容面對(duì)。 在安裝深度學(xué)習(xí)框架之前,請(qǐng)先檢查你的計(jì)算機(jī)上是否有可用的GPU。 例如,你可以查看計(jì)算

    2024年02月03日
    瀏覽(24)
  • 動(dòng)手學(xué)深度學(xué)習(xí)d2l.Animator無法在PyCharm中顯示動(dòng)態(tài)圖片的解決方案

    動(dòng)手學(xué)深度學(xué)習(xí)d2l.Animator無法在PyCharm中顯示動(dòng)態(tài)圖片的解決方案

    運(yùn)行 d2l 的訓(xùn)練函數(shù),僅在控制臺(tái)輸出以下內(nèi)容,無法顯示動(dòng)態(tài)圖片(訓(xùn)練監(jiān)控) 修改 d2l.Animator 的 add 函數(shù),以下分別是修改前的代碼及修改后的代碼: 同時(shí),在使用相關(guān)函數(shù)時(shí),添加如下一行代碼 d2l.plt.show() ,如下: 重寫訓(xùn)練函數(shù),以 d2l.train_ch13 為例,以下分別是修改

    2024年02月09日
    瀏覽(103)
  • d2l包安裝教程

    d2l包安裝教程

    目錄 一、下載d2l包 1、錯(cuò)誤的安裝方法 2、正確的安裝方法 二、可能會(huì)遇到的問題 1、網(wǎng)絡(luò)超時(shí)導(dǎo)致下載中斷 2、windows powershell激活虛擬環(huán)境時(shí)報(bào)錯(cuò) ???????直接按照教程安裝 — 動(dòng)手學(xué)深度學(xué)習(xí) 2.0.0 documentation運(yùn)行命令 pip install d2l==0.17.6 安裝會(huì)比較慢,很大可能會(huì)因?yàn)榫W(wǎng)絡(luò)

    2024年01月19日
    瀏覽(21)
  • d2l 線性回歸的簡(jiǎn)潔實(shí)現(xiàn)

    上一節(jié) 張量:數(shù)據(jù)存儲(chǔ)、線性代數(shù);自動(dòng)微分:計(jì)算梯度 開源框架,可自動(dòng)化基于梯度的學(xué)習(xí)算法中重復(fù)性的工作 數(shù)據(jù)迭代器、損失函數(shù)、優(yōu)化器、神經(jīng)網(wǎng)絡(luò)層 使用深度學(xué)習(xí)框架簡(jiǎn)潔實(shí)現(xiàn) 線性回歸模型 生成數(shù)據(jù)集 標(biāo)準(zhǔn)深度學(xué)習(xí)模型,使用框架預(yù)定義好的層 關(guān)注用哪些層

    2024年02月14日
    瀏覽(19)
  • Pycharm安裝jupyter和d2l

    Pycharm安裝jupyter和d2l

    jupyter是d2l的依賴庫(kù),沒有它就用不了d2l pycharm中端輸入 pip install jupyter 安裝若失敗則: 若網(wǎng)速過慢,則更改鏡像源再下載: 若還是下載失敗則是由于電腦有外網(wǎng)APN,也就是說是科學(xué)上網(wǎng)的原因?qū)е碌模?關(guān)掉后再輸入命令下載即可。 先下載whl: 鏈接 點(diǎn)擊下載地址下載 再找項(xiàng)

    2024年02月06日
    瀏覽(15)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包