国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

pytorch入門2--數(shù)據(jù)預(yù)處理、線性代數(shù)的矩陣實現(xiàn)、求導(dǎo)

這篇具有很好參考價值的文章主要介紹了pytorch入門2--數(shù)據(jù)預(yù)處理、線性代數(shù)的矩陣實現(xiàn)、求導(dǎo)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

數(shù)據(jù)預(yù)處理是指將原始數(shù)據(jù)讀取進來使得能用機器學(xué)習(xí)的方法進行處理。
首先介紹csv文件:
CSV 代表逗號分隔值(comma-separated values),CSV 文件就是使用逗號分隔數(shù)據(jù)的文本文件。
一個 CSV 文件包含一行或多行數(shù)據(jù),每一行數(shù)據(jù)代表一個記錄。每個記錄包含一個或多個數(shù)值,使用逗號進行分隔。另外,一個 CSV 文件中的所有數(shù)據(jù)行都包含相同數(shù)量的值。
我們通常使用 CSV 文件存儲表格數(shù)據(jù),很多軟件都支持這種文件格式,例如 Microsoft Excel(新建工作簿保存為.csv即可) 和 Google Spreadsheet。
python可以使用內(nèi)置的csv模塊讀取csv文件。
一、數(shù)據(jù)預(yù)處理
1.首先要找到j(luò)upyter notebook創(chuàng)建地文件存放地位置。
pytorch 矩陣,線性代數(shù),pytorch,矩陣
pytorch 矩陣,線性代數(shù),pytorch,矩陣

找到該路徑。
pytorch 矩陣,線性代數(shù),pytorch,矩陣
pytorch 矩陣,線性代數(shù),pytorch,矩陣
可以看出jupyter與保存地本地文件夾一致。
2.在jupyter notebook里的DataSolving中編寫代碼:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
說明:(1)os.makedirs()用于遞歸地創(chuàng)建目錄,exist_ok=True指定后如果該目錄已存在也不報錯;
(2)os.path.join()用于組合一個或多個路徑名,os.path.join(‘…’,‘data’,‘house_tiny.csv’)的返回值為"…\data\house_tiny.cssv。
程序運行之后:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
pytorch 矩陣,線性代數(shù),pytorch,矩陣
pytorch 矩陣,線性代數(shù),pytorch,矩陣
本地打開文件:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
3.也可讀取.csv文件,使用pandas。
pytorch 矩陣,線性代數(shù),pytorch,矩陣
4.可以使用fillna()對.csv文件中的空值(不是0,而是缺失)進行填充。
pytorch 矩陣,線性代數(shù),pytorch,矩陣
可以看到NumRoom那一列的空值被填上了均值(data.mean()表示一列的空值處填充該列原本不為空的元素的均值),而Alley那一列的空值沒有被填充,因為該列是字符串,沒有均值。
對于不是數(shù)值的,可以將空值是為一個類別,處理如下:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
5.將從.csv文件中讀取的數(shù)據(jù)轉(zhuǎn)為torch張量。
pytorch 矩陣,線性代數(shù),pytorch,矩陣
二、矩陣
1.創(chuàng)建矩陣和矩陣的轉(zhuǎn)置。
pytorch 矩陣,線性代數(shù),pytorch,矩陣
2.矩陣與向量的乘積torch.mv([矩陣名],[向量名])
pytorch 矩陣,線性代數(shù),pytorch,矩陣
3.矩陣與矩陣的運算torch.mm([矩陣名],[矩陣名])
pytorch 矩陣,線性代數(shù),pytorch,矩陣
4.矩陣的范數(shù)
pytorch 矩陣,線性代數(shù),pytorch,矩陣
pytorch 矩陣,線性代數(shù),pytorch,矩陣
pytorch 矩陣,線性代數(shù),pytorch,矩陣
5.矩陣計算(求導(dǎo))
基于高數(shù)的知識,y=3x^2+2x,y’=6x+2,當(dāng)x=2時,y’=14。該過程用pytorch實現(xiàn)為:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
說明:(1)創(chuàng)建一個張量x,并設(shè)置其requires_grad參數(shù)為True,程序?qū)粉櫵袑τ谠搹埩康牟僮?,?dāng)完成計算后通過調(diào)用.backward(),自動計算所有的梯度(梯度相當(dāng)于導(dǎo)數(shù),即方向?qū)?shù)的最大值),這個張量所有的梯度將會自動累積到grad屬性。這里x.grad是y關(guān)于x的導(dǎo)數(shù)。
(2)創(chuàng)建了一個關(guān)于x的函數(shù)y,torch.pow(x,2)相當(dāng)于x2即x的平方。
(3)y.backward()是利用反向傳播機制。
pytorch 矩陣,線性代數(shù),pytorch,矩陣
三種不同的求導(dǎo)情況:
(1)張量對標(biāo)量求導(dǎo):
pytorch 矩陣,線性代數(shù),pytorch,矩陣
可以這樣理解:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
(2)標(biāo)量對張量求導(dǎo):
pytorch 矩陣,線性代數(shù),pytorch,矩陣
看下面的例子:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
設(shè)x=[x1,x2,x3],則z=x1
2+x22+x32+6,則
pytorch 矩陣,線性代數(shù),pytorch,矩陣
標(biāo)量對向量求導(dǎo)本質(zhì)上是函數(shù)對各個自變量求導(dǎo),這里只是把各個自變量看成一個向量。
(3)張量對張量求導(dǎo)
pytorch 矩陣,線性代數(shù),pytorch,矩陣
理解:
現(xiàn)有如下問題,已知
pytorch 矩陣,線性代數(shù),pytorch,矩陣
其中函數(shù)f(y1,y2,y3)的具體定義未知,現(xiàn)在求:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
根據(jù)多元函數(shù)求導(dǎo)法則:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
上面3個等式可以寫成矩陣相乘的形式:
pytorch 矩陣,線性代數(shù),pytorch,矩陣
叫做雅可比式,雅可比式可以根據(jù)已知條件求出,哪怕不知道f(y1,y2,y3)的具體形式。
pytorch 矩陣,線性代數(shù),pytorch,矩陣
上面的張量是由pytorch的backward函數(shù)的gradient參數(shù)提供。
用pytorch實現(xiàn):
pytorch 矩陣,線性代數(shù),pytorch,矩陣
pytorch 矩陣,線性代數(shù),pytorch,矩陣
和代碼運行結(jié)果一樣。
補充:
pytorch 矩陣,線性代數(shù),pytorch,矩陣文章來源地址http://www.zghlxwxcb.cn/news/detail-765662.html

到了這里,關(guān)于pytorch入門2--數(shù)據(jù)預(yù)處理、線性代數(shù)的矩陣實現(xiàn)、求導(dǎo)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Pytorch和Tensoflow對比學(xué)習(xí)第三周--Day 19-20: 數(shù)據(jù)加載和預(yù)處理

    這兩天的學(xué)習(xí)重點是掌握在PyTorch和TensorFlow中進行數(shù)據(jù)加載和預(yù)處理的方法。正確的數(shù)據(jù)處理是訓(xùn)練有效模型的關(guān)鍵步驟。 數(shù)據(jù)加載和預(yù)處理: 學(xué)習(xí)了如何使用PyTorch的DataLoader和Dataset類以及TensorFlow的數(shù)據(jù)API來加載和預(yù)處理數(shù)據(jù)。 理解了數(shù)據(jù)標(biāo)準(zhǔn)化、轉(zhuǎn)換和批處理的重要性。

    2024年01月20日
    瀏覽(27)
  • 【3D 圖像分割】基于 Pytorch 的 3D 圖像分割6(數(shù)據(jù)預(yù)處理之LIDC-IDRI 標(biāo)簽 xml 標(biāo)簽轉(zhuǎn)儲及標(biāo)記次數(shù)統(tǒng)計 )

    【3D 圖像分割】基于 Pytorch 的 3D 圖像分割6(數(shù)據(jù)預(yù)處理之LIDC-IDRI 標(biāo)簽 xml 標(biāo)簽轉(zhuǎn)儲及標(biāo)記次數(shù)統(tǒng)計 )

    由于之前嗶站作者整理的 LUNA16 數(shù)據(jù)處理方式過于的繁瑣,于是,本文就對 LUNA16 數(shù)據(jù)做一個新的整理,最終得到的數(shù)據(jù)和形式是差不多的。但是,主要不同的是代碼邏輯比較的簡單,便于理解。 對于 LUNA16 數(shù)據(jù)集的學(xué)習(xí),可以去參考這里:【3D 圖像分類】基于 Pytorch 的 3D 立

    2024年02月04日
    瀏覽(25)
  • Pytorch學(xué)習(xí)筆記(3):圖像的預(yù)處理(transforms)

    Pytorch學(xué)習(xí)筆記(3):圖像的預(yù)處理(transforms)

    ? 目錄 ?一、torchvision:計算機視覺工具包 ?二、transforms的運行機制 (1)torchvision.transforms:常用的圖像預(yù)處理方法 (2)transforms運行原理? ?三、數(shù)據(jù)標(biāo)準(zhǔn)化 transforms.Normalize() 四、數(shù)據(jù)增強 ?4.1 transforms—數(shù)據(jù)裁剪 (1)transforms.CentorCrop (2)transforms.RandomCrop (3)RandomResiz

    2023年04月13日
    瀏覽(31)
  • 使用 Monai 和 PyTorch 預(yù)處理 3D Volumes以進行腫瘤分割

    使用 Monai 和 PyTorch 預(yù)處理 3D Volumes以進行腫瘤分割

    針對在使用傳統(tǒng)圖像處理工具時可能遇到的困難,深度學(xué)習(xí)已成為醫(yī)療保健領(lǐng)域的主要解決方案。 因為醫(yī)學(xué)圖像比標(biāo)準(zhǔn)圖像更難處理(高對比度、人體的廣泛變化……)深度學(xué)習(xí)用于分類、對象檢測,尤其是分割任務(wù)。 在分割方面,深度學(xué)習(xí)用于分割人體器官,如肝臟、肺

    2023年04月11日
    瀏覽(30)
  • python機器學(xué)習(xí)(三)特征預(yù)處理、鳶尾花案例--分類、線性回歸、代價函數(shù)、梯度下降法、使用numpy、sklearn實現(xiàn)一元線性回歸

    python機器學(xué)習(xí)(三)特征預(yù)處理、鳶尾花案例--分類、線性回歸、代價函數(shù)、梯度下降法、使用numpy、sklearn實現(xiàn)一元線性回歸

    數(shù)據(jù)預(yù)處理的過程。數(shù)據(jù)存在不同的量綱、數(shù)據(jù)中存在離群值,需要穩(wěn)定的轉(zhuǎn)換數(shù)據(jù),處理好的數(shù)據(jù)才能更好的去訓(xùn)練模型,減少誤差的出現(xiàn)。 標(biāo)準(zhǔn)化 數(shù)據(jù)集的標(biāo)準(zhǔn)化對scikit-learn中實現(xiàn)的大多數(shù)機器學(xué)習(xí)算法來說是常見的要求,很多案例都需要標(biāo)準(zhǔn)化。如果個別特征或多或

    2024年02月16日
    瀏覽(24)
  • 自然語言處理入門:使用Python和NLTK進行文本預(yù)處理

    文章標(biāo)題:自然語言處理入門:使用Python和NLTK進行文本預(yù)處理 簡介 自然語言處理(NLP)是人工智能領(lǐng)域的一個重要分支,它致力于使計算機能夠理解、分析和生成人類語言。本文將介紹如何使用Python編程語言和NLTK(Natural Language Toolkit)庫進行文本預(yù)處理,為后續(xù)的文本分析

    2024年02月19日
    瀏覽(23)
  • 數(shù)據(jù)采集與預(yù)處理01: 項目1 數(shù)據(jù)采集與預(yù)處理準(zhǔn)備

    數(shù)據(jù)采集與預(yù)處理01: 項目1 數(shù)據(jù)采集與預(yù)處理準(zhǔn)備

    數(shù)據(jù)采集:足夠的數(shù)據(jù)量是企業(yè)大數(shù)據(jù)戰(zhàn)略建設(shè)的基礎(chǔ),因此數(shù)據(jù)采集成為大數(shù)據(jù)分析的前站。數(shù)據(jù)采集是大數(shù)據(jù)價值挖掘中重要的一環(huán),其后的分析挖掘都建立在數(shù)據(jù)采集的基礎(chǔ)上。大數(shù)據(jù)技術(shù)的意義確實不在于掌握規(guī)模龐大的數(shù)據(jù)信息,而在于對這些數(shù)據(jù)進行智能處理,

    2024年01月25日
    瀏覽(29)
  • 數(shù)據(jù)預(yù)處理matlab matlab數(shù)據(jù)的獲取、預(yù)處理、統(tǒng)計、可視化、降維

    1.1 從Excel中獲取 使用readtable() 例1: 使用 spreadsheetImportOptions(Name,Value) 初步確定導(dǎo)入信息, 再用 opts.Name=Value 的格式添加。 例2: 先初始化 spreadsheetImportOptions 對象, 再用 opts.Name=Value 的格式逐個添加。 例3: 將導(dǎo)入信息存到變量里, 再使用 spreadsheetImportOptions(Name,Value)

    2024年02月15日
    瀏覽(55)
  • 大數(shù)據(jù)采集技術(shù)與預(yù)處理學(xué)習(xí)一:大數(shù)據(jù)概念、數(shù)據(jù)預(yù)處理、網(wǎng)絡(luò)數(shù)據(jù)采集

    大數(shù)據(jù)采集技術(shù)與預(yù)處理學(xué)習(xí)一:大數(shù)據(jù)概念、數(shù)據(jù)預(yù)處理、網(wǎng)絡(luò)數(shù)據(jù)采集

    目錄 大數(shù)據(jù)概念: 1.數(shù)據(jù)采集過程中會采集哪些類型的數(shù)據(jù)? 2.非結(jié)構(gòu)化數(shù)據(jù)采集的特點是什么? 3.請闡述傳統(tǒng)的數(shù)據(jù)采集與大數(shù)據(jù)采集的區(qū)別? ???????????????4.大數(shù)據(jù)采集的數(shù)據(jù)源有哪些?針對不同的數(shù)據(jù)源,我們可以采用哪些不同的方法和工具? 數(shù)據(jù)

    2024年01月25日
    瀏覽(30)
  • C語言從入門到精通第14天(C語言預(yù)處理)

    C語言從入門到精通第14天(C語言預(yù)處理)

    在前面我們已經(jīng)對C語言的基礎(chǔ)語法知識有所了解了,每次進行程序的編寫之前,我們會使用 #include 命令去導(dǎo)入我們的庫函數(shù),而這種以 # 號開頭的命令稱為 預(yù)處理命令。 C語言提供了多種預(yù)處理功能,如 宏定義、文件包含、條件編譯 等。合理地使用預(yù)處理功能編寫地程序便

    2023年04月26日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包