国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

這篇具有很好參考價(jià)值的文章主要介紹了【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

機(jī)器學(xué)習(xí)(算法篇)完整教程(附代碼資料)主要內(nèi)容講述:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo),K-近鄰算法,1.1 K-近鄰算法簡(jiǎn)介,1.2 k近鄰算法api初步使用定位,目標(biāo),學(xué)習(xí)目標(biāo),1 什么是K-近鄰算法,1 Scikit-learn工具介紹,2 K-近鄰算法API,3 案例,4 小結(jié)。K-近鄰算法,1.3 距離度量學(xué)習(xí)目標(biāo),1 歐式距離,2 ,3 切比雪夫距離 (Chebyshev Distance):,4 閔可夫斯基距離(Minkowski Distance):,5 標(biāo)準(zhǔn)化歐氏距離 (Standardized EuclideanDistance):,6 余弦距離(Cosine Distance),7 漢明距離(Hamming Distance)【了解】:,9 馬氏距離(Mahalanobis Distance)【了解】。K-近鄰算法,1.4 k值的選擇學(xué)習(xí)目標(biāo)。K-近鄰算法,1.5 kd樹學(xué)習(xí)目標(biāo),1 kd樹簡(jiǎn)介,2 構(gòu)造方法,3 案例分析,4 總結(jié)。K-近鄰算法,1.6 案例:鳶尾花種類預(yù)測(cè)--數(shù)據(jù)集介紹,1.7 特征工程-特征預(yù)處理學(xué)習(xí)目標(biāo),1 案例:鳶尾花種類預(yù)測(cè),2 scikit-learn中數(shù)據(jù)集介紹,1 什么是特征預(yù)處理,2 歸一化,3 標(biāo)準(zhǔn)化。K-近鄰算法,1.8 案例:鳶尾花種類預(yù)測(cè)—流程實(shí)現(xiàn),1.9 練一練,1.10 交叉驗(yàn)證,網(wǎng)格搜索,1.11 案例2:預(yù)測(cè)facebook簽到位置學(xué)習(xí)目標(biāo),1 再識(shí)K-近鄰算法API,2 案例:鳶尾花種類預(yù)測(cè),總結(jié),1 什么是交叉驗(yàn)證(cross validation),2 什么是網(wǎng)格搜索(Grid Search),3 交叉驗(yàn)證,網(wǎng)格搜索(模型選擇與調(diào)優(yōu))API:,4 鳶尾花案例增加K值調(diào)優(yōu),1 數(shù)據(jù)集介紹,2 步驟分析,3 代碼過(guò)程。線性回歸,2.1 線性回歸簡(jiǎn)介,2.2 線性回歸api初步使用,2.3 數(shù)學(xué):求導(dǎo)學(xué)習(xí)目標(biāo),1 線性回歸應(yīng)用場(chǎng)景,2 什么是線性回歸,1 線性回歸API,2 舉例,1 常見函數(shù)的導(dǎo)數(shù),2 導(dǎo)數(shù)的四則運(yùn)算,3 練習(xí),4 矩陣(向量)求導(dǎo) [了解]。線性回歸,2.4 線性回歸的損失和優(yōu)化學(xué)習(xí)目標(biāo),1 損失函數(shù),2 優(yōu)化算法。線性回歸,2.6 梯度下降法介紹,2.5 線性回歸api再介紹學(xué)習(xí)目標(biāo),1 全梯度下降算法(FG),2 隨機(jī)梯度下降算法(SG),3 小批量梯度下降算法(mini-bantch),4 隨機(jī)平均梯度下降算法(SAG),5 算法比較,6 梯度下降優(yōu)化算法(拓展)。線性回歸,2.7 案例:波士頓房?jī)r(jià)預(yù)測(cè)學(xué)習(xí)目標(biāo),1 分析,2 回歸性能評(píng)估,3 代碼。線性回歸,2.8 欠擬合和過(guò)擬合學(xué)習(xí)目標(biāo),1 定義,2 原因以及解決辦法,3 正則化,4 維災(zāi)難【拓展知識(shí)】。線性回歸,2.9 正則化線性模型,2.10 線性回歸的改進(jìn)-嶺回歸,2.11 模型的保存和加載,邏輯回歸,3.1 邏輯回歸介紹,3.2 邏輯回歸api介紹,3.3 案例:癌癥分類預(yù)測(cè)-良/惡性乳腺癌腫瘤預(yù)測(cè)學(xué)習(xí)目標(biāo),1 Ridge Regression (嶺回歸,又名 Tikhonov regularization),2 Lasso Regression(Lasso 回歸),3 Elastic Net (彈性網(wǎng)絡(luò)),4 Early Stopping [了解],1 API,2 觀察正則化程度的變化,對(duì)結(jié)果的影響?,3 波士頓房?jī)r(jià)預(yù)測(cè),1 sklearn模型的保存和加載API,2 線性回歸的模型保存加載案例,學(xué)習(xí)目標(biāo),1 邏輯回歸的應(yīng)用場(chǎng)景,2 邏輯回歸的原理,3 損失以及優(yōu)化,1 分析,2 代碼。邏輯回歸,3.4 分類評(píng)估方法,3.5 ROC曲線的繪制,決策樹算法,4.1 決策樹算法簡(jiǎn)介學(xué)習(xí)目標(biāo),1.分類評(píng)估方法,2 ROC曲線與AUC指標(biāo),3 總結(jié),1 曲線繪制,2 意義解釋,學(xué)習(xí)目標(biāo)。決策樹算法,4.2 決策樹分類原理學(xué)習(xí)目標(biāo),1 熵,2 決策樹的劃分依據(jù)一------信息增益,3 決策樹的劃分依據(jù)二----信息增益率,4 決策樹的劃分依據(jù)三——基尼值和基尼指數(shù)。決策樹算法,4.3 cart剪枝學(xué)習(xí)目標(biāo),1 為什么要剪枝,2 常用的減枝方法。決策樹算法,4.4 特征工程-特征提取學(xué)習(xí)目標(biāo),1 特征提取,2 字典特征提取,3 文本特征提取。決策樹算法,4.5 決策樹算法api,4.6 案例:泰坦尼克號(hào)乘客生存預(yù)測(cè),集成學(xué)習(xí),5.1 集成學(xué)習(xí)算法簡(jiǎn)介,5.2 Bagging學(xué)習(xí)目標(biāo),1 泰坦尼克號(hào)數(shù)據(jù),2 步驟分析,3 代碼過(guò)程,3 決策樹可視化,學(xué)習(xí)目標(biāo),1 什么是集成學(xué)習(xí),2 ,3 集成學(xué)習(xí)中boosting和Bagging,1 Bagging集成原理,2 隨機(jī)森林構(gòu)造過(guò)程,3 隨機(jī)森林api介紹,4 隨機(jī)森林預(yù)測(cè)案例,5 bagging集成優(yōu)點(diǎn)。集成學(xué)習(xí),5.3 Boosting,聚類算法,6.1 聚類算法簡(jiǎn)介,6.2 聚類算法api初步使用,6.3 聚類算法實(shí)現(xiàn)流程學(xué)習(xí)目標(biāo),1.boosting集成原理,2 GBDT(了解),3.XGBoost【了解】,4 什么是泰勒展開式【拓展】,學(xué)習(xí)目標(biāo),1 認(rèn)識(shí)聚類算法,1 api介紹,2 案例,1 k-means聚類步驟,2 案例練習(xí),3 小結(jié)。聚類算法,6.4 模型評(píng)估,6.5 算法優(yōu)化學(xué)習(xí)目標(biāo),1 誤差平方和(SSE \The sum of squares due to error):,2 , — K值確定,3 輪廓系數(shù)法(Silhouette Coefficient),4 CH系數(shù)(Calinski-Harabasz Index),5 總結(jié),1 Canopy算法配合初始聚類,2 K-means++,3 二分k-means,4 k-medoids(k-中心聚類算法),5 Kernel k-means(了解),6 ISODATA(了解),7 Mini Batch K-Means(了解),8 總結(jié)。聚類算法,6.6 特征降維,6.7 案例:探究用戶對(duì)物品類別的喜好細(xì)分降維,6.8 算法選擇指導(dǎo)學(xué)習(xí)目標(biāo),1 降維,2 特征選擇,3 主成分分析,1 需求,2 分析,3 完整代碼。

全套筆記資料代碼移步: 前往gitee倉(cāng)庫(kù)查看

感興趣的小伙伴可以自取哦,歡迎大家點(diǎn)贊轉(zhuǎn)發(fā)~


【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)

定位

  • 課程以算法、案例為驅(qū)動(dòng)的學(xué)習(xí),伴隨淺顯易懂的數(shù)學(xué)知識(shí)
  • 作為人工智能領(lǐng)域的提升課程,掌握更深更有效的解決問(wèn)題技能

目標(biāo)

  • 掌握機(jī)器學(xué)習(xí)常見算法原理
  • 應(yīng)用Scikit-learn實(shí)現(xiàn)機(jī)器學(xué)習(xí)算法的應(yīng)用,
  • 結(jié)合場(chǎng)景解決實(shí)際問(wèn)題

K-近鄰算法

學(xué)習(xí)目標(biāo)

  • 掌握K-近鄰算法實(shí)現(xiàn)過(guò)程
  • 知道K-近鄰算法的距離公式
  • 知道K-近鄰算法的超參數(shù)K值以及取值問(wèn)題
  • 知道kd樹實(shí)現(xiàn)搜索的過(guò)程
  • 應(yīng)用KNeighborsClassifier實(shí)現(xiàn)分類
  • 知道K-近鄰算法的優(yōu)缺點(diǎn)
  • 知道交叉驗(yàn)證實(shí)現(xiàn)過(guò)程
  • 知道超參數(shù)搜索過(guò)程
  • 應(yīng)用GridSearchCV實(shí)現(xiàn)算法參數(shù)的調(diào)優(yōu)

1.1 K-近鄰算法簡(jiǎn)介

1 什么是K-近鄰算法

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

  • 根據(jù)你的“鄰居”來(lái)推斷出你的類別

1.1 K-近鄰算法(KNN)概念

K Nearest Neighbor算法又叫KNN算法,這個(gè)算法是機(jī)器學(xué)習(xí)里面一個(gè)比較經(jīng)典的算法, 總體來(lái)說(shuō)KNN算法是相對(duì)比較容易理解的算法

  • 定義

如果一個(gè)樣本在特征空間中的k個(gè)最相似(即特征空間中最鄰近)的樣本中的大多數(shù)屬于某一個(gè)類別,則該樣本也屬于這個(gè)類別。

來(lái)源:KNN算法最早是由Cover和Hart提出的一種分類算法

  • 距離公式

兩個(gè)樣本的距離可以通過(guò)如下公式計(jì)算,又叫歐式距離 ,關(guān)于距離公式會(huì)在后面進(jìn)行討論

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

1.2 電影類型分析

假設(shè)我們現(xiàn)在有幾部電影

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

其中? 號(hào)電影不知道類別,如何去預(yù)測(cè)?我們可以利用K近鄰算法的思想

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

分別計(jì)算每個(gè)電影和被預(yù)測(cè)電影的距離,然后求解

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

1.2 k近鄰算法api初步使用

機(jī)器學(xué)習(xí)流程復(fù)習(xí):

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

  • 1.獲取數(shù)據(jù)集
  • 2.數(shù)據(jù)基本處理
  • 3.特征工程
  • 4.機(jī)器學(xué)習(xí)
  • 5.模型評(píng)估

1 Scikit-learn工具介紹

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

  • Python語(yǔ)言的機(jī)器學(xué)習(xí)工具
  • Scikit-learn包括許多知名的機(jī)器學(xué)習(xí)算法的實(shí)現(xiàn)
  • Scikit-learn文檔完善,容易上手,豐富的API
  • 目前穩(wěn)定版本0.19.1

1.1 安裝

pip3 install scikit-learn==0.19.1

安裝好之后可以通過(guò)以下命令查看是否安裝成功

import sklearn
  • 注:安裝scikit-learn需要Numpy, Scipy等庫(kù)

1.2 Scikit-learn包含的內(nèi)容

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

  • 分類、聚類、回歸
  • 特征工程
  • 模型選擇、調(diào)優(yōu)

2 K-近鄰算法API

  • sklearn.neighbors.KNeighborsClassifier(n_neighbors=5)

    • n_neighbors:int,可選(默認(rèn)= 5),k_neighbors查詢默認(rèn)使用的鄰居數(shù)

3 案例

3.1 步驟分析

  • 1.獲取數(shù)據(jù)集
  • 2.數(shù)據(jù)基本處理(該案例中省略)
  • 3.特征工程(該案例中省略)
  • 4.機(jī)器學(xué)習(xí)
  • 5.模型評(píng)估(該案例中省略)

3.2 代碼過(guò)程

  • 導(dǎo)入模塊
from sklearn.neighbors import KNeighborsClassifier
  • 構(gòu)造數(shù)據(jù)集
x = [[0], [1], [2], [3]]
y = [0, 0, 1, 1]
  • 機(jī)器學(xué)習(xí) -- 模型訓(xùn)練
  
  
# 實(shí)例化API
  
  
estimator = KNeighborsClassifier(n_neighbors=2)
  
  
# 使用fit方法進(jìn)行訓(xùn)練
  
  
estimator.fit(x, y)

estimator.predict([[1]])

4 小結(jié)

  • 最近鄰 (k-Nearest Neighbors,KNN) 算法是一種分類算法,

  • 1968年由 Cover 和 Hart 提出,應(yīng)用場(chǎng)景有字符識(shí)別、文本分類、圖像識(shí)別等領(lǐng)域。

  • 該算法的思想是:一個(gè)樣本與數(shù)據(jù)集中的k個(gè)樣本最相似,如果這k個(gè)樣本中的大多數(shù)屬于某一個(gè)類別.

  • 實(shí)現(xiàn)流程

1)計(jì)算已知類別數(shù)據(jù)集中的點(diǎn)與當(dāng)前點(diǎn)之間的距離

2)按距離遞增次序排序

3)選取與當(dāng)前點(diǎn)距離最小的k個(gè)點(diǎn)

4)統(tǒng)計(jì)前k個(gè)點(diǎn)所在的類別出現(xiàn)的頻率

5)返回前k個(gè)點(diǎn)出現(xiàn)頻率最高的類別作為當(dāng)前點(diǎn)的預(yù)測(cè)分類

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

  • 問(wèn)題

1.距離公式,除了歐式距離,還有哪些距離公式可以使用?

2.選取K值的大???

3.api中其他參數(shù)的具體含義?

K-近鄰算法

學(xué)習(xí)目標(biāo)

  • 掌握K-近鄰算法實(shí)現(xiàn)過(guò)程
  • 知道K-近鄰算法的距離公式
  • 知道K-近鄰算法的超參數(shù)K值以及取值問(wèn)題
  • 知道kd樹實(shí)現(xiàn)搜索的過(guò)程
  • 應(yīng)用KNeighborsClassifier實(shí)現(xiàn)分類
  • 知道K-近鄰算法的優(yōu)缺點(diǎn)
  • 知道交叉驗(yàn)證實(shí)現(xiàn)過(guò)程
  • 知道超參數(shù)搜索過(guò)程
  • 應(yīng)用GridSearchCV實(shí)現(xiàn)算法參數(shù)的調(diào)優(yōu)

1.3 距離度量

1 歐式距離(Euclidean Distance):

歐氏距離是最容易直觀理解的距離度量方法,我們小學(xué)、初中和高中接觸到的兩個(gè)點(diǎn)在空間中的距離一般都是指歐氏距離。

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

舉例:

X=[[1,1],[2,2],[3,3],[4,4]];
經(jīng)計(jì)算得:
d = 1.4142    2.8284    4.2426    1.4142    2.8284    1.4142

2 曼哈頓距離(Manhattan Distance):

在曼哈頓街區(qū)要從一個(gè)十字路口開車到另一個(gè)十字路口,駕駛距離顯然不是兩點(diǎn)間的直線距離。這個(gè)實(shí)際駕駛距離就是“曼哈頓距離”。曼哈頓距離也稱為“城市街區(qū)距離”(City Block distance)。

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

舉例:

X=[[1,1],[2,2],[3,3],[4,4]];
經(jīng)計(jì)算得:
d =   2     4     6     2     4     2

3 切比雪夫距離 (Chebyshev Distance):

國(guó)際象棋中,國(guó)王可以直行、橫行、斜行,所以國(guó)王走一步可以移動(dòng)到相鄰8個(gè)方格中的任意一個(gè)。國(guó)王從格子(x1,y1)走到格子(x2,y2)最少需要多少步?這個(gè)距離就叫切比雪夫距離。

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

舉例:

X=[[1,1],[2,2],[3,3],[4,4]];
經(jīng)計(jì)算得:
d =   1     2     3     1     2     1

4 閔可夫斯基距離(Minkowski Distance):

閔氏距離不是一種距離,而是一組距離的定義,是對(duì)多個(gè)距離度量公式的概括性的表述。

兩個(gè)n維變量a(x11,x12,…,x1n)與b(x21,x22,…,x2n)間的閔可夫斯基距離定義為:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

其中p是一個(gè)變參數(shù):

當(dāng)p=1時(shí),就是曼哈頓距離;

當(dāng)p=2時(shí),就是歐氏距離;

當(dāng)p→∞時(shí),就是切比雪夫距離。

根據(jù)p的不同,閔氏距離可以表示某一類/種的距離。

小結(jié):

1 閔氏距離,包括曼哈頓距離、歐氏距離和切比雪夫距離都存在明顯的缺點(diǎn):

e.g. 二維樣本(身高[單位:cm],體重[單位:kg]),現(xiàn)有三個(gè)樣本:a(180,50),b(190,50),c(180,60)。

a與b的閔氏距離(無(wú)論是曼哈頓距離、歐氏距離或切比雪夫距離)等于a與c的閔氏距離。但實(shí)際上身高的10cm并不能和體重的10kg劃等號(hào)。

2 閔氏距離的缺點(diǎn):

? (1)將各個(gè)分量的量綱(scale),也就是“單位”相同的看待了;

? (2)未考慮各個(gè)分量的分布(期望,方差等)可能是不同的。


5 標(biāo)準(zhǔn)化歐氏距離 (Standardized EuclideanDistance):

標(biāo)準(zhǔn)化歐氏距離是針對(duì)歐氏距離的缺點(diǎn)而作的一種改進(jìn)。

思路:既然數(shù)據(jù)各維分量的分布不一樣,那先將各個(gè)分量都“標(biāo)準(zhǔn)化”到均值、方差相等。假設(shè)樣本集X的均值(mean)為m,標(biāo)準(zhǔn)差(standard deviation)為s,X的“標(biāo)準(zhǔn)化變量”表示為:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

如果將方差的倒數(shù)看成一個(gè)權(quán)重,也可稱之為加權(quán)歐氏距離(Weighted Euclidean distance)。

舉例:

X=[[1,1],[2,2],[3,3],[4,4]];(假設(shè)兩個(gè)分量的標(biāo)準(zhǔn)差分別為0.5和1)
經(jīng)計(jì)算得:
d =   2.2361    4.4721    6.7082    2.2361    4.4721    2.2361

6 余弦距離(Cosine Distance)

幾何中,夾角余弦可用來(lái)衡量?jī)蓚€(gè)向量方向的差異;機(jī)器學(xué)習(xí)中,借用這一概念來(lái)衡量樣本向量之間的差異。

  • 二維空間中向量A(x1,y1)與向量B(x2,y2)的夾角余弦公式:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

  • 兩個(gè)n維樣本點(diǎn)a(x11,x12,…,x1n)和b(x21,x22,…,x2n)的夾角余弦為:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

即:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

夾角余弦取值范圍為[-1,1]。余弦越大表示兩個(gè)向量的夾角越小,余弦越小表示兩向量的夾角越大。當(dāng)兩個(gè)向量的方向重合時(shí)余弦取最大值1,當(dāng)兩個(gè)向量的方向完全相反余弦取最小值-1。

舉例:

X=[[1,1],[1,2],[2,5],[1,-4]]
經(jīng)計(jì)算得:
d =   0.9487    0.9191   -0.5145    0.9965   -0.7593   -0.8107

7 漢明距離(Hamming Distance)【了解】:

兩個(gè)等長(zhǎng)字符串s1與s2的漢明距離為:將其中一個(gè)變?yōu)榱硗庖粋€(gè)所需要作的最小字符替換次數(shù)。

例如:

The Hamming distance between "1011101" and "1001001" is 2. 
  The Hamming distance between "2143896" and "2233796" is 3. 
  The Hamming distance between "toned" and "roses" is 3.

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

隨堂練習(xí):
求下列字符串的漢明距離:

  1011101與 1001001  

  2143896與 2233796 
 
  irie與 rise

漢明重量:是字符串相對(duì)于同樣長(zhǎng)度的零字符串的漢明距離,也就是說(shuō),它是字符串中非零的元素個(gè)數(shù):對(duì)于二進(jìn)制字符串來(lái)說(shuō),就是 1 的個(gè)數(shù),所以 11101 的漢明重量是 4。因此,如果向量空間中的元素a和b之間的漢明距離等于它們漢明重量的差a-b。

應(yīng)用:漢明重量分析在包括信息論、編碼理論、密碼學(xué)等領(lǐng)域都有應(yīng)用。比如在信息編碼過(guò)程中,為了增強(qiáng)容錯(cuò)性,應(yīng)使得編碼間的最小漢明距離盡可能大。但是,如果要比較兩個(gè)不同長(zhǎng)度的字符串,不僅要進(jìn)行替換,而且要進(jìn)行插入與刪除的運(yùn)算,在這種場(chǎng)合下,通常使用更加復(fù)雜的編輯距離等算法。

舉例:

X=[[0,1,1],[1,1,2],[1,5,2]]
注:以下計(jì)算方式中,把2個(gè)向量之間的漢明距離定義為2個(gè)向量不同的分量所占的百分比。

經(jīng)計(jì)算得:
d =   0.6667    1.0000    0.3333

8 杰卡德距離(Jaccard Distance)【了解】:

杰卡德相似系數(shù)(Jaccard similarity coefficient):兩個(gè)集合A和B的交集元素在A,B的并集中所占的比例,稱為兩個(gè)集合的杰卡德相似系數(shù),用符號(hào)J(A,B)表示:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

杰卡德距離(Jaccard Distance):與杰卡德相似系數(shù)相反,用兩個(gè)集合中不同元素占所有元素的比例來(lái)衡量?jī)蓚€(gè)集合的區(qū)分度:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

舉例:

X=[[1,1,0][1,-1,0],[-1,1,0]]
注:以下計(jì)算中,把杰卡德距離定義為不同的維度的個(gè)數(shù)占“非全零維度”的比例
經(jīng)計(jì)算得:
d =   0.5000    0.5000    1.0000

9 馬氏距離(Mahalanobis Distance)【了解】

下圖有兩個(gè)正態(tài)分布圖,它們的均值分別為a和b,但方差不一樣,則圖中的A點(diǎn)離哪個(gè)總體更近?或者說(shuō)A有更大的概率屬于誰(shuí)?顯然,A離左邊的更近,A屬于左邊總體的概率更大,盡管A與a的歐式距離遠(yuǎn)一些。這就是馬氏距離的直觀解釋。

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

馬氏距離是基于樣本分布的一種距離。

馬氏距離是由印度統(tǒng)計(jì)學(xué)家馬哈拉諾比斯提出的,表示數(shù)據(jù)的協(xié)方差距離。它是一種有效的計(jì)算兩個(gè)位置樣本集的相似度的方法。

與歐式距離不同的是,它考慮到各種特性之間的聯(lián)系,即獨(dú)立于測(cè)量尺度。

馬氏距離定義:設(shè)總體G為m維總體(考察m個(gè)指標(biāo)),均值向量為μ=(μ1,μ2,… ...,μm,)`,協(xié)方差陣為∑=(σij),

則樣本X=(X1,X2,… …,Xm,)`與總體G的馬氏距離定義為:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

馬氏距離也可以定義為兩個(gè)服從同一分布并且其協(xié)方差矩陣為∑的隨機(jī)變量的差異程度:如果協(xié)方差矩陣為單位矩陣,馬氏距離就簡(jiǎn)化為歐式距離;如果協(xié)方差矩陣為對(duì)角矩陣,則其也可稱為正規(guī)化的歐式距離。

馬氏距離特性:

1.量綱無(wú)關(guān),排除變量之間的相關(guān)性的干擾;

2.馬氏距離的計(jì)算是建立在總體樣本的基礎(chǔ)上的,如果拿同樣的兩個(gè)樣本,放入兩個(gè)不同的總體中,最后計(jì)算得出的兩個(gè)樣本間的馬氏距離通常是不相同的,除非這兩個(gè)總體的協(xié)方差矩陣碰巧相同;

3 .計(jì)算馬氏距離過(guò)程中,要求總體樣本數(shù)大于樣本的維數(shù),否則得到的總體樣本協(xié)方差矩陣逆矩陣不存在,這種情況下,用歐式距離計(jì)算即可。

4.還有一種情況,滿足了條件總體樣本數(shù)大于樣本的維數(shù),但是協(xié)方差矩陣的逆矩陣仍然不存在,比如三個(gè)樣本點(diǎn)(3,4),(5,6),(7,8),這種情況是因?yàn)檫@三個(gè)樣本在其所處的二維空間平面內(nèi)共線。這種情況下,也采用歐式距離計(jì)算。

歐式距離&馬氏距離:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

舉例:

已知有兩個(gè)類G1和G2,比如G1是設(shè)備A生產(chǎn)的產(chǎn)品,G2是設(shè)備B生產(chǎn)的同類產(chǎn)品。設(shè)備A的產(chǎn)品質(zhì)量高(如考察指標(biāo)為耐磨度X),其平均耐磨度μ1=80,反映設(shè)備精度的方差σ2(1)=0.25;設(shè)備B的產(chǎn)品質(zhì)量稍差,其平均耐磨損度μ2=75,反映設(shè)備精度的方差σ2(2)=4.

今有一產(chǎn)品G0,測(cè)的耐磨損度X0=78,試判斷該產(chǎn)品是哪一臺(tái)設(shè)備生產(chǎn)的?

直觀地看,X0與μ1(設(shè)備A)的絕對(duì)距離近些,按距離最近的原則,是否應(yīng)把該產(chǎn)品判斷設(shè)備A生產(chǎn)的?

考慮一種相對(duì)于分散性的距離,記X0與G1,G2的相對(duì)距離為d1,d2,則:

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】

因?yàn)閐2=1.5 < d1=4,按這種距離準(zhǔn)則,應(yīng)判斷X0為設(shè)備B生產(chǎn)的。

設(shè)備B生產(chǎn)的產(chǎn)品質(zhì)量較分散,出現(xiàn)X0為78的可能性較大;而設(shè)備A生產(chǎn)的產(chǎn)品質(zhì)量較集中,出現(xiàn)X0為78的可能性較小。

這種相對(duì)于分散性的距離判斷就是馬氏距離。

【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-838578.html

未完待續(xù), 同學(xué)們請(qǐng)等待下一期

全套筆記資料代碼移步: 前往gitee倉(cāng)庫(kù)查看

感興趣的小伙伴可以自取哦,歡迎大家點(diǎn)贊轉(zhuǎn)發(fā)~

到了這里,關(guān)于【機(jī)器學(xué)習(xí)】機(jī)器學(xué)習(xí)創(chuàng)建算法第1篇:機(jī)器學(xué)習(xí)算法課程定位、目標(biāo)【附代碼文檔】的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包