国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機器學(xué)習(xí)之SVM支持向量機

這篇具有很好參考價值的文章主要介紹了機器學(xué)習(xí)之SVM支持向量機。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

經(jīng)典SVM

軟間隔SVM

核SVM

SVM分類器應(yīng)用于人臉識別

SVM優(yōu)點

SVM缺點?


經(jīng)典SVM

支持向量機(Support Vector Machine,SVM)是一種二分類模型,其基本思想是在特征空間中找到一個最優(yōu)的超平面,使得正負(fù)樣本點到該超平面的距離最大化,從而實現(xiàn)對樣本的分類。

機器學(xué)習(xí)之SVM支持向量機

機器學(xué)習(xí)之SVM支持向量機

機器學(xué)習(xí)之SVM支持向量機

軟間隔SVM

機器學(xué)習(xí)之SVM支持向量機

機器學(xué)習(xí)之SVM支持向量機

核SVM

機器學(xué)習(xí)之SVM支持向量機

機器學(xué)習(xí)之SVM支持向量機

SVM分類器應(yīng)用于人臉識別

經(jīng)典SVM為二分類模型,對于多分類模型,可以通過以下兩種方法實現(xiàn):

①One-vs-One(OVO):將每個類別之間的所有可能組合都訓(xùn)練一個二元分類器,然后通過投票或者加權(quán)投票來決定最終的分類結(jié)果。

②One-vs-All(OVA):將一個類別作為正例,其余所有類別作為負(fù)例,訓(xùn)練一個二元分類器,然后重復(fù)這個過程,直到每個類別都有一個分類器。最后通過投票或者加權(quán)投票來決定最終的分類結(jié)果。

對于人臉識別,SVM是用來分類的,我們可以使用像PCA、LDA、LPP、NPE等降維算法先進(jìn)行數(shù)據(jù)降維再分類。

機器學(xué)習(xí)之SVM支持向量機

?SVM二分類代碼,即文章開頭的圖片示例matlab代碼:

% 生成隨機數(shù)據(jù)
X = [randn(20,2)-2; randn(20,2)+2]; % 生成20個標(biāo)簽為-1的點和20個標(biāo)簽為1的點,分別在(-4,-4)和(4,4)的區(qū)域內(nèi)
Y = [-1*ones(20,1); ones(20,1)]; % 將標(biāo)簽存入列向量y中

% 擬合SVM模型
svmModel = fitcsvm(X,Y); % 擬合線性SVM模型

% 繪制決策邊界
w = svmModel.Beta; % 獲取模型的權(quán)重向量w
b = svmModel.Bias; % 獲取模型的偏置項b
a = -w(1)/w(2); % 計算決策邊界的斜率
xx = linspace(-5,5); % 生成x坐標(biāo)
yy = a*xx - b/w(2); % 計算決策邊界的y坐標(biāo)
margin = 1/sqrt(sum(w.^2)); % 計算間隔邊界的寬度
yy_down = yy - sqrt(1+a^2)*margin; % 計算下界的y坐標(biāo)
yy_up = yy + sqrt(1+a^2)*margin; % 計算上界的y坐標(biāo)

% 繪制數(shù)據(jù)點和支持向量
figure; % 創(chuàng)建新的圖形窗口
gscatter(X(:,1),X(:,2),Y,'br','x+'); % 繪制數(shù)據(jù)點,標(biāo)簽為-1的點用藍(lán)色表示,標(biāo)簽為1的點用紅色表示
hold on; % 將圖形保持在當(dāng)前狀態(tài),以便繪制其他圖形
plot(xx,yy,'k-'); % 繪制決策邊界
plot(xx,yy_down,'k--'); % 繪制間隔邊界下界
plot(xx,yy_up,'k--'); % 繪制間隔邊界上界
plot(svmModel.SupportVectors(:,1),svmModel.SupportVectors(:,2),'go','MarkerSize',10); % 繪制支持向量,用黑色圓點表示
axis([-5 5 -5 5]); % 設(shè)置坐標(biāo)軸范圍
legend('Class A','Class B','Decision boundary','Margin','Margin','Support vectors'); % 設(shè)置圖例
hold off; % 關(guān)閉當(dāng)前圖形的保持狀態(tài),以便繪制其他圖形

人臉識別多分類,使用OVO模式訓(xùn)練SVM模型,構(gòu)建標(biāo)簽矩陣后進(jìn)行模型訓(xùn)練,然后將數(shù)據(jù)寫入excel表格,我這里的代碼例子是先用PCA進(jìn)行降維的,所以寫入PCA.xlsx文件中。

halfDataNumber=pictureNumber/2;
Y=zeros(halfDataNumber,1);
for i=1:halfDataNumber
    Y(i)=floor((i-1)/testNumber)+1;
end

for dimension=5:5:160
    egienvector=egienvectors(:,1:dimension);
    trainDataTemp=egienvector'*trainData;
    testDataTemp=egienvector'*testData;
    right=0;
    model=fitcecoc(trainDataTemp',Y);
    YPredicted=predict(model,testDataTemp');
    for i=1:halfDataNumber
        if Y(i)==YPredicted(i)
            right=right+1;
        end
    end
    rate=right/halfDataNumber;
    SVMresult=[SVMresult,rate];
end

X=5:5:160;
plot(X,SVMresult);
writematrix(SVMresult,'PCA.xlsx');

SVM優(yōu)點

優(yōu)點:

  1. 高效性:SVM在處理高維度數(shù)據(jù)和樣本數(shù)量較少的情況下表現(xiàn)出色,因為它只關(guān)注支持向量,而不受非支持向量的影響。
  2. 可解釋性:SVM提供了對分類結(jié)果的良好解釋能力。支持向量可以幫助我們了解決策邊界及分類結(jié)果的原因。
  3. 魯棒性:SVM對于處理輸入空間中的噪音和異常值具有較好的魯棒性。由于它的決策函數(shù)只依賴于支持向量,所以局部的擾動并不會對整體模型產(chǎn)生很大影響。
  4. 泛化能力:SVM通過最大化間隔來選擇最優(yōu)決策邊界,從而提高了模型的泛化能力。這種特性使得SVM在處理未見過的數(shù)據(jù)時表現(xiàn)較好。

SVM缺點?

缺點:文章來源地址http://www.zghlxwxcb.cn/news/detail-502461.html

  1. 參數(shù)調(diào)優(yōu)困難:SVM中的核函數(shù)和正則化參數(shù)需要事先進(jìn)行合理設(shè)置,而且對于不同的問題,最優(yōu)的參數(shù)往往是不同的,因此調(diào)優(yōu)可能需要耗費大量的時間和計算資源。
  2. 計算復(fù)雜度高:當(dāng)樣本量很大時,SVM的計算復(fù)雜度會顯著增加,尤其是在使用非線性核函數(shù)時。這可能導(dǎo)致訓(xùn)練時間較長,并且在大規(guī)模數(shù)據(jù)集上的應(yīng)用受到限制。
  3. 對缺失數(shù)據(jù)敏感:SVM對于缺失數(shù)據(jù)較為敏感,因為它主要依賴于支持向量,如果包含缺失值的樣本成為支持向量,則可能會影響模型的性能。
  4. 難以處理多分類問題:原始的SVM算法是二分類算法,要將其擴(kuò)展到多類別問題,通常需要借助一些技巧,如一對多(One-vs-Rest)或一對一(One-vs-One)策略。

到了這里,關(guān)于機器學(xué)習(xí)之SVM支持向量機的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 機器學(xué)習(xí)之支持向量機(SVM)對乳腺癌數(shù)據(jù)二分類python實現(xiàn)

    機器學(xué)習(xí)之支持向量機(SVM)對乳腺癌數(shù)據(jù)二分類python實現(xiàn)

    支持向量機(Support Vector Machines)是一種二分類模型,它的目的是尋找一個超平面來對樣本進(jìn)行分割,分割的原則是間隔最大化,最終轉(zhuǎn)化為一個凸二次規(guī)劃問題來求解。 間隔最大化,就是所有樣本點中,離我們分類界限超平面最近的樣本點,盡可能的遠(yuǎn)離超平面。這種思想

    2024年02月03日
    瀏覽(26)
  • 支持向量機 SVM | 線性可分:軟間隔模型

    支持向量機 SVM | 線性可分:軟間隔模型

    線性可分SVM中,若想找到分類的超平面,數(shù)據(jù)必須是線性可分的;但在實際情況中,線性數(shù)據(jù)集存在少量的異常點,導(dǎo)致SVM無法對數(shù)據(jù)集線性劃分 也就是說:正常數(shù)據(jù)本身是線性可分的,但是由于存在異常點數(shù)據(jù),導(dǎo)致數(shù)據(jù)集不能夠線性可分 為了解決上述問題,我們引入軟

    2024年03月09日
    瀏覽(33)
  • 機器學(xué)習(xí)-支持向量機SVM

    機器學(xué)習(xí)-支持向量機SVM

    在本練習(xí)中,我們將使用支持向量機(SVM)來構(gòu)建垃圾郵件分類器。 我們將從一些簡單的2D數(shù)據(jù)集開始使用SVM來查看它們的工作原理。 然后,我們將對一組原始電子郵件進(jìn)行一些預(yù)處理工作,并使用SVM在處理的電子郵件上構(gòu)建分類器,以確定它們是否為垃圾郵件。 我們要做

    2024年02月12日
    瀏覽(82)
  • 機器學(xué)習(xí)——支持向量機SVM

    機器學(xué)習(xí)——支持向量機SVM

    支持向量機(SVM)是一種二類分類模型,其基本模型是在特征空間上找到最佳的分離超平面使得訓(xùn)練集上正負(fù)樣本間隔最大,間隔最大使它有別于感知機,支持向量機也可通過核技巧使它成為非線性分類器。支持向量機的學(xué)習(xí)策略是間隔最大化,可將其轉(zhuǎn)化為一個求解凸二次

    2024年01月17日
    瀏覽(26)
  • SVM(支持向量機)-機器學(xué)習(xí)

    SVM(支持向量機)-機器學(xué)習(xí)

    支持向量機(Support Vector Machine,SVM) 是一種用于分類和回歸分析的監(jiān)督學(xué)習(xí)算法 。它屬于機器學(xué)習(xí)中的一類強大而靈活的模型,廣泛應(yīng)用于模式識別、圖像分類、自然語言處理等領(lǐng)域。 基本原理: SVM的基本原理是通過找到能夠有效分隔不同類別的超平面來進(jìn)行分類。在二維

    2024年02月03日
    瀏覽(101)
  • 機器學(xué)習(xí)(六)支持向量機(SVM)

    機器學(xué)習(xí)(六)支持向量機(SVM)

    目錄 1.間隔與支持向量 1.1線性可分 1.2支持向量 1.3 最大間隔超平面 2.對偶問題 2.1拉格朗日乘子法 2.2 SMO算法 2.3SMO算法代碼實現(xiàn) 3.核函數(shù) 4.?SVM實例(手寫體數(shù)字識別) 5.實驗總結(jié) 支持向量機(SVM) 是有監(jiān)督學(xué)習(xí)中最有影響力的機器學(xué)習(xí)算法之一,一般用于解決二分類問題(

    2024年02月09日
    瀏覽(96)
  • 機器學(xué)習(xí)算法:支持向量機(SVM)

    機器學(xué)習(xí)算法:支持向量機(SVM)

    Solem《python計算機視覺編程》、李航《統(tǒng)計學(xué)習(xí)方法》、周志華《機器學(xué)習(xí)》 要理解好支持向量機需要較好的數(shù)學(xué)功底,且能不被公式以及文字繞暈,這里我們就理清楚支持向量機的大體過程。具體的數(shù)學(xué)計算推導(dǎo)其實已經(jīng)封裝好了,那么理解算法的原理也對我們將來的學(xué)習(xí)

    2024年02月03日
    瀏覽(91)
  • 【機器學(xué)習(xí)】支持向量機SVM入門

    【機器學(xué)習(xí)】支持向量機SVM入門

    相較于之前學(xué)習(xí)的線性回歸和神經(jīng)網(wǎng)絡(luò),支持向量機(Supprot Vector Machine,簡稱SVM)在擬合復(fù)雜的非線性方程的時候擁有更出色的能力,該算法也是十分經(jīng)典的算法之一。接下來我們需要學(xué)習(xí)這種算法 首先我們回顧邏輯回歸中的經(jīng)典假設(shè)函數(shù),如下圖: 對于任意一個實例 (

    2024年02月15日
    瀏覽(95)
  • 【機器學(xué)習(xí)】SVM支持向量機模型

    【機器學(xué)習(xí)】SVM支持向量機模型

    ?本站原創(chuàng)文章,轉(zhuǎn)載請說明來自 《老餅講解-機器學(xué)習(xí)》 ml.bbbdata.com 目錄 一. SVM的目標(biāo)和思想 ?? 1.1 SVM硬間隔模型的原始目的 1.2 SVM的直接目標(biāo) 1.3 什么是支持向量 ?二. SVM的支持平面的表示方式 2.1 支持面表示方式的初步思路 2.2 初步思路的缺陷與改進(jìn) 2.3 支持面的最終表示

    2023年04月23日
    瀏覽(1042)
  • 機器學(xué)習(xí):基于支持向量機(SVM)進(jìn)行人臉識別預(yù)測

    作者:i阿極 作者簡介:Python領(lǐng)域新星作者、多項比賽獲獎?wù)撸翰┲鱾€人首頁 ??????如果覺得文章不錯或能幫助到你學(xué)習(xí),可以點贊??收藏??評論??+關(guān)注哦!?????? ??????如果有小伙伴需要數(shù)據(jù)集和學(xué)習(xí)交流,文章下方有交流學(xué)習(xí)區(qū)!一起學(xué)習(xí)進(jìn)步!?? 專欄案例:

    2024年01月23日
    瀏覽(101)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包