国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器學(xué)習(xí)之支持向量機(jī)(SVM)對乳腺癌數(shù)據(jù)二分類python實(shí)現(xiàn)

這篇具有很好參考價值的文章主要介紹了機(jī)器學(xué)習(xí)之支持向量機(jī)(SVM)對乳腺癌數(shù)據(jù)二分類python實(shí)現(xiàn)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1. 概述

支持向量機(jī)(Support Vector Machines)是一種二分類模型,它的目的是尋找一個超平面來對樣本進(jìn)行分割,分割的原則是間隔最大化,最終轉(zhuǎn)化為一個凸二次規(guī)劃問題來求解。

間隔最大化,就是所有樣本點(diǎn)中,離我們分類界限超平面最近的樣本點(diǎn),盡可能的遠(yuǎn)離超平面。這種思想在于,不關(guān)心遠(yuǎn)離超平面的樣本點(diǎn),即分類很明確的樣本,不作考慮,更關(guān)心離超平面近的樣本點(diǎn)。這些離超平面較近的點(diǎn)對超平面的位置有著至關(guān)重要的影響,抓住這個主要矛盾來分析問題。從個體與整體的角度來看,當(dāng)兩邊的離超平面較近的樣本點(diǎn)都里超平面足夠遠(yuǎn)時,那么其余的樣本點(diǎn)也離超平面足夠遠(yuǎn)。這時,滿足間隔最大化的超平面,泛化能力最好。

2. 標(biāo)題數(shù)學(xué)推導(dǎo)

所謂支持向量機(jī),就是通過計(jì)算支持向量的最大間隔來確定唯一且泛化能力最好的超平面。

2.1 函數(shù)間隔

在分離超平面固定為 w T x + b = 0 w^Tx+b=0 wTx+b=0的時候, ∣ w T x + b ∣ |w^Tx+b| wTx+b表示點(diǎn) x x x到超平面的相對距離。通過觀察 w T x + b w^Tx+b wTx+b y y y是否同號,我們判斷分類是否正確。這里我們引入函數(shù)間隔的概念,這個函數(shù)間隔就是我們樣本的確信度,定義函數(shù)間隔 γ ′ \gamma^{\prime} γ為:
γ ′ = y ( w T x + b ) \gamma^{\prime}=y(w^Tx+b) γ=y(wTx+b)

2.2 幾何間隔

函數(shù)間隔并不能正常反應(yīng)點(diǎn)到超平面的距離,當(dāng)分子成比例的增長時,分母也是成倍增長。為了統(tǒng)一度量,我們需要對法向量 w w w加上約束條件,這樣我們就得到了幾何間隔 γ \gamma γ ,這個幾何間隔在二維空間的理解,就是點(diǎn)到線的距離,幾何間隔定義為:
γ = y ( w T x + b ) ∣ ∣ w ∣ ∣ 2 = γ ′ ∣ ∣ w ∣ ∣ 2 \gamma=\frac{y(w^Tx+b)}{||w||_2}=\frac{ \gamma^{\prime}}{||w||_2} γ=∣∣w2?y(wTx+b)?=∣∣w2?γ?

2.3 支持向量機(jī)

分離超平面為 w T x + b = 0 w^Tx+b=0 wTx+b=0 ,如果所有的樣本不光可以被超平面分開,還和超平面保持一定的函數(shù)距離。和超平面平行的保持一定的函數(shù)距離的這兩個超平面對應(yīng)的向量,我們定義為支持向量。

3 原理

3.1 硬間隔最大化

SVM的模型是讓所有點(diǎn)到超平面的距離大于一定的距離,也就是所有的分類點(diǎn)要在各自類別的支持向量兩邊。用數(shù)學(xué)式子表示為:
max ? γ = y ( ω T x + b ) ∥ ω ∥ 2 ? ?s.t.? ? y i ( ω T x i + b ) = γ ′ ( i ) ≥ γ ′ ( i = 1 , 2 … , m ) \max \gamma=\frac{y\left(\omega^{T} x+b\right)}{\|\omega\|_{2}} \cdots \text { s.t. } \cdot y_{i}\left(\omega^{T} x_{i}+b\right)=\gamma^{\prime(i)} \geq \gamma^{\prime}(i=1,2 \ldots, m) maxγ=ω2?y(ωTx+b)???s.t.??yi?(ωTxi?+b)=γ(i)γ(i=1,2,m)
m m m為訓(xùn)練數(shù)據(jù)集中樣本個數(shù)。
經(jīng)推到,得到SVM優(yōu)化函數(shù):
min ? 1 2 ∥ ω ∥ 2 2 ? ?s.t.? ? y i ( ω T x i + b ) ≥ 1 ( i = 1 , 2 , … , m ) \min \frac{1}{2}\|\omega\|_{2}^{2} \cdot \text { s.t. } \cdot y_{i}\left(\omega^{T} x_{i}+b\right) \geq 1(i=1,2, \ldots, m) min21?ω22???s.t.??yi?(ωTxi?+b)1(i=1,2,,m)
由拉格朗日乘子法推導(dǎo),得到最終約束優(yōu)化函數(shù):
min ? 1 2 ∑ i = 1 m ∑ j = 1 m α i α j y i y j x i T x j ? ∑ i = 1 m α i \min \frac{1}{2} \sum_{i=1}^{m} \sum_{j=1}^{m} \alpha_{i} \alpha_{j} y_{i} y_{j} x_{i}^{T} x_{j}-\sum_{i=1}^{m} \alpha_{i} min21?i=1m?j=1m?αi?αj?yi?yj?xiT?xj??i=1m?αi? ?s.t.? ∑ i = 1 m α i y i = 0 \text { s.t. } \sum_{i=1}^{m} \alpha_{i} y_{i}=0 ?s.t.?i=1m?αi?yi?=0 α i ≥ 0 , i = 1 , 2 , … , m \alpha_{i} \geq 0, i=1,2, \ldots, m αi?0,i=1,2,,m
由序列最小化(sequential minimal optimization,SMO)算法求解 ,并求解法向量 w w w和偏置 b b b。由此得到最終分類超平面 w ? x + b ? = 0 w^{*} x+b^{*}=0 w?x+b?=0和決策函數(shù) f ( x ) = s i g n ( w ? x + b ? = 0 ) f(x)=sign(w^{*} x+b^{*}=0) f(x)=sign(w?x+b?=0)。

3.2 軟間隔最大化

與硬間隔最大化不同的是,軟間隔最大化允許某些樣本不滿足約束條件,即SVM對訓(xùn)練集里面的每個樣本 ( x i , y i ) (x_{i},y_{i}) (xi?,yi?)引入了一個松弛變量 ξ i ≥ 0 \xi_{i} \geq 0 ξi?0 ,使函數(shù)間隔加上松弛變量大于等于1。得到軟間隔最大化SVM優(yōu)化函數(shù):
min ? 1 2 ∥ ω ∥ 2 2 + C ∑ i = 1 m ξ i \min \frac{1}{2}\|\omega\|_{2}^{2}+C \sum_{i=1}^{m} \xi_{i} min21?ω22?+Ci=1m?ξi? ?s.t.? y i ( ω T x i + b ) ≥ 1 ? ξ i ( i = 1 , 2 , … , m ) \text { s.t. } y_{i}\left(\omega^{T} x_{i}+b\right) \geq 1-\xi_{i}(i=1,2, \ldots, m) ?s.t.?yi?(ωTxi?+b)1?ξi?(i=1,2,,m) ξ i ≥ 0 ( i = 1 , 2 , … , m ) \xi_{i} \geq 0(i=1,2, \ldots, m) ξi?0(i=1,2,,m)
這里,C>0為懲罰參數(shù),可以理解為我們一般回歸和分類問題正則化時候的參數(shù)。C越大,對誤分類的懲罰越大,C越小,對誤分類的懲罰越小。

3.3 核函數(shù)

存在線性不可分的樣本,將樣本從原始空間映射到一個更高維的特征空間,使得樣本這個特征空間內(nèi)線性可分。再通過間隔最大化的方式得到SVM,成為非線性SVM。
令φ(x)表示將x映射后的特征向量,在特征空間中劃分超平面所對應(yīng)的模型可表示為:
min ? 1 2 ∑ i = 1 , j = 1 m α i α j y i y j ? ( x i ) T ? ( x j ) ? ∑ i = 1 m α i \min \frac{1}{2} \sum_{i=1, j=1}^{m} \alpha_{i} \alpha_{j} y_{i} y_{j} \phi\left(x_{i}\right)^{T} \phi\left(x_{j}\right)-\sum_{i=1}^{m} \alpha_{i} min21?i=1,j=1m?αi?αj?yi?yj??(xi?)T?(xj?)?i=1m?αi?
在高維空間直接計(jì)算 ? ( x i ) T ? ( x j ) \phi\left(x_{i}\right)^{T} \phi\left(x_{j}\right) ?(xi?)T?(xj?)通常是困難的,為了避開這個障礙,設(shè)想一個函數(shù):
K ( x i , x j ) = ? ? ( x i ) , ? ( x j ) ? = ? ( x i ) T ? ( x j ) K\left(x_{i}, x_{j}\right)=\left\langle\phi\left(x_{i}\right), \phi\left(x_{j}\right)\right\rangle=\phi\left(x_{i}\right)^{T} \phi\left(x_{j}\right) K(xi?,xj?)=??(xi?),?(xj?)?=?(xi?)T?(xj?)
函數(shù) K ( x i , x j ) K\left(x_{i}, x_{j}\right) K(xi?,xj?)就是核函數(shù)。

4. python實(shí)現(xiàn)

采用breast cancer二分類數(shù)據(jù)集,在sklearn庫中調(diào)用svc函數(shù)svm分類??梢钥闯鰏vm測試準(zhǔn)確率優(yōu)于感知機(jī)。

# -*- coding: utf-8 -*-
"""
Created on Tue Nov 10 22:15:53 2020

@author: HP
"""
'''
breast cancer data ----   569
data = 9個屬性
target = 陰性----0,陽性-----1
'''
# 導(dǎo)入基本庫
from sklearn.svm import SVC
from sklearn.linear_model import Perceptron
from sklearn import datasets
from sklearn.model_selection import train_test_split

#導(dǎo)入乳腺癌數(shù)據(jù)集
cancer = datasets.load_breast_cancer()
cancer_X = cancer.data#得到乳腺癌樣本集
cancer_y = cancer.target#得到乳腺癌標(biāo)簽集
X_train,X_test,y_train, y_test=train_test_split(
    cancer_X,cancer_y,test_size=0.2)#按照比例劃分?jǐn)?shù)據(jù)集為訓(xùn)練集與測試集

# 創(chuàng)建一個SVM分類器并進(jìn)行預(yù)測
clf = SVC(kernel='linear', C=1)#創(chuàng)建SVM訓(xùn)練模型
clf.fit(X_train,y_train)#對訓(xùn)練集數(shù)據(jù)進(jìn)行訓(xùn)練
clf_y_predict=clf.predict(X_test)#通過測試數(shù)據(jù),得到測試標(biāo)簽
scores = clf.score(X_test,y_test)#測試結(jié)果打分

#創(chuàng)建一個感知機(jī)分類器并進(jìn)行預(yù)測
clf1 = Perceptron()#創(chuàng)建感知機(jī)訓(xùn)練模型
clf1.fit(X_train,y_train)#隊(duì)訓(xùn)練集數(shù)據(jù)進(jìn)行訓(xùn)練
clf1_y_predict=clf1.predict(X_test)#通過測試集數(shù)據(jù),得到測試標(biāo)簽
scores1 = clf1.score(X_test,y_test)#測試結(jié)果打分

#打印
print('SVM準(zhǔn)確率:',scores)
print('感知機(jī)準(zhǔn)確率:',scores1)

運(yùn)行結(jié)果
機(jī)器學(xué)習(xí)之支持向量機(jī)(SVM)對乳腺癌數(shù)據(jù)二分類python實(shí)現(xiàn)文章來源地址http://www.zghlxwxcb.cn/news/detail-438140.html

到了這里,關(guān)于機(jī)器學(xué)習(xí)之支持向量機(jī)(SVM)對乳腺癌數(shù)據(jù)二分類python實(shí)現(xiàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 基于邏輯回歸實(shí)現(xiàn)乳腺癌預(yù)測(機(jī)械學(xué)習(xí)與大數(shù)據(jù))

    基于邏輯回歸實(shí)現(xiàn)乳腺癌預(yù)測(機(jī)械學(xué)習(xí)與大數(shù)據(jù))

    將乳腺癌數(shù)據(jù)集拆分成訓(xùn)練集和測試集,搭建一個邏輯回歸模型,對訓(xùn)練集進(jìn)行訓(xùn)練,然后分別對訓(xùn)練集和測試集進(jìn)行預(yù)測。輸出以下結(jié)果: 該模型在訓(xùn)練集上的準(zhǔn)確率,在測試集上的準(zhǔn)確率、召回率和精確率。

    2024年03月11日
    瀏覽(27)
  • 大數(shù)據(jù)分析案例-基于LightGBM算法構(gòu)建乳腺癌分類預(yù)測模型

    大數(shù)據(jù)分析案例-基于LightGBM算法構(gòu)建乳腺癌分類預(yù)測模型

    ???♂? 個人主頁:@艾派森的個人主頁 ???作者簡介:Python學(xué)習(xí)者 ?? 希望大家多多支持,我們一起進(jìn)步!?? 如果文章對你有幫助的話, 歡迎評論 ??點(diǎn)贊???? 收藏 ??加關(guān)注+ 喜歡大數(shù)據(jù)分析項(xiàng)目的小伙伴,希望可以多多支持該系列的其他文章 大數(shù)據(jù)分析案例合集

    2024年02月16日
    瀏覽(24)
  • 機(jī)器學(xué)習(xí)之支持向量機(jī)(SVM)

    機(jī)器學(xué)習(xí)之支持向量機(jī)(SVM)

    支持向量機(jī)(support vector machine,SVM)是有監(jiān)督學(xué)習(xí)中最有影響力的機(jī)器學(xué)習(xí)算法之一,該算法的誕生可追溯至上世紀(jì) 60 年代, 前蘇聯(lián)學(xué)者 Vapnik 在解決模式識別問題時提出這種算法模型,此后經(jīng)過幾十年的發(fā)展直至 1995 年, SVM 算法才真正的完善起來,其典型應(yīng)用是解決手寫

    2024年02月12日
    瀏覽(25)
  • 機(jī)器學(xué)習(xí)之SVM支持向量機(jī)

    機(jī)器學(xué)習(xí)之SVM支持向量機(jī)

    目錄 經(jīng)典SVM 軟間隔SVM 核SVM SVM分類器應(yīng)用于人臉識別 SVM優(yōu)點(diǎn) SVM缺點(diǎn)? 支持向量機(jī)(Support Vector Machine,SVM)是一種二分類模型,其基本思想是在特征空間中找到一個最優(yōu)的超平面,使得正負(fù)樣本點(diǎn)到該超平面的距離最大化,從而實(shí)現(xiàn)對樣本的分類。 經(jīng)典SVM為二分類模型,對

    2024年02月11日
    瀏覽(21)
  • 乳腺癌CT影像數(shù)據(jù)的深度學(xué)習(xí):R語言與ANN神經(jīng)網(wǎng)絡(luò)構(gòu)建高性能分類診斷模型

    乳腺癌是全球最常見的女性惡性腫瘤之一,也影響著男性的健康。據(jù)統(tǒng)計(jì),每年有數(shù)百萬人被診斷出患有乳腺癌[1]。乳腺癌的早期檢測和準(zhǔn)確診斷對于治療和預(yù)后至關(guān)重要。然而,乳腺癌的早期診斷面臨許多挑戰(zhàn),如圖像解讀的主觀性和復(fù)雜性,以及差異化的病理特征[2]。因

    2024年02月14日
    瀏覽(27)
  • 計(jì)算機(jī)競賽 深度學(xué)習(xí)乳腺癌分類

    計(jì)算機(jī)競賽 深度學(xué)習(xí)乳腺癌分類

    ?? 優(yōu)質(zhì)競賽項(xiàng)目系列,今天要分享的是 ?? 深度學(xué)習(xí)乳腺癌分類 該項(xiàng)目較為新穎,適合作為競賽課題方向,學(xué)長非常推薦! ??學(xué)長這里給一個題目綜合評分(每項(xiàng)滿分5分) 難度系數(shù):3分 工作量:3分 創(chuàng)新點(diǎn):4分 ?? 更多資料, 項(xiàng)目分享: https://gitee.com/dancheng-senior/postgradu

    2024年02月07日
    瀏覽(31)
  • 計(jì)算機(jī)設(shè)計(jì)大賽 深度學(xué)習(xí)乳腺癌分類

    計(jì)算機(jī)設(shè)計(jì)大賽 深度學(xué)習(xí)乳腺癌分類

    ?? 優(yōu)質(zhì)競賽項(xiàng)目系列,今天要分享的是 ?? 深度學(xué)習(xí)乳腺癌分類 該項(xiàng)目較為新穎,適合作為競賽課題方向,學(xué)長非常推薦! ??學(xué)長這里給一個題目綜合評分(每項(xiàng)滿分5分) 難度系數(shù):3分 工作量:3分 創(chuàng)新點(diǎn):4分 ?? 更多資料, 項(xiàng)目分享: https://gitee.com/dancheng-senior/postgradu

    2024年02月19日
    瀏覽(96)
  • Python | 機(jī)器學(xué)習(xí)之SVM支持向量機(jī)

    Python | 機(jī)器學(xué)習(xí)之SVM支持向量機(jī)

    ?????? ? ??個人主頁: Sarapines Programmer ?? 系列專欄: 《人工智能奇遇記》 ??墨香寄清辭:詩馀墨痕深,夢漫星辰寂。 曲徑通幽意猶在,劍指蒼穹氣勢立。 目錄結(jié)構(gòu) 1. 機(jī)器學(xué)習(xí)之SVM支持向量機(jī)概念 1.1 機(jī)器學(xué)習(xí) 1.2 SVM支持向量機(jī) 2. SVM支持向量機(jī)算法 2.1 實(shí)驗(yàn)?zāi)康?/p>

    2024年02月05日
    瀏覽(21)
  • 【PyTorch】第六節(jié):乳腺癌的預(yù)測(二分類問題)

    【PyTorch】第六節(jié):乳腺癌的預(yù)測(二分類問題)

    作者 ????♂?:讓機(jī)器理解語言か 專欄 ??:PyTorch 描述 ??:PyTorch 是一個基于 Torch 的 Python 開源機(jī)器學(xué)習(xí)庫。 寄語 ??:??沒有白走的路,每一步都算數(shù)!??? ????????上一個實(shí)驗(yàn)我們講解了線性問題的求解步驟,本實(shí)驗(yàn)我們以乳腺癌的預(yù)測為實(shí)例,詳細(xì)的闡述如

    2023年04月16日
    瀏覽(32)
  • 基于決策樹(Decision Tree)的乳腺癌診斷

    基于決策樹(Decision Tree)的乳腺癌診斷

    ????????決策樹(DecisionTree)學(xué)習(xí)是以實(shí)例為基礎(chǔ)的歸納學(xué)習(xí)算法。算法從--組無序、無規(guī)則的事例中推理出決策樹表示形式的分類規(guī)則,決策樹也能表示為多個If-Then規(guī)則。一般在決策樹中采用“自頂向下、分而治之”的遞歸方式,將搜索空間分為若千個互不相交的子集,在決策

    2024年02月12日
    瀏覽(31)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包