国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯

這篇具有很好參考價(jià)值的文章主要介紹了機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

機(jī)器學(xué)習(xí)算法系列之 – 樸素貝葉斯

樸素貝葉斯法是基于概率統(tǒng)計(jì),特征條件獨(dú)立假設(shè)的分類(lèi)方法,是一種非常常用的機(jī)器學(xué)習(xí)算法;通常用于處理文本分類(lèi)和情感分析等自然語(yǔ)言處理任務(wù)中。相對(duì)于其他復(fù)雜的模型,樸素貝葉斯算法具有簡(jiǎn)單、易于實(shí)現(xiàn)、高效和良好的準(zhǔn)確性等特點(diǎn)。

算法基礎(chǔ)

概率論基礎(chǔ)

條件概率

事件B已經(jīng)發(fā)生的條件下,事件A發(fā)生的概率,稱(chēng)為事件A在給定事件B的條件概率,表示為P(A|B)
P ( A ∣ B ) = P ( A ∣ B ) P ( B ) P(A|B)= \frac{P(A|B)}{P(B)} PAB=P(B)P(AB)?
其中,P(A∩B)=P(A|B)P(B)=P(B|A)P(A)

全概率公式

假設(shè):樣本空間S是由兩個(gè)事件A與A’組成的和。如下圖中,紅色部分是事件A,綠色部分是事件A’,它們共同構(gòu)成了樣本空間S,且無(wú)交集
機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯
此時(shí),依據(jù)全概率公式,事件B發(fā)生的概率P(B):
P ( B ) = P ( A ′ ∩ B ) + P ( A ∩ B ) = P ( B ∣ A ′ ) P ( A ′ ) + P ( B ∣ A ) P ( A ) P(B)=P(A'∩B)+P(A∩B)=P(B|A')P(A')+P(B|A)P(A) P(B)=P(AB)+P(AB)=P(BA)P(A)+P(BA)P(A)

總結(jié) 全概率公式: P ( B ) = ∑ i = 1 n P ( B ∣ A i ) P ( A i ) P(B)=\sum_{i=1}^{n}P(B|A_i)P(A_i) P(B)=i=1n?P(BAi?)P(Ai?)

事件獨(dú)立性

當(dāng)公式P(A1,A2,…,An)=P(A1)P(A2)…P(An)成立時(shí),則稱(chēng)A1,A2,…,An為相互獨(dú)立的事件。表示每個(gè)事件發(fā)生的概率互不影響。

貝葉斯定理

關(guān)于概率方面的基礎(chǔ)(正概率問(wèn)題、逆概率問(wèn)題,先驗(yàn)概率、后驗(yàn)概率)請(qǐng)讀者自行了解,貝葉斯屬于逆概率問(wèn)題。我們先來(lái)看看貝葉斯公式的表達(dá)
P ( A ∣ B ) = P ( A ) P ( B ∣ A ) P ( B ) P(A|B)=P(A)\frac{P(B|A)}{P(B)} P(AB)=P(A)P(B)P(BA)?

其中,P(A|B) 是指后驗(yàn)概率,即在給定觀(guān)測(cè)到的 B 事件發(fā)生之后,A 事件發(fā)生的概率;P(A) 是指先驗(yàn)概率,即在沒(méi)有任何其他信息的情況下,A 事件發(fā)生的概率;P(B|A) 是指似然度或條件概率,即在 A 事件已經(jīng)發(fā)生的情況下,B 事件發(fā)生的概率;P(B) 是指證據(jù)因子,即 B 事件發(fā)生的概率,二者比值構(gòu)成一個(gè)可能性函數(shù)。

貝葉斯定理核心思想

基于貝葉斯公式來(lái)進(jìn)行分類(lèi)。

它假設(shè)所有特征之間都是獨(dú)立同分布的,從而化了模型計(jì)算的過(guò)程。

在文本分類(lèi)中,我們可以使用樸素貝葉斯算法來(lái)計(jì)算一個(gè)文檔屬于某個(gè)類(lèi)別的概率。

具體而言,我們可以首先根據(jù)訓(xùn)練數(shù)據(jù)集,計(jì)算每個(gè)單詞(或者 n-gram 構(gòu)成的詞組)在每個(gè)類(lèi)別中出現(xiàn)的概率,以及每個(gè)類(lèi)別先驗(yàn)概率。然后可以使用貝葉斯公式來(lái)計(jì)算文檔屬于每個(gè)類(lèi)別的概率,并選擇概率最大的類(lèi)別作為該文檔的分類(lèi)結(jié)果。

  • 也就是,在主觀(guān)判斷的基礎(chǔ)上,先估計(jì)一個(gè)值(先驗(yàn)概率),然后根據(jù)觀(guān)察的新信息不斷修正(可能性函數(shù))

也就是:新信息出現(xiàn)后A的概率=A的概率 x 新信息帶來(lái)的調(diào)整

貝葉斯決策論

算法概述

對(duì)于給定的訓(xùn)練數(shù)據(jù)集,首先基于特征條件獨(dú)立假設(shè)學(xué)習(xí)輸入輸出的聯(lián)合概率分布;然后基于此模型,對(duì)給定的輸入x,利用貝葉斯定理求出后驗(yàn)概率最大的輸出y。實(shí)現(xiàn)方法簡(jiǎn)單有效,學(xué)習(xí)與預(yù)測(cè)的效率都很高,很常用。

貝葉斯決策論(Bayesian decision theory):概率框架下實(shí)施決策
的基本方法。對(duì)于分類(lèi)任務(wù),在所有相關(guān)概率已知的情形下,貝葉
斯決策論考慮如何基于概率和誤判損失來(lái)選擇最優(yōu)的類(lèi)別標(biāo)記

  • 期望損失
    N種可能的類(lèi)別標(biāo)記 Y = { c 1 , c 2 , c 3 , . . . , c N } , λ i j Y=\{c_1,c_2,c_3,...,c_N\},\lambda_{ij} Y={c1?,c2?,c3?,...,cN?},λij?表示將一個(gè)真實(shí)標(biāo)記為 c j c_j cj?的樣本誤分類(lèi)為 c i c_i ci?產(chǎn)生的損失,也叫“條件風(fēng)險(xiǎn)”:
    機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯
    于是,貝葉斯判定準(zhǔn)則:為最小化總體風(fēng)險(xiǎn),只需要每個(gè)樣本選擇那
    個(gè)能使條件風(fēng)險(xiǎn)R(c|x)最小的類(lèi)別標(biāo)記,即
    h ? ( x ) = a r g m i n c ∈ Y R ( c ∣ x ) h^*(x)=arg min_{c\in Y}R(c|x) h?(x)=argmincY?R(cx)
    此處h為貝葉斯最優(yōu)分類(lèi)器

假設(shè)目標(biāo)是最小化分類(lèi)錯(cuò)誤率,則誤判損失 λ i j \lambda_{ij} λij?可以寫(xiě)為

機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯
此時(shí)條件風(fēng)險(xiǎn): R ( c ∣ x ) = 1 ? P ( c ∣ x ) R(c|x)=1-P(c|x) R(cx)=1?P(cx)
于是,最小化分類(lèi)錯(cuò)誤率的貝葉斯分類(lèi)器為:
h ? ( x ) = a r g ? m a x c ∈ Y P ( c ∣ x ) h^*(x)=arg\ max_{c\in Y}P(c|x) h?(x)=arg?maxcY?P(cx)
即對(duì)每個(gè)樣本x,選擇能使后驗(yàn)概率P(c|x)最大的類(lèi)別標(biāo)記

貝葉斯分類(lèi)模型

樸素貝葉斯分類(lèi)模型

樸素貝葉斯通過(guò)訓(xùn)練數(shù)據(jù)集學(xué)習(xí)聯(lián)合概率分布P(X,Y)。具體要先學(xué)習(xí)先驗(yàn)概率分布P(Y= c k c_k ck?)以及條件概率分布P(X=x|Y= c k c_k ck?),進(jìn)一步學(xué)習(xí)到聯(lián)合概率分布。

其中后驗(yàn)概率的計(jì)算根據(jù)貝葉斯定理進(jìn)行

樸素貝葉斯法實(shí)際上是生成數(shù)據(jù)的機(jī)制,所以屬于生成模型。條件獨(dú)立假設(shè)等于是說(shuō)用于分類(lèi)的特征,在類(lèi)確定的條件下都是條件獨(dú)立的。這一假設(shè)使樸素貝葉斯法變得簡(jiǎn)單,但有時(shí)會(huì)犧牲一定的分類(lèi)準(zhǔn)確率,在分類(lèi)對(duì)給定的輸入x通過(guò)學(xué)習(xí)到的模型計(jì)算后驗(yàn)概率分布P(c|x),將后驗(yàn)概率最大的類(lèi)作為x的類(lèi)輸出。

最后得到 樸素貝葉斯分類(lèi)器的表達(dá)式:
y = a r g ? m a x c k P ( Y = c k ) ∏ j P ( X j = x j ∣ Y = c k ) y=arg\ max_{c_k}P(Y=c_k)\prod_jP(X^j=x^j|Y=c_k) y=arg?maxck??P(Y=ck?)j?P(Xj=xjY=ck?)

后驗(yàn)概率最大化的含義(樸素貝葉斯原理)

等價(jià)于期望風(fēng)險(xiǎn)最小化。
首先,假設(shè)選擇0-1損失函數(shù):
L ( Y , f ( X ) ) = { 1 , Y ≠ f ( X ) 0 , Y = f ( X ) L(Y,f(X))= \begin{cases} 1,Y\neq f(X)\\ 0,Y=f(X) \end{cases} L(Y,f(X))={1,Y=f(X)0Y=f(X)?
f(X)為分類(lèi)決策函數(shù)。此時(shí)期望風(fēng)險(xiǎn)函數(shù)為
R e x p ( f ) = E [ L ( Y , f ( X ) ) ] R_{exp}(f)=E[L(Y,f(X))] Rexp?(f)=E[L(Y,f(X))],此處期望是對(duì)聯(lián)合分布P(X,Y)取的。再由此取得條件期望
R e x p ( f ) = E X ∑ k = 1 K [ L ( c k , f ( X ) ) ] P ( c k ∣ X ) R_{exp}(f)=E_X\sum^K_{k=1}[L(c_k,f(X))]P(c_k|X) Rexp?(f)=EX?k=1K?[L(ck?,f(X))]P(ck?X)
可以看出,為了使得期望風(fēng)險(xiǎn)最小化,我們只需要對(duì)X=x逐個(gè)極小化,由此便可得到:
f ( x ) = a r g ? m i n y ∈ Y ∑ k = 1 K L ( c k , y ) P ( c k ∣ X = x ) = a r g ? m i n y ∈ Y ∑ k = 1 K P ( y ≠ c k ∣ X = x ) = a r g ? m i n y ∈ Y ( 1 ? P ( y = c k ∣ X = x ) ) = a r g ? m a x y ∈ Y P ( y = c k ∣ X = x ) f(x)=arg\ min_{y\in Y}\sum^K_{k=1}L(c_k,y)P(c_k|X=x)\\ =arg\ min_{y\in Y}\sum^K_{k=1}P(y\neq c_k|X=x)\\ =arg\ min_{y\in Y}(1-P(y=c_k|X=x)) =arg\ max_{y\in Y}P(y=c_k|X=x) f(x)=arg?minyY?k=1K?L(ck?,y)P(ck?X=x)=arg?minyY?k=1K?P(y=ck?X=x)=arg?minyY?(1?P(y=ck?X=x))=arg?maxyY?P(y=ck?X=x)
這樣一來(lái),根據(jù)期望風(fēng)險(xiǎn)最小化準(zhǔn)則就得到了后驗(yàn)概率最大化準(zhǔn)則:
f ( x ) = a r g ? m a x y ∈ Y P ( c k ∣ X = x ) f(x)=arg\ max_{y\in Y}P(c_k|X=x) f(x)=arg?maxyY?P(ck?X=x)
也就是==“樸素貝葉斯法”所采取的原理==

由此,樸素貝葉斯分類(lèi)器的訓(xùn)練過(guò)程,就是基于訓(xùn)練集估計(jì)先驗(yàn)概率P?,并為每個(gè)屬性估計(jì)條件概率 P ( x j ∣ c ) P(x^j|c) P(xjc)

  • 估計(jì)先驗(yàn)概率:
    令Dc是訓(xùn)練集D中第c類(lèi)樣本組成的集合,若有充足的獨(dú)立同分
    布樣本,則先驗(yàn)概率P? 為
    機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯

  • 估計(jì)條件概率
    離散型:令 D c , x i D_{c,x_i} Dc,xi??表示 D c D_c Dc?在第i個(gè)屬性上取值為 x i x_i xi?的樣本組成的集合,則條件概率 P ( x i ∣ c ) P(x_i|c) P(xi?c)
    機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯
    連續(xù)型:對(duì)于連續(xù)屬性考慮概率密度函數(shù),假定
    機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯
    μ c , x i 和 σ c , x i 2 \mu_{c,x_i}和\sigma^2_{c,x_i} μc,xi??σc,xi?2?分別為第c類(lèi)樣本在第i個(gè)屬性上取值的均值和方差,則
    機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯

算法步驟

綜上,我們可以總結(jié)出樸素貝葉斯分類(lèi)模型求解的基本步驟
1、計(jì)算先驗(yàn)概率
2、計(jì)算條件概率
3、對(duì)于給定實(shí)例,計(jì)算 P ( Y = c k ) ∏ j P ( X j = x j ∣ Y = c k ) , k = 1 , 2 , . . . , K P(Y=c_k)\prod_jP(X^j=x^j|Y=c_k),k=1,2,...,K P(Y=ck?)j?P(Xj=xjY=ck?),k=1,2,...,K
4、確定實(shí)例x的類(lèi)y= a r g ? m a x c k P ( Y = c k ) ∏ j P ( X j = x j ∣ Y = c k ) arg\ max_{c_k}P(Y=c_k)\prod_jP(X^j=x^j|Y=c_k) arg?maxck??P(Y=ck?)j?P(Xj=xjY=ck?)

貝葉斯估計(jì)

若當(dāng)某個(gè)屬性值在訓(xùn)練樣本中從未出現(xiàn)過(guò)時(shí),估計(jì)條件概率時(shí),連乘結(jié)果都會(huì)為0,此時(shí)會(huì)影響到后驗(yàn)概率計(jì)算的結(jié)果,產(chǎn)生偏差分類(lèi)。

解決辦法:貝葉斯估計(jì)。

具體而言,條件概率的貝葉斯估計(jì)是:
P λ ( X j = a j l ∣ Y = c k ) = ∑ i = 1 N I ( x i j = a j l , y i = c k ) + λ ∑ i = 1 N I ( y i = c k ) + S j λ P_\lambda(X^j=a_{jl|Y=c_k})=\frac{\sum^N_{i=1}I(x_i^j=a_{jl},y_i=c_k)+\lambda}{\sum^N_{i=1}I(y_i=c_k)+S_j\lambda} Pλ?(Xj=ajlY=ck??)=i=1N?I(yi?=ck?)+Sj?λi=1N?I(xij?=ajl?,yi?=ck?)+λ?
通常取 λ \lambda λ為1,此時(shí)稱(chēng)為拉普拉斯平滑。
同樣,先驗(yàn)概率的貝葉斯估計(jì)是
P λ ( Y = c k ) = ∑ i = 1 N I ( y i = c k ) + λ N + K λ P_\lambda(Y=c_k)=\frac{\sum^N_{i=1}I(y_i=c_k)+\lambda}{N+K\lambda} Pλ?(Y=ck?)=N+Kλi=1N?I(yi?=ck?)+λ?

樸素貝葉斯分類(lèi)模型的使用

  • 若對(duì)預(yù)測(cè)速度要求高:預(yù)計(jì)算所有概率估值,使用時(shí)“查表”
  • 若數(shù)據(jù)更替頻繁:不進(jìn)行任何訓(xùn)練,收到預(yù)測(cè)請(qǐng)求時(shí)再估值(懶惰學(xué)習(xí) , lazy learning)
  • 若數(shù)據(jù)不斷增加:基于現(xiàn)有估值,對(duì)新樣本涉及的概率估值進(jìn)行修正(增量學(xué)習(xí) , incremental learning

優(yōu)缺點(diǎn)

優(yōu)點(diǎn)
? 樸素貝葉斯模型有穩(wěn)定的分類(lèi)效率;
? 對(duì)小規(guī)模的數(shù)據(jù)表現(xiàn)很好,能處理多分類(lèi)任務(wù);
? 對(duì)缺失數(shù)據(jù)不太敏感,算法也比較簡(jiǎn)單,常用于文本分類(lèi)。
缺點(diǎn)
? 樸素貝葉斯假定每個(gè)變量之間是相互獨(dú)立的,但是現(xiàn)實(shí)中的數(shù)據(jù)
往往都具有一定的相關(guān)性,很少有完全獨(dú)立的;
? 由于我們是通過(guò)先驗(yàn)和數(shù)據(jù)來(lái)決定后驗(yàn)的概率從而決定分類(lèi),所
以分類(lèi)決策存在一定的錯(cuò)誤率

算法實(shí)戰(zhàn)

樸素貝葉斯算法實(shí)戰(zhàn)可參考該博客:《《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》第四章 Python3代碼-(親自修改測(cè)試可成功運(yùn)行)

總結(jié)

總結(jié)來(lái)說(shuō),樸素貝葉斯算法是一種簡(jiǎn)單、高效、易于實(shí)現(xiàn)的器學(xué)習(xí)算法,特別適用于文本分類(lèi)和情感分析等自然語(yǔ)言處理任務(wù)。在實(shí)際應(yīng)用中,我們可以使用不同變體的樸素貝葉斯算法來(lái)處理不同類(lèi)型的數(shù)據(jù)。

參考

《統(tǒng)計(jì)學(xué)習(xí)方法》,李航, 清華大學(xué)出版社,第二版
《機(jī)器學(xué)習(xí)》,周志華,清華大學(xué)出版社

以上就是關(guān)于決策樹(shù)的分享,若有不妥之處,歡迎各路大佬不吝賜教~
喜歡的伙伴點(diǎn)個(gè)贊,順便收藏、關(guān)注一下吧~文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-470368.html

到了這里,關(guān)于機(jī)器學(xué)習(xí)算法系列(六)-- 樸素貝葉斯的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀(guān)點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 機(jī)器學(xué)習(xí)算法——貝葉斯分類(lèi)器3(樸素貝葉斯分類(lèi)器)

    機(jī)器學(xué)習(xí)算法——貝葉斯分類(lèi)器3(樸素貝葉斯分類(lèi)器)

    基于貝葉斯公式來(lái)估計(jì)后驗(yàn)概率P(c|x)的主要困難在于:類(lèi)條件概率P(x|c)是所有屬性上的聯(lián)合概率,難以從有限的訓(xùn)練樣本直接估計(jì)而得。 為避開(kāi)這個(gè)障礙,樸素貝葉斯分類(lèi)器(Naive Bayes classfier)采用了“ 屬性條件獨(dú)立性假設(shè) ”:對(duì)已知類(lèi)別,假設(shè)所有屬性相互獨(dú)立。換句話(huà)

    2023年04月22日
    瀏覽(27)
  • 《機(jī)器學(xué)習(xí)核心算法》分類(lèi)算法 - 樸素貝葉斯 MultinomialNB

    《機(jī)器學(xué)習(xí)核心算法》分類(lèi)算法 - 樸素貝葉斯 MultinomialNB

    「作者主頁(yè)」: 士別三日wyx 「作者簡(jiǎn)介」: CSDN top100、阿里云博客專(zhuān)家、華為云享專(zhuān)家、網(wǎng)絡(luò)安全領(lǐng)域優(yōu)質(zhì)創(chuàng)作者 「推薦專(zhuān)欄」: 小白零基礎(chǔ)《Python入門(mén)到精通》 樸素貝葉斯法(Naive Bayes model 簡(jiǎn)稱(chēng) NBM )是基于 「貝葉斯定理」 與 「特征條件獨(dú)立假設(shè)」 的分類(lèi)方法。 「貝

    2024年02月08日
    瀏覽(54)
  • 【機(jī)器學(xué)習(xí) | 樸素貝葉斯】樸素貝葉斯算法:概率統(tǒng)計(jì)方法之王,簡(jiǎn)單有效的數(shù)據(jù)分類(lèi)利器

    【機(jī)器學(xué)習(xí) | 樸素貝葉斯】樸素貝葉斯算法:概率統(tǒng)計(jì)方法之王,簡(jiǎn)單有效的數(shù)據(jù)分類(lèi)利器

    ???♂? 個(gè)人主頁(yè): @AI_magician ??主頁(yè)地址: 作者簡(jiǎn)介:CSDN內(nèi)容合伙人,全棧領(lǐng)域優(yōu)質(zhì)創(chuàng)作者。 ?????景愿:旨在于能和更多的熱愛(ài)計(jì)算機(jī)的伙伴一起成長(zhǎng)!!????? ???♂?聲明:本人目前大學(xué)就讀于大二,研究興趣方向人工智能硬件(雖然硬件還沒(méi)開(kāi)始玩,但一直

    2024年02月15日
    瀏覽(28)
  • 機(jī)器學(xué)習(xí)算法--樸素貝葉斯(Naive Bayes)

    機(jī)器學(xué)習(xí)算法--樸素貝葉斯(Naive Bayes)

    1. 樸素貝葉斯(Naive Bayes) 樸素貝葉斯的介紹 樸素貝葉斯算法(Naive Bayes, NB) 是應(yīng)用最為廣泛的分類(lèi)算法之一。它是基于貝葉斯定義和特征條件獨(dú)立假設(shè)的分類(lèi)器方法。由于樸素貝葉斯法基于貝葉斯公式計(jì)算得到,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類(lèi)效率。NB模型所需估計(jì)的參

    2024年02月08日
    瀏覽(25)
  • 機(jī)器學(xué)習(xí)——基于樸素貝葉斯分類(lèi)算法實(shí)現(xiàn)垃圾郵件分類(lèi)

    機(jī)器學(xué)習(xí)——基于樸素貝葉斯分類(lèi)算法實(shí)現(xiàn)垃圾郵件分類(lèi)

    貝葉斯定理: 貝葉斯理論指的是,根據(jù)一個(gè)已發(fā)生事件的概率,計(jì)算另一個(gè)事件的發(fā)生概率。貝葉斯理論從數(shù)學(xué)上的表示可以寫(xiě)成這樣:? ,在這里A和B都是事件,?P(B)P(B)不為0。 在貝葉斯定理中: 1. P(A) 稱(chēng)為”先驗(yàn)概率”,即在B事件發(fā)生之前,我們對(duì)A事件概率的一個(gè)判斷。如

    2024年02月04日
    瀏覽(29)
  • Spark-機(jī)器學(xué)習(xí)(5)分類(lèi)學(xué)習(xí)之樸素貝葉斯算法

    Spark-機(jī)器學(xué)習(xí)(5)分類(lèi)學(xué)習(xí)之樸素貝葉斯算法

    在之前的文章中,我們學(xué)習(xí)了回歸中的邏輯回歸,并帶來(lái)簡(jiǎn)單案例,學(xué)習(xí)用法。想了解的朋友可以查看這篇文章。同時(shí),希望我的文章能幫助到你,如果覺(jué)得我的文章寫(xiě)的不錯(cuò),請(qǐng)留下你寶貴的點(diǎn)贊,謝謝。 Spark-機(jī)器學(xué)習(xí)(4)回歸學(xué)習(xí)之邏輯回歸-CSDN博客 文章瀏覽閱讀2.6k次

    2024年04月28日
    瀏覽(29)
  • 基于機(jī)器學(xué)習(xí)算法:樸素貝葉斯和SVM 分類(lèi)-垃圾郵件識(shí)別分類(lèi)系統(tǒng)(含Python工程全源碼)

    基于機(jī)器學(xué)習(xí)算法:樸素貝葉斯和SVM 分類(lèi)-垃圾郵件識(shí)別分類(lèi)系統(tǒng)(含Python工程全源碼)

    本項(xiàng)目采用樸素貝葉斯和支持向量機(jī)(SVM)分類(lèi)模型作為基礎(chǔ),通過(guò)對(duì)垃圾郵件和正常郵件的數(shù)據(jù)進(jìn)行訓(xùn)練,旨在實(shí)現(xiàn)垃圾郵件的自動(dòng)識(shí)別功能。 通過(guò)訓(xùn)練這兩個(gè)分類(lèi)模型,我們的目標(biāo)是建立一個(gè)高效準(zhǔn)確的垃圾郵件識(shí)別系統(tǒng)。當(dāng)接收到新的郵件時(shí),系統(tǒng)將對(duì)郵件文本進(jìn)行預(yù)

    2024年02月09日
    瀏覽(32)
  • python機(jī)器學(xué)習(xí)——分類(lèi)模型評(píng)估 & 分類(lèi)算法(k近鄰,樸素貝葉斯,決策樹(shù),隨機(jī)森林,邏輯回歸,svm)

    python機(jī)器學(xué)習(xí)——分類(lèi)模型評(píng)估 & 分類(lèi)算法(k近鄰,樸素貝葉斯,決策樹(shù),隨機(jī)森林,邏輯回歸,svm)

    交叉驗(yàn)證:為了讓被評(píng)估的模型更加準(zhǔn)確可信 交叉驗(yàn)證:將拿到的數(shù)據(jù),分為訓(xùn)練和驗(yàn)證集。以下圖為例:將數(shù)據(jù)分成5份,其中一份作為驗(yàn)證集。然后經(jīng)過(guò)5次(組)的測(cè)試,每次都更換不同的驗(yàn)證集。即得到5組模型的結(jié)果,取平均值作為最終結(jié)果。又稱(chēng)5折交叉驗(yàn)證。 通常情

    2024年02月03日
    瀏覽(31)
  • 【Chatgpt4 教學(xué)】 NLP(自然語(yǔ)言處理)第九課 樸素貝葉斯分類(lèi)器的工作原理 機(jī)器學(xué)習(xí)算法

    我在起,點(diǎn)更新NLP自然語(yǔ)言處理==》《 王老師帶我成為救世主 》 為啥為它單獨(dú)開(kāi)章,因?yàn)樗档?,它成功的讓我斷了一更,讓我?shí)踐了自上而下找能夠理解的知識(shí)點(diǎn),然后自下而上的學(xué)習(xí)給自己的知識(shí)升級(jí),將自己提升到能夠解決當(dāng)前遇到的問(wèn)題的水平。 (1)--------------

    2023年04月15日
    瀏覽(26)
  • 分類(lèi)算法系列④:樸素貝葉斯算法

    分類(lèi)算法系列④:樸素貝葉斯算法

    目錄 1、貝葉斯算法 2、樸素貝葉斯算法 3、先驗(yàn)概率和后驗(yàn)概率 4、?機(jī)器學(xué)習(xí)中的貝葉斯公式 5、文章分類(lèi)中的貝葉斯 6、拉普拉斯平滑系數(shù) 6.1、介紹 6.2、公式 7、API 8、示例 8.1、分析 8.2、代碼 8.3、?預(yù)測(cè)流程分析 ???作者介紹:準(zhǔn)大三本科網(wǎng)絡(luò)工程專(zhuān)業(yè)在讀,阿里云專(zhuān)家

    2024年02月10日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包