国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

這篇具有很好參考價(jià)值的文章主要介紹了樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

相關(guān)文章

  1. K近鄰算法和KD樹詳細(xì)介紹及其原理詳解
  2. 樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解
  3. 決策樹算法和CART決策樹算法詳細(xì)介紹及其原理詳解
  4. 線性回歸算法和邏輯斯諦回歸算法詳細(xì)介紹及其原理詳解
  5. 硬間隔支持向量機(jī)算法、軟間隔支持向量機(jī)算法、非線性支持向量機(jī)算法詳細(xì)介紹及其原理詳解
  6. 高斯分布、高斯混合模型、EM算法詳細(xì)介紹及其原理詳解


前言

??今天給大家?guī)淼闹饕獌?nèi)容包括:樸素貝葉斯算法、拉普拉斯平滑。這些內(nèi)容也是機(jī)器學(xué)習(xí)的基礎(chǔ)內(nèi)容,本文不全是嚴(yán)格的數(shù)學(xué)定義,也包括生動(dòng)的例子,所以學(xué)起來不會(huì)枯燥。下面就是本文的全部?jī)?nèi)容了!


一、樸素貝葉斯算法

??現(xiàn)在有這樣一個(gè)例子,大學(xué)生小明是班級(jí)里最受歡迎的同學(xué),有一天老師布置的題目非常難,于是小明給班級(jí)里面的30個(gè)同學(xué)群發(fā)求助消息:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖1:小明群發(fā)求助

??由于小明的人緣很好,收到消息的同學(xué)均紛紛回復(fù)小明,但是小明發(fā)現(xiàn)這30個(gè)回復(fù)里面既有作業(yè)答案,同時(shí)也意外收獲了深情的告白。小明可以分辨出有16份作業(yè)答案,還有13份情書,唯獨(dú)班長(zhǎng)的回復(fù)小明沒有看懂:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖2:小明收到回復(fù)

??于是小明想,可不可以按照消息中出現(xiàn)的關(guān)鍵詞來給班長(zhǎng)的回復(fù)分一下類,看看班長(zhǎng)的回復(fù)是作業(yè)答案還是情書:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖3:小明利用關(guān)鍵詞判斷班長(zhǎng)的回復(fù)

??小明首先根據(jù)收到的消息計(jì)算任何一則消息是作業(yè)答案還是情書的概率:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖4:分別計(jì)算得到作業(yè)答案和情書的出現(xiàn)概率

??然后從所有的消息中選定了四個(gè)關(guān)鍵詞作為分類依據(jù),并記錄下每一個(gè)詞在作業(yè)答案和情書中出現(xiàn)的次數(shù):

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖5:記錄每一個(gè)詞在作業(yè)答案和情書中出現(xiàn)的次數(shù)

??隨后小明在兩種情況下分別計(jì)算關(guān)鍵詞出現(xiàn)的概率,例如在作業(yè)答案消息中,“喜歡”這個(gè)詞一共出現(xiàn)了3次,而所有關(guān)鍵詞出現(xiàn)了15次,所以在作業(yè)答案消息中出現(xiàn)“喜歡”這個(gè)詞的概率是 3 15 \frac{3}{15} 153?,以此類推,可以得到所有關(guān)鍵詞在兩種不同消息中出現(xiàn)的概率:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖6:計(jì)算所有關(guān)鍵詞在兩種不同消息中出現(xiàn)的概率

??當(dāng)我們計(jì)算得到所有關(guān)鍵詞在兩種不同消息中出現(xiàn)的概率后,再來分析班長(zhǎng)的回復(fù),假設(shè)班長(zhǎng)給小明發(fā)的消息中包含“紅豆”和“喜歡”兩個(gè)關(guān)鍵詞,首先我們先假設(shè)這是一份作業(yè),然后再乘以作業(yè)中出現(xiàn)“紅豆”和“喜歡”兩個(gè)關(guān)鍵詞的概率:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖7:利用條件概率公式計(jì)算此信息可能是作業(yè)答案的概率

??這個(gè)公式的計(jì)算結(jié)果可以理解為猜測(cè)這是一份作業(yè)的正確程度,代入數(shù)據(jù)可以計(jì)算得到:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖8:代入數(shù)據(jù)得到此信息可能是作業(yè)答案的概率值

??同樣可以計(jì)算假設(shè)這是一份情書的正確程度:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖9:代入數(shù)據(jù)得到此信息可能是情書的概率值

??很明顯,小明收到的班長(zhǎng)的信息可能為情書的概率要比可能為作業(yè)答案的概率要高,所以小明得出結(jié)論,原來班長(zhǎng)發(fā)的是一封情書:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖10:小明最終判斷出了班長(zhǎng)的信息是情書

??以上整個(gè)過程就是我們常說的樸素貝葉斯算法,在樸素貝葉斯算法中,假設(shè)兩個(gè)特征維度之間是相互獨(dú)立的,在剛才的例子中,認(rèn)為兩個(gè)關(guān)鍵詞是相互獨(dú)立的,也就是說他們出現(xiàn)的順序和上下文關(guān)系并不影響計(jì)算結(jié)果,哪怕它們表達(dá)的意思天差地別也不會(huì)有任何影響:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖11:樸素貝葉斯算法名稱的由來

??但是在現(xiàn)實(shí)情況中很少有相互獨(dú)立的情況發(fā)生,大多都是有關(guān)聯(lián)的,所以維度之間相互獨(dú)立的假設(shè)就顯得太過于簡(jiǎn)單粗暴,那么這種算法就被稱為樸素貝葉斯算法,剛剛通過文字和例子給大家直觀介紹了什么是樸素貝葉斯算法,下面讓我們從數(shù)學(xué)角度總結(jié)一下樸素貝葉斯算法。

??現(xiàn)在假設(shè)給定一個(gè)數(shù)據(jù)集 T T T,其中包含:
T = ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x n , y n ) T={(x_{1},y_{1}),(x_{2},y_{2}),\dots,(x_{n},y_{n})} T=(x1?,y1?),(x2?,y2?),,(xn?,yn?)
??對(duì)于其中的參數(shù)需要注意其含義:

  • x i = ( x 1 , … , x n ) x_{i}=(x^{1},\dots,x^{n}) xi?=(x1,,xn) x i ( 1 ≤ x ≤ n ) x_{i}(1≤x≤n) xi?(1xn)是樣本特征,由一系列獨(dú)立的特征維度構(gòu)成
  • y i = c k y_{i}=c_{k} yi?=ck?, y i ( 1 ≤ y ≤ n ) y_{i}(1≤y≤n) yi?(1yn)是樣本類別, y i y_{i} yi?可能屬于 c i ( 1 ≤ i ≤ k ) c_{i}(1≤i≤k) ci?(1ik)中的任何一個(gè)

??剛才我們已經(jīng)介紹過了,樸素貝葉斯算法就是基于樣本特征 x x x來預(yù)測(cè)樣本屬于的類別 y y y。根據(jù)貝葉斯定理,我們可以得到這樣一個(gè)看似復(fù)雜的等式:
P ( y = c k ∣ x ) = P ( y = c k ) P ( x ∣ y = c k ) ∑ k P ( y = c k ) P ( x ∣ y = c k ) P\left(y=c_{k} \mid x\right)=\frac{P\left(y=c_{k}\right) P\left(x \mid y=c_{k}\right)}{\sum_{k} P\left(y=c_{k}\right) P\left(x \mid y=c_{k}\right)} P(y=ck?x)=k?P(y=ck?)P(xy=ck?)P(y=ck?)P(xy=ck?)?
??在上式中,因?yàn)榉帜干系拿恳粋€(gè)值對(duì)每一個(gè)類別來說都是一樣的,所以我們可以將上式簡(jiǎn)化一下,得到一個(gè)正比關(guān)系:
P ( y = c k ∣ x ) ∝ P ( y = c k ) P ( x ∣ y = c k ) P\left(y=c_{k} \mid x\right) \propto P\left(y=c_{k}\right) P\left(x \mid y=c_{k}\right) P(y=ck?x)P(y=ck?)P(xy=ck?)
??在上式中, y y y就是可能被分類的類別,也就是剛才例子中的作業(yè)答案或者情書,而 x x x就是關(guān)鍵詞的集合。因?yàn)槲覀兗僭O(shè) x x x的特征是相互獨(dú)立的,所以可以把它們拆分成一系列條件概率的相乘:
P ( y = c k ∣ x ) ∝ P ( y = c k ) ∏ j P ( x j ∣ y = c k ) P\left(y=c_{k} \mid x\right) \propto P\left(y=c_{k}\right) \prod_{j} P\left(x^{j} \mid y=c_{k}\right) P(y=ck?x)P(y=ck?)j?P(xjy=ck?)
??通過上式就可以在例子中計(jì)算分類正確的概率,最后選擇正確分類概率最高的類別作為分類結(jié)果即可,這就是樸素貝葉斯法的數(shù)學(xué)形式。

二、拉普拉斯平滑

??我們?cè)賮砜戳硪粋€(gè)例子,假設(shè)有一段話是這樣寫的:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖12:待判斷的一段話

??我們現(xiàn)在要判斷它是作業(yè)答案還是情書,那么還是按照上面介紹的樸素貝葉斯算法來計(jì)算它們的正確程度:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖13:按照樸素貝葉斯算法對(duì)其進(jìn)行分類

??因?yàn)椤跋矚g”這個(gè)詞出現(xiàn)了三次,所以需要乘三次,也就是為什么需要計(jì)算三次方。并且情書中并沒有“辛苦”這個(gè)關(guān)鍵詞出現(xiàn)過,所以“辛苦”在情書中出現(xiàn)的概率為0,所以導(dǎo)致最后判斷其為情書的概率為0,算法從而將這段信息判斷為作業(yè)答案。

??很明顯這樣是不對(duì)的,我們?nèi)祟惪梢院茌p松的判斷出這是一份情書,但是計(jì)算機(jī)使用算法計(jì)算是死的,并沒有人類的情感。出現(xiàn)上面那種情況的原因是什么呢?是因?yàn)椤靶量唷痹谇闀谐霈F(xiàn)的概率為0,從而導(dǎo)致最后的計(jì)算結(jié)果為0,為了解決這個(gè)問題,我們可以使用拉普拉斯平滑技巧。

??拉普拉斯平滑技巧就是在每個(gè)關(guān)鍵詞上面人為增加一個(gè)出現(xiàn)的次數(shù),這樣就可以保證每一項(xiàng)都不為0:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖14:使用拉普拉斯平滑技巧避免出現(xiàn)0的概率

??按照拉普拉斯平滑后的次數(shù),我們可以重新計(jì)算每個(gè)關(guān)鍵詞出現(xiàn)的頻率:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖15:按照拉普拉斯平滑后的次數(shù)重新計(jì)算每個(gè)關(guān)鍵詞出現(xiàn)的頻率

??當(dāng)我們使用平滑后的結(jié)果,再計(jì)算時(shí)就可以得到正確的結(jié)論了:

樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解

圖16:最終得到了正確的結(jié)果

總結(jié)

??以上就是本文的全部?jī)?nèi)容了,這個(gè)系列還會(huì)繼續(xù)更新,給大家?guī)砀嗟年P(guān)于機(jī)器學(xué)習(xí)方面的算法和知識(shí),下篇博客見!文章來源地址http://www.zghlxwxcb.cn/news/detail-443824.html

到了這里,關(guān)于樸素貝葉斯算法和拉普拉斯平滑詳細(xì)介紹及其原理詳解的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【信號(hào)與系統(tǒng)】(二十一)拉普拉斯變換與復(fù)頻域分析——拉普拉斯變換及其性質(zhì)

    【信號(hào)與系統(tǒng)】(二十一)拉普拉斯變換與復(fù)頻域分析——拉普拉斯變換及其性質(zhì)

    傅里葉變換: j w jw j w 拉普拉斯變換: s = σ + j w s=sigma+jw s = σ + j w 有些函數(shù)不滿足絕對(duì)可積條件 ,求解傅里葉變換困難。為此,可用一衰減因子 e ? σ t e^{-sigma t} e ? σ t ( σ sigma σ 為實(shí)常數(shù))乘信號(hào) f ( t ) f(t) f ( t ) ,適當(dāng)選取 σ sigma σ 的值,使乘積信號(hào) f ( t ) e ?

    2024年02月09日
    瀏覽(33)
  • 拉普拉斯算子

    拉普拉斯算子

    在介紹拉普拉斯算子概念之前我們先介紹,哈密爾頓算子( ? nabla ? ),梯度,散度等概念 所謂哈密爾頓算子即為某一物理量在笛卡爾坐標(biāo)系下的偏導(dǎo)數(shù)的矢量和,其運(yùn)算符號(hào)為: ? nabla ? ,定義如下: ? = δ δ x i + δ δ y j + δ δ z k nabla={frac{delta}{delta x}}pmb{i}+{f

    2024年02月09日
    瀏覽(26)
  • 拉普拉斯變換

    拉普拉斯變換

    1.公式:設(shè)f(t)在t≥0時(shí)有定義, 其中s=β+jw。 注:L(1)=? ?L(sgnt)=? ?L()= 2.性質(zhì) ? ? ? ? 性質(zhì)1: ? ? ? ? ?性質(zhì)2: ? ? ? ? ?性質(zhì)3: ? ? ? ? 性質(zhì)4:L()= 推導(dǎo)性質(zhì)2:使用歐拉公式進(jìn)行推導(dǎo) 同理,cosat= ,使用分部積分法,經(jīng)過兩次分部積分后會(huì)出現(xiàn)原來的積分,通過合并

    2024年02月05日
    瀏覽(27)
  • 【電路分析】拉普拉斯變換及其應(yīng)用

    【電路分析】拉普拉斯變換及其應(yīng)用

    零狀態(tài)響應(yīng) 是指電路的外加激勵(lì)源為零的情況下,由動(dòng)態(tài)元件的初始儲(chǔ)能引起的響應(yīng)。 零輸入響應(yīng) 是指電路的初始狀態(tài)為零(即換路前電容電壓為零,電感電流為零),由外加激勵(lì)源產(chǎn)生的響應(yīng)。 該函數(shù)在 t0時(shí)幅值為1,在 t0 時(shí)幅值為-0,在 t=0時(shí)函數(shù)沒有定義但為有限值

    2024年02月03日
    瀏覽(19)
  • visual Studio MFC 平臺(tái)實(shí)現(xiàn)拉普拉斯和拉普拉斯與直方圖均衡化與中值濾波相結(jié)合實(shí)現(xiàn)比較

    visual Studio MFC 平臺(tái)實(shí)現(xiàn)拉普拉斯和拉普拉斯與直方圖均衡化與中值濾波相結(jié)合實(shí)現(xiàn)比較

    本文使用visual Studio MFC 平臺(tái)實(shí)現(xiàn)圖像增強(qiáng)中的拉普拉斯變換,同時(shí)拉普拉斯一般不會(huì)單獨(dú)使用,與其他平滑操作相結(jié)合,本文使用了拉普拉斯與直方圖均衡化以及與中值濾波相結(jié)合,也對(duì)三種方式進(jìn)行了對(duì)比 關(guān)于基礎(chǔ)工程的創(chuàng)建可以參考 01-Visual Studio 使用MFC 單文檔工程繪制

    2024年02月04日
    瀏覽(15)
  • 【線性代數(shù)】P3 拉普拉斯定理

    【線性代數(shù)】P3 拉普拉斯定理

    拉普拉斯定理是通過對(duì)余子式和代數(shù)余子式的變形展開得到,有關(guān)余子式和代數(shù)余子式的概念見:https://blog.csdn.net/weixin_43098506/article/details/126765390 假設(shè)有四階行列式: k階子式 行列式D的一個(gè)二階子式為: 余子式 那么二階子式A的余子式為: 代數(shù)余子式 那么二階子式的代數(shù)余

    2024年02月12日
    瀏覽(19)
  • 基于拉普拉斯金字塔的圖像融合

    僅為筆記,供自己使用。 讀入兩幅大小相同的圖像 img1 img2; 構(gòu)建 img1 img2的 高斯金字塔,層數(shù)根據(jù)需要設(shè)定(本實(shí)驗(yàn)為7層); 根據(jù)高斯金字塔和拉普拉斯金字塔的關(guān)系,推出拉普拉斯金字塔的Li(也為7層,第一層大小和原圖相同); 在 兩組拉普拉斯圖層 的每一層進(jìn)行圖像

    2024年02月11日
    瀏覽(24)
  • 圖譜論學(xué)習(xí)—拉普拉斯矩陣背后的含義

    圖譜論學(xué)習(xí)—拉普拉斯矩陣背后的含義

    一、為什么學(xué)習(xí)拉普拉斯矩陣 ????早期,很多圖神經(jīng)網(wǎng)絡(luò)的概念是基于圖信號(hào)分析或圖擴(kuò)散的,而這些都需要與圖譜論相關(guān)的知識(shí)。并且在圖網(wǎng)絡(luò)深度學(xué)習(xí)中(graph deep learning)中,拉普拉斯矩陣是很常用的概念,深入理解其物理含義非常有助于加深對(duì)GNN模型的理解。博主最

    2023年04月09日
    瀏覽(30)
  • 圖像處理之LoG算子(高斯拉普拉斯)

    圖像處理之LoG算子(高斯拉普拉斯)

    LoG算子是由拉普拉斯算子改進(jìn)而來。拉普拉斯算子是二階導(dǎo)數(shù)算子,是一個(gè)標(biāo)量,具有線性、位移不變性,其傳函在頻域空間的原點(diǎn)為0。所有經(jīng)過拉普拉斯算子濾波的圖像具有零平均灰度。但是該算子的缺點(diǎn)是對(duì)噪聲具有敏感性,因此在實(shí)際應(yīng)用中,一般先要對(duì)圖像進(jìn)行平滑

    2024年02月16日
    瀏覽(27)
  • Opencv 圖像金字塔----高斯和拉普拉斯

    Opencv 圖像金字塔----高斯和拉普拉斯

    原文:圖像金字塔----高斯和拉普拉斯 圖像金字塔 是圖像中多尺度表達(dá)的一種,最初用于機(jī)器視覺和圖像壓縮,最主要用于圖像的分割、融合。 高斯金字塔是由底部的最大分辨率圖像逐次向下采樣得到的一系列圖像。最下面的圖像分辨率最高,越往上圖像分辨率越低。 高斯

    2024年02月09日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包