国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

信息增益-決策樹

這篇具有很好參考價(jià)值的文章主要介紹了信息增益-決策樹。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

信息增益-決策樹,決策樹,算法,機(jī)器學(xué)習(xí)
表8.1給出的是帶有標(biāo)記類的元組的訓(xùn)練集D;

類標(biāo)號屬性 buys_computer有兩個(gè)不同值:{yes, no}

設(shè) 類 C1 → \rightarrow yes,C2 → \rightarrow no;

已知:C1包含9個(gè)元組,C2包含5個(gè)元組;

信息增益-決策樹,決策樹,算法,機(jī)器學(xué)習(xí)
信息增益-決策樹,決策樹,算法,機(jī)器學(xué)習(xí)

從屬性age計(jì)算期望信息需求:

age:{‘youth’, ‘middle_aged’, ‘senior’}

youth middle_aged senior
yes 2 4 3
no 3 0 2

信息增益-決策樹,決策樹,算法,機(jī)器學(xué)習(xí)

對于 y o u t h youth youth 來說:
D j D_{j} Dj? = 2 + 3 = 5 2+3=5 2+3=5
I n f o Info Info( D j D_{j} Dj?) = - 2 / 5 2/5 2/5 * log ? 2 \log_{2} log2?( 2 / 5 2/5 2/5) - 3 / 5 3/5 3/5 * log ? 2 \log_{2} log2?( 3 / 5 3/5 3/5)

即,

信息增益-決策樹,決策樹,算法,機(jī)器學(xué)習(xí)

即,按年齡劃分的信息增益:
G a i n ( a g e ) = I n f o ( D ) Gain(age) = Info(D) Gain(age)=Info(D) - I n f o a g e ( D ) Info_{age}(D) Infoage?(D) = 0.94-0.694 = 0.246

同理,
G a i n ( i n c o m e ) = 0.029 Gain(income) = 0.029 Gain(income)=0.029, G a i n ( s t u d e n t ) = 0.151 Gain(student) = 0.151 Gain(student)=0.151,
G a i n ( c r e d i t Gain(credit Gain(credit_ r a t i n g ) = 0.048 rating) = 0.048 rating)=0.048

信息熵:意思是一個(gè)變量的變化情況可能越多,那么它攜帶的信息量就越大,信息熵值越大,該系統(tǒng)越不穩(wěn)定,存在的不定因素就越多。

信息熵的增益是指:所有屬性值的信息熵和某一個(gè)屬性值的信息熵的差值,增益值越大,說明其具有更高的決策性,可做為優(yōu)先節(jié)點(diǎn)。

由于age在屬性中具有最高的信息增益,所以它被選作分裂屬性;

由于age → \rightarrow middle_aged 元組屬于相同的類,所以在該分支的端點(diǎn)創(chuàng)建一個(gè)樹葉,并用 yes 標(biāo)記;

最終決策樹如下:
信息增益-決策樹,決策樹,算法,機(jī)器學(xué)習(xí)
信息增益-決策樹,決策樹,算法,機(jī)器學(xué)習(xí)

參考:文章來源地址http://www.zghlxwxcb.cn/news/detail-841335.html

  1. https://blog.csdn.net/Time_Memory_cici/article/details/132915003
  2. https://blog.csdn.net/m0_50989510/article/details/122395804
  3. https://blog.csdn.net/weixin_44606139/article/details/127049701

到了這里,關(guān)于信息增益-決策樹的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【人工智能】監(jiān)督學(xué)習(xí)、分類問題、決策樹、信息增益

    【人工智能】監(jiān)督學(xué)習(xí)、分類問題、決策樹、信息增益

    什么是決策樹 —— 基本概念 非葉節(jié)點(diǎn):一個(gè)屬性上的測試,每個(gè)分枝代表該測試的輸出 葉節(jié)點(diǎn):存放一個(gè)類標(biāo)記 規(guī)則:從根節(jié)點(diǎn)到葉節(jié)點(diǎn)的一條屬性取值路徑 模型訓(xùn)練:從已有數(shù)據(jù)中生成一棵決策樹 分裂數(shù)據(jù)的特征,尋找決策類別的路徑 相同的數(shù)據(jù),根據(jù)不同的特征順

    2024年02月16日
    瀏覽(96)
  • 【機(jī)器學(xué)習(xí)】信息量、香農(nóng)熵、信息增益(增加例子,方便理解)

    【機(jī)器學(xué)習(xí)】信息量、香農(nóng)熵、信息增益(增加例子,方便理解)

    B站視頻:“交叉熵”如何做損失函數(shù)?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵” 舉個(gè)例子: ? 如果有人告訴你,今天太陽從東邊出來了,那么這條信息的信息量就 很低 ,因?yàn)槊刻斓奶?常常從 東邊出來。 ?但是,突然某一天有人告訴你,今天

    2024年02月04日
    瀏覽(26)
  • 信息增益-決策樹

    信息增益-決策樹

    表8.1給出的是帶有標(biāo)記類的元組的訓(xùn)練集D; 類標(biāo)號屬性 buys_computer有兩個(gè)不同值:{yes, no} 設(shè) 類 C1 → rightarrow → yes,C2 → rightarrow → no; 已知:C1包含9個(gè)元組,C2包含5個(gè)元組; age:{‘youth’, ‘middle_aged’, ‘senior’} youth middle_aged senior yes 2 4 3 no 3 0 2 對于 y o u t h youth yo u

    2024年03月19日
    瀏覽(27)
  • 決策樹的劃分依據(jù)之:信息增益率

    決策樹的劃分依據(jù)之:信息增益率

    在上面的介紹中,我們有意忽略了\\\"編號\\\"這一列.若把\\\"編號\\\"也作為一個(gè)候選劃分屬性,則根據(jù)信息增益公式可計(jì)算出它的信息增益為 0.9182,遠(yuǎn)大于其他候選劃分屬性。 計(jì)算每個(gè)屬性的信息熵過程中,我們發(fā)現(xiàn),該屬性的值為0, 也就是其信息增益為0.9182. 但是很明顯這么分類,最后

    2024年02月14日
    瀏覽(28)
  • 決策樹之用信息增益選擇最優(yōu)特征

    決策樹之用信息增益選擇最優(yōu)特征

    決策樹之用信息增益選擇最優(yōu)特征 熵 ? 熵的定義: 熵(shāng),熱力學(xué)中表征物質(zhì)狀態(tài)的參量之一,用符號S表示,其物理意義是體系混亂程度的度量。 在決策樹中,信息增益是由熵構(gòu)建而成,表示的是[隨機(jī)變量的不確定性],不確定性越大,代表著熵越大。隨機(jī)變量的取值

    2024年02月01日
    瀏覽(19)
  • 信息熵與信息增益在決策樹生成中的使用

    信息熵與信息增益在決策樹生成中的使用

    ? ? 決策樹是機(jī)器學(xué)習(xí)算法的一種,它主要對給定數(shù)據(jù)集合根據(jù)相關(guān)屬性生成一個(gè)類似樹結(jié)構(gòu)的一種決策機(jī)制。 ? ? 生成樹結(jié)構(gòu),其實(shí)可以很隨便,只要根據(jù)特征值的分支做分叉,把所有的特征遍歷完成,這棵樹就是一顆決策樹。但是要生成一個(gè)最優(yōu)決策樹,我們需要選擇合

    2024年02月16日
    瀏覽(22)
  • 機(jī)器學(xué)習(xí)算法 決策樹

    機(jī)器學(xué)習(xí)算法 決策樹

    決策樹(Decision Tree)是一種非參數(shù)的有監(jiān)督學(xué)習(xí)方法,它能夠從一系列有特征和標(biāo)簽的數(shù)據(jù)中總結(jié)出決策規(guī)則,并用樹狀圖的結(jié)構(gòu)來呈現(xiàn)這些規(guī)則,以解決分類和回歸問題。決策樹算法容易理解,適用各種數(shù)據(jù)。 決策樹算法的本質(zhì)是一種圖結(jié)構(gòu),我們只需要問一系列問題就

    2023年04月23日
    瀏覽(35)
  • 經(jīng)典機(jī)器學(xué)習(xí)算法——決策樹

    經(jīng)典機(jī)器學(xué)習(xí)算法——決策樹

    優(yōu)質(zhì)博文:IT-BLOG-CN 樹模型是機(jī)器學(xué)習(xí)中最常用的一類模型,包括隨機(jī)森林、AdaBoost、GBDT(XGBoost和Lightgbm)等,基本原理都是通過集成弱學(xué)習(xí)器的即式來進(jìn)一步提升準(zhǔn)確度。這里的弱學(xué)習(xí)器包括線性模型和決策樹模型,本期介紹的就是決策樹模型(DecisionTree)。 決策樹屬于有

    2024年04月29日
    瀏覽(24)
  • 機(jī)器學(xué)習(xí) | 決策樹算法

    機(jī)器學(xué)習(xí) | 決策樹算法

    1、樹模型 ????????決策樹:從根節(jié)點(diǎn)開始一步步走到葉子節(jié)點(diǎn)(決策)。所有的數(shù)據(jù)最終都會落到葉子節(jié)點(diǎn), 既可以做分類也可以做回歸。 ????????在分類問題中,表示基于特征對實(shí)例進(jìn)行分類的過程,可以認(rèn)為是if-then的集合,也可以認(rèn)為是定義在特征空間與類空間上

    2024年02月07日
    瀏覽(15)
  • 機(jī)器學(xué)習(xí)算法系列(四)-- 決策樹

    機(jī)器學(xué)習(xí)算法系列(四)-- 決策樹

    最經(jīng)典的機(jī)器學(xué)習(xí)模型之一,成樹型結(jié)構(gòu),決策樹的目的是為了產(chǎn)生一顆泛化能力強(qiáng),處理未見實(shí)例能力強(qiáng)的樹,通過特征判斷不斷分類,基本流程遵循“分而治之”的遞歸分類策略。 關(guān)鍵 就是選取對訓(xùn)練數(shù)據(jù)具有分類能力的特征,可提高決策樹學(xué)習(xí)的效率。通常特征選擇

    2023年04月23日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包