国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

實(shí)驗(yàn)五 貝葉斯分類器(模式識(shí)別與機(jī)器學(xué)習(xí))

這篇具有很好參考價(jià)值的文章主要介紹了實(shí)驗(yàn)五 貝葉斯分類器(模式識(shí)別與機(jī)器學(xué)習(xí))。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

實(shí)驗(yàn)一? 離散型數(shù)據(jù)的樸素貝葉斯分類

?實(shí)驗(yàn)步驟:

?NBtrain.m

?NBtest.m

?main.m

實(shí)驗(yàn)二? 連續(xù)型數(shù)據(jù)的樸素貝葉斯分類

實(shí)驗(yàn)步驟:

?naiveBayestrain.m

navieBayestest.m

main.m


實(shí)驗(yàn)一? 離散型數(shù)據(jù)的樸素貝葉斯分類

???????data數(shù)據(jù)集中含有625個(gè)樣本,每個(gè)樣本第1列為類別;2~5列為各樣本的屬性。

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??實(shí)驗(yàn)五 貝葉斯分類器(模式識(shí)別與機(jī)器學(xué)習(xí))

?實(shí)驗(yàn)步驟:

準(zhǔn)備階段。

? ????????將數(shù)據(jù)集進(jìn)行劃分:訓(xùn)練集和測(cè)試集。

構(gòu)建分類器,進(jìn)行數(shù)據(jù)訓(xùn)練。

????????? 將數(shù)據(jù)集進(jìn)行劃分:訓(xùn)練集和測(cè)試集。

????????? 計(jì)算條件概率:根據(jù)每類中各屬性取值的概率

數(shù)據(jù)測(cè)試。

????????計(jì)算每個(gè)測(cè)試樣本在其各屬性下的條件概率;

????????計(jì)算測(cè)試樣本對(duì)于各類別的判別概率;

?NBtrain.m



function [y1,y_1,y2,y_2,y3,y_3] = NBtrain(train_data,train_label,m1)  
% returen:
% y1 y2 y3 先驗(yàn)概率
% y_1,y_2,y_3   在第 ? 類的情況下,第i個(gè)屬性取值為j的概率估計(jì)值


%三類樣本數(shù)量分別記為count1,count2,count3
count1=0;
count2=0;
count3=0;

%  數(shù)據(jù)總共 3 個(gè)類別,4 個(gè)屬性, 5 個(gè)取值。 

%count_1(i,j)表示在第一類(y=1)的情況下,第i個(gè)屬性是j的樣本個(gè)數(shù)
count_1=zeros(4,5);
%count_2(i,j)表示在第二類(y=2)的情況下,第i個(gè)屬性是j的樣本個(gè)數(shù)
count_2=zeros(4,5);
%count_3(i,j)表示在第三類(y=3)的情況下,第i個(gè)屬性是j的樣本個(gè)數(shù)
count_3=zeros(4,5);

%訓(xùn)練集樣本數(shù)量 m1 = 562
for i=1:m1
    
    x=train_data(i,:);
    if train_label(i)==1
        count1=count1+1;
        for j=1:4    %指示第j個(gè)屬性
            for k=1:5    %第j個(gè)屬性為哪個(gè)值
                if x(j)==k
                    
                    %===========填空:對(duì)當(dāng)前類別中第j個(gè)屬性第k個(gè)值得個(gè)數(shù)進(jìn)行統(tǒng)計(jì)=============
                    count_1(j,k)=count_1(j,k)+1 ; 
                    %====================================================================
                    
                    break;
                end
            end
        end
    elseif train_label(i)==2
        count2=count2+1;
        for j=1:4    %指示第j個(gè)屬性
            for k=1:5    %第j個(gè)屬性為哪個(gè)值
                if x(j)==k
                    
                    %===========填空:對(duì)當(dāng)前類別中第j個(gè)屬性第k個(gè)值得個(gè)數(shù)進(jìn)行統(tǒng)計(jì)=============
                    count_2(j,k)=count_2(j,k)+1 ;
                    %====================================================================
                    
                    break;
                end
            end
        end
    else count3=count3+1;
        for j=1:4    %指示第j個(gè)屬性
            for k=1:5    %第j個(gè)屬性為哪個(gè)值
                if x(j)==k
                    
                    %===========填空:對(duì)當(dāng)前類別中第j個(gè)屬性第k個(gè)值得個(gè)數(shù)進(jìn)行統(tǒng)計(jì)=============
                    count_3(j,k)=count_3(j,k)+1 ;
                    %====================================================================
                    
                    break;
                end
            end
        end
    end
    
end

%分別計(jì)算三類概率y1=p(y=1)、y2=p(y=2)、y3=p(y=3)的估計(jì)值

%=========填空:計(jì)算每類的先驗(yàn)概率================
y1=count1/m1 ;
y2=count2/m1 ;
y3=count3/m1 ;
%===============================================

%y_1(i,j)表示在第一類(y=1)的情況下,第i個(gè)屬性取值為j的概率估計(jì)值
%y_2(i,j)表示在第二類(y=2)的情況下,第i個(gè)屬性取值為j的概率估計(jì)值
%y_3(i,j)表示在第三類(y=3)的情況下,第i個(gè)屬性取值為j的概率估計(jì)值
for i=1:4
    for j=1:5
        
        %=========填空:計(jì)算每類中每個(gè)屬性的取值概率,即在第C類中第i個(gè)屬性為k的條件概率=============
        y_1(i,j)= count_1(i,j)/count1 ;
        y_2(i,j)= count_2(i,j)/count2 ;
        y_3(i,j)= count_3(i,j)/count3;
        %====================================================================================
        
    end
end

NBtest.m

function class_label = NBtest(test_data,y1,y_1,y2,y_2,y3,y_3,m2)
% y1 y2 y3  [1 1] 先驗(yàn)概率
% y_1,y_2,y_3  [4 5]  在第 ? 類的情況下,第i個(gè)屬性取值為j的概率估計(jì)值

class_label = [];
for i=1:m2
    xx=test_data(i,:);
    
    %==========填空:計(jì)算樣本對(duì)于每類而言的后驗(yàn)概率=====================
    p1= y1 * y_1(1,xx(1)) * y_1(2,xx(2))*y_1(3,xx(3)) * y_1(4,xx(4));
    p2= y2 * y_2(1,xx(1)) * y_2(2,xx(2))*y_2(3,xx(3)) * y_2(4,xx(4));
    p3= y3 * y_3(1,xx(1)) * y_3(2,xx(2))*y_3(3,xx(3)) * y_3(4,xx(4));
    %============================================================    
     
    if p1>p2&&p1>p3
        class_label(i) = 1;
    end
    if p2>p1&&p2>p3
        class_label(i) = 2;
    end
    if p3>p1&&p3>p2
        class_label(i) = 3;
    end
    
end

main.m

clear;
clc;
ex=importdata('data.txt');  %讀入文件
X=ex.data;
Y = ex.rowheaders;
Y = grp2idx(Y);       %將類別B,R,L化為1,2,3
m=size(X);  %數(shù)據(jù)大小

%訓(xùn)練集,測(cè)試集劃分
ii=1;%用來標(biāo)識(shí)測(cè)試集的序號(hào)
jj=1;%用來標(biāo)識(shí)訓(xùn)練集的序號(hào)


%我們把所有數(shù)字序號(hào)末尾為1的留作測(cè)試集,其他未訓(xùn)練集
for i = 1:m
    if mod(i,10)==1
        %%將數(shù)字序號(hào)末尾為1的留作測(cè)試集,其他未訓(xùn)練集
        test_data(ii,:)=X(i,:);
        test_label(ii)=Y(i);
        ii=ii+1;
    else
        train_data(jj,:)=X(i,:);
        train_label(jj)=Y(i);
        jj=jj+1;
    end
    
end

m1=jj-1;  %訓(xùn)練集樣本數(shù)量562
m2=ii-1;  %測(cè)試集樣本數(shù)量63

%y1、y2、y3表示每類的先驗(yàn)概率
%y_1(i,j)表示在第一類(y=1)的情況下,第i個(gè)屬性取值為j的概率估計(jì)值
%y_2(i,j)表示在第二類(y=2)的情況下,第i個(gè)屬性取值為j的概率估計(jì)值
%y_3(i,j)表示在第三類(y=3)的情況下,第i個(gè)屬性取值為j的概率估計(jì)值

[y1,y_1,y2,y_2,y3,y_3] = NBtrain(train_data,train_label,m1);    %完善訓(xùn)練函數(shù)

test_class = NBtest(test_data,y1,y_1,y2,y_2,y3,y_3,m2);             %完善測(cè)試函數(shù)

accuracy =length(find(test_label==test_class))/length(test_label)
cMat2 = confusionmat(test_label,test_class ) 




實(shí)驗(yàn)二? 連續(xù)型數(shù)據(jù)的樸素貝葉斯分類

fisheriris數(shù)據(jù)集中有150朵花的數(shù)據(jù):

?meas出了每朵花的4個(gè)屬性:花萼長(zhǎng)度,花萼寬度,花瓣長(zhǎng)度,花瓣寬度。

?species明了每朵花的種類:鳶尾Setosa,雜色鳶尾Versicolour、弗吉尼亞鳶尾Virginica

實(shí)驗(yàn)五 貝葉斯分類器(模式識(shí)別與機(jī)器學(xué)習(xí))

實(shí)驗(yàn)步驟:

??數(shù)據(jù)訓(xùn)練

????????1. 計(jì)算先驗(yàn)概率:每類樣本占總樣本數(shù)的比例;

????????2. 根據(jù)概率密度函數(shù),計(jì)算各類樣本中各屬性取值的均值和方差。

?數(shù)據(jù)測(cè)試

????????1. 計(jì)算條件概率:根據(jù)訓(xùn)練集的均值方差,計(jì)算訓(xùn)練樣本的條件概率;

????????2. 計(jì)算測(cè)試樣本對(duì)于類別的判別概率。文章來源地址http://www.zghlxwxcb.cn/news/detail-494503.html

?naiveBayestrain.m

function [label_priorP,mu,sigma] = navieBayestrain(meas,specise)
% means    = 150 * 4
% specise  = 150 * 1

trainData = meas';  %訓(xùn)練數(shù)據(jù)集       4 *150
trainLabel = specise';  %訓(xùn)練類別集   1 * 150
classNum = length(unique(trainLabel));  %類別數(shù)  3

label_priorP = zeros(1,classNum);  %類別的先驗(yàn)概率    1*3


%將trainSet按類別分組,然后分別對(duì)每類的數(shù)據(jù)求出每個(gè)屬性的均值mu(Ak,Ci)和樣本標(biāo)準(zhǔn)差sigma(Ak,Ci)
%mu(Ak,Ci),sigma(Ak,Ci)表示第Ci類數(shù)據(jù)集的屬性Ak對(duì)應(yīng)的均值和樣本標(biāo)準(zhǔn)差

groupedSet = cell(1,classNum); %空的分組數(shù)據(jù)集矩陣   1*3 3個(gè)塊

%  eg
%   C = {1,2,3;
%     'text',rand(5,10,2),{11; 22; 33}}
%   C=2×3 cell array
%    {[   1]}    {[          2]}    {[     3]}
%    {'text'}    {5x10x2 double}    {3x1 cell}

%mu、sigma中每列為對(duì)應(yīng)類的均值列向量和標(biāo)準(zhǔn)差向量,size(trainSet,1)-1表示樣本的屬性數(shù)att_number
%mu(attNum,classNum),sigma(attnum,classNum)分別是第classNum類的第attNum個(gè)屬性的均值和標(biāo)準(zhǔn)差

mu = zeros(size(trainData,1),classNum);  % 4*3
sigma = zeros(size(trainData,1),classNum); % 4*3

trainLabel = grp2idx(trainLabel);
% 分類過程,返回所有的分類索引

trainLabel =trainLabel';
for sampleNum = 1:size(trainLabel,2)      %size(trainLabel,2)為訓(xùn)練樣本數(shù)
    
    label = trainLabel(1,sampleNum);
    
    %=====================================================================%
     %填空,計(jì)算每類樣本的個(gè)數(shù)
    label_priorP(1,label) = label_priorP(1,label)+1;
    %=====================================================================%
    groupedSet{1,label} = [groupedSet{1,label} trainData(:,sampleNum)];
end
%=====================================================================%
     %填空,計(jì)算每類的先驗(yàn)概率
     label_priorP =label_priorP ./sampleNum;
%=====================================================================%


%對(duì)于每一類 計(jì)算某類每個(gè)屬性的均值和樣本標(biāo)準(zhǔn)差

for label = 1:classNum  % 迭代每一類
    b = groupedSet{label}; %  4*50
    
%=====================================================================%
     %填空,計(jì)算每類中每個(gè)屬性的均值和標(biāo)準(zhǔn)差
     %第label個(gè)均值列向量;計(jì)算每類中每個(gè)屬性的均值
      mu(:,label) = mean(b,2);  
     %第label個(gè)標(biāo)準(zhǔn)差列向量;計(jì)算每類中每個(gè)屬性的標(biāo)準(zhǔn)差;按行求標(biāo)準(zhǔn)差
      sigma(:,label) = std(b,0,2);
%=====================================================================%

end

navieBayestest.m

function testClass = navieBayestest(meas,label_priorP,mu,sigma,classNum)

%  mu  sigma  4*3 行屬性 * 列類別

testClass = [];
testData = meas' ; %測(cè)試數(shù)據(jù)集;testData每列代表一個(gè)樣本 4 * 150

test_number = size(testData,2);%測(cè)試集樣本數(shù)
attr_number = size(testData,1);%測(cè)試集維數(shù);每個(gè)樣本的屬性個(gè)數(shù)

for testNum = 1:test_number  % 循環(huán)測(cè)試樣本
    X = testData(:,testNum);    %當(dāng)前測(cè)試樣本     4 * 1
%    prob = label_priorP;%先驗(yàn)概率    
%  for label = 1:classNum  % 3類
%         for k = 1:attr_number  % 4屬性
%      %填空:計(jì)算每類的條件概率與后驗(yàn)概率
%      
%      %計(jì)算條件概率
%      %此時(shí)prob已為后驗(yàn)概率
%              Pxk = 1/ (sigma(k,label)*sqrt(2 * pi) )* exp(-((X(k,1)-mu(k,label))^2 )/(2*sigma(k,label)^2));
%              prob(1,label) =prob(1,label) * Pxk;  
%         end    
%          %Pxk=1;
%     end
  
    
    %% 考核:請(qǐng)?jiān)趯?duì)數(shù)條件下實(shí)現(xiàn)方案一
%=====================================================================%
    prob = label_priorP;%先驗(yàn)概率
    %%計(jì)算測(cè)試樣本對(duì)于每類的后驗(yàn)概率
    for label = 1:classNum  % 3類
        for k = 1:attr_number  % 4屬性
%=====================================================================%
     %填空:計(jì)算每類的條件概率與后驗(yàn)概率
     
     %計(jì)算條件概率
     %此時(shí)prob已為后驗(yàn)概率
             Pxk = -log(sigma(k,label))-((X(k,1)-mu(k,label))^2 /(2 * sigma(k,label)^2));
             prob(1,label) =prob(1,label)+Pxk; 
%=====================================================================%
        end
        
    end
%=====================================================================%
 
    [value index] = max(prob);
    testClass = [testClass index];
end

main.m

clc;
clear all;
tic
load fisheriris
% plotmatrix(meas)

% meas 給出了每朵花的4個(gè)屬性
% species 說明了每朵花的種類
[label_priorP,mu,sigma] = navieBayestrain(meas,species);%需完成函數(shù) navieBayestrain()內(nèi)的填空


classNum = length(unique(species));  %類別數(shù)
testLabel = grp2idx(species);
testLabel =testLabel';

testClass = navieBayestest(meas,label_priorP,mu,sigma,classNum);%需完成函數(shù) navieBayestest()內(nèi)的填空

%識(shí)別率
accuracy=length(find(testLabel==testClass))/length(testLabel)
cMat2 = confusionmat(testLabel,testClass ) 
toc

到了這里,關(guān)于實(shí)驗(yàn)五 貝葉斯分類器(模式識(shí)別與機(jī)器學(xué)習(xí))的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 人工智能的分類:機(jī)器學(xué)習(xí)/專家系統(tǒng)/推薦系統(tǒng)/知識(shí)圖譜/強(qiáng)化學(xué)習(xí)/遷移學(xué)習(xí)/特征工程/模式識(shí)別

    機(jī)器學(xué)習(xí) 機(jī)器學(xué)習(xí)算法工程師:技術(shù)路線、方向選擇、職業(yè)規(guī)劃、最新技術(shù)(從小白到大魔王全攻略)_會(huì)害羞的楊卓越的博客-CSDN博客 專家系統(tǒng) 知識(shí)圖譜 知識(shí)圖譜:實(shí)體-關(guān)系-實(shí)體/知識(shí)建模/知識(shí)獲取/知識(shí)融合/知識(shí)存儲(chǔ)/知識(shí)應(yīng)用_會(huì)害羞的楊卓越的博客-CSDN博客 特征工程

    2024年02月16日
    瀏覽(25)
  • 機(jī)器學(xué)習(xí)--樸素貝葉斯分類器

    第1關(guān):條件概率 什么是條件概率 概率指的是某一事件 A 發(fā)生的可能性,表示為 P(A) 。而條件概率指的是某一事件 A 已經(jīng)發(fā)生了條件下,另一事件 B 發(fā)生的可能性,表示為 P(B|A) ,舉個(gè)例子: 今天有 25% 的可能性下雨,即 P(下雨)=0.25 ; 今天 75% 的可能性是晴天,即 P(晴天)=0.7

    2024年02月08日
    瀏覽(18)
  • 機(jī)器學(xué)習(xí)期末復(fù)習(xí) 貝葉斯分類器

    機(jī)器學(xué)習(xí)期末復(fù)習(xí) 貝葉斯分類器

    先驗(yàn)概率: 對(duì)于某一個(gè)概率事件,我們都會(huì)有基于自己已有的知識(shí),對(duì)于這個(gè)概率事件會(huì)分別以什么概率出現(xiàn)各種結(jié)果會(huì)有一個(gè)預(yù)先的估計(jì),而這個(gè)估計(jì)并未考慮到任何相關(guān)因素。 對(duì)于分類數(shù)據(jù)來說,先驗(yàn)概率就是取某一類的概率。 (基于自己已有的知識(shí)-已有的數(shù)據(jù)) (

    2024年02月06日
    瀏覽(17)
  • 機(jī)器學(xué)習(xí)——基于樸素貝葉斯分類算法實(shí)現(xiàn)垃圾郵件分類

    機(jī)器學(xué)習(xí)——基于樸素貝葉斯分類算法實(shí)現(xiàn)垃圾郵件分類

    貝葉斯定理: 貝葉斯理論指的是,根據(jù)一個(gè)已發(fā)生事件的概率,計(jì)算另一個(gè)事件的發(fā)生概率。貝葉斯理論從數(shù)學(xué)上的表示可以寫成這樣:? ,在這里A和B都是事件,?P(B)P(B)不為0。 在貝葉斯定理中: 1. P(A) 稱為”先驗(yàn)概率”,即在B事件發(fā)生之前,我們對(duì)A事件概率的一個(gè)判斷。如

    2024年02月04日
    瀏覽(29)
  • 【機(jī)器學(xué)習(xí)】分類算法 - 樸素貝葉斯 MultinomialNB

    「作者主頁」: 士別三日wyx 「作者簡(jiǎn)介」: CSDN top100、阿里云博客專家、華為云享專家、網(wǎng)絡(luò)安全領(lǐng)域優(yōu)質(zhì)創(chuàng)作者 「推薦專欄」: 對(duì)網(wǎng)絡(luò)安全感興趣的小伙伴可以關(guān)注專欄《網(wǎng)絡(luò)安全入門到精通》 md5() 可以計(jì)算字符串的 「MD5散列值」 。 語法 參數(shù) $str :需要計(jì)算的字符串

    2024年02月14日
    瀏覽(28)
  • 機(jī)器學(xué)習(xí)筆記07---樸素貝葉斯分類器

    機(jī)器學(xué)習(xí)筆記07---樸素貝葉斯分類器

    貝葉斯決策論是概率框架下實(shí)施決策的基本方法。對(duì)分類任務(wù)來說,在所有相關(guān)概率都已知的理想情形下,貝葉斯決策論考慮如何基于這些概率和誤判損失來選擇最優(yōu)的類別標(biāo)記。 ? ? 貝葉斯公式: ?其中,P(c)是類\\\"先驗(yàn)\\\"概率;P(x|c)是樣本x相對(duì)于類標(biāo)記c的類條件概率,或稱

    2024年02月07日
    瀏覽(28)
  • 機(jī)器學(xué)習(xí)——樸素貝葉斯算法(垃圾郵件分類)

    機(jī)器學(xué)習(xí)——樸素貝葉斯算法(垃圾郵件分類)

    先驗(yàn)概率 :指的是 事件發(fā)生前 的預(yù)判概率,可以根據(jù)歷史數(shù)據(jù)/經(jīng)驗(yàn)估算得到。例如,當(dāng)我們需要判斷西瓜是不是好瓜的時(shí)候,對(duì)紋理、根蒂等特征都不了解,只是平常我們買西瓜的時(shí)候買到好瓜的概率是70%,那么這個(gè)西瓜是好瓜的概率我們也可以認(rèn)為是70%。這個(gè)概率70%就是

    2024年02月03日
    瀏覽(26)
  • 機(jī)器學(xué)習(xí)-基于樸素貝葉斯的垃圾郵件分類

    機(jī)器學(xué)習(xí)-基于樸素貝葉斯的垃圾郵件分類

    概率論是許多機(jī)器學(xué)習(xí)算法的基礎(chǔ),此篇博客會(huì)給出一些使用概率論進(jìn)行分類的方法。 首先從一個(gè)最簡(jiǎn)單的概率分類器開始,然后給出一些假設(shè)來學(xué)習(xí)樸素貝葉斯分類器。我們稱之為“樸素”,是因?yàn)檎麄€(gè)形式化過程只做最原始、最簡(jiǎn)單的假設(shè)。 我們還將構(gòu)建另一個(gè)分類器

    2024年02月02日
    瀏覽(25)
  • 《機(jī)器學(xué)習(xí)核心算法》分類算法 - 樸素貝葉斯 MultinomialNB

    《機(jī)器學(xué)習(xí)核心算法》分類算法 - 樸素貝葉斯 MultinomialNB

    「作者主頁」: 士別三日wyx 「作者簡(jiǎn)介」: CSDN top100、阿里云博客專家、華為云享專家、網(wǎng)絡(luò)安全領(lǐng)域優(yōu)質(zhì)創(chuàng)作者 「推薦專欄」: 小白零基礎(chǔ)《Python入門到精通》 樸素貝葉斯法(Naive Bayes model 簡(jiǎn)稱 NBM )是基于 「貝葉斯定理」 與 「特征條件獨(dú)立假設(shè)」 的分類方法。 「貝

    2024年02月08日
    瀏覽(54)
  • 機(jī)器學(xué)習(xí):基于樸素貝葉斯(Naive Bayes)的分類預(yù)測(cè)

    機(jī)器學(xué)習(xí):基于樸素貝葉斯(Naive Bayes)的分類預(yù)測(cè)

    目錄 一、簡(jiǎn)介和環(huán)境準(zhǔn)備 簡(jiǎn)介: 環(huán)境: 二、實(shí)戰(zhàn)演練 2.1使用葡萄(Wine)數(shù)據(jù)集,進(jìn)行貝葉斯分類 1.數(shù)據(jù)導(dǎo)入 2.模型訓(xùn)練 3.模型預(yù)測(cè) 2.2模擬離散數(shù)據(jù)集–貝葉斯分類 1.數(shù)據(jù)導(dǎo)入、分析 2.模型訓(xùn)練、預(yù)測(cè) ?三、原理解析 樸素貝葉斯算法 優(yōu)缺點(diǎn): 樸素貝葉斯(Naive Bayes, NB)?是

    2023年04月19日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包