国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量

這篇具有很好參考價(jià)值的文章主要介紹了為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

前言

一、實(shí)驗(yàn)?zāi)康?/p>

二、實(shí)驗(yàn)環(huán)境

三、實(shí)驗(yàn)內(nèi)容與結(jié)果

1、SVM(support vector Machine)是什么?

2、SVM能干什么?

3、SVM如何實(shí)現(xiàn)?

4、獨(dú)熱編碼:獨(dú)熱編碼(One-Hot Encoding) - 知乎

5、?隨機(jī)森林算法的基本原理

四、模型構(gòu)建

1、讀入數(shù)據(jù)

2、數(shù)據(jù)初始化

3、訓(xùn)練模型,評(píng)價(jià)分類器性能

4、將數(shù)據(jù)集拆分為訓(xùn)練集和測試集,在測試集上查看分類效果

5、數(shù)據(jù)處理

總結(jié)



前言

隨著人工智能的不斷發(fā)展,機(jī)器學(xué)習(xí)這門技術(shù)也越來越重要,很多人都開啟了學(xué)習(xí)機(jī)器學(xué)習(xí),本文就介紹了機(jī)器學(xué)習(xí)的基礎(chǔ)內(nèi)容。


一、實(shí)驗(yàn)?zāi)康?/h2>
  1. 掌握機(jī)器學(xué)習(xí)建模分析
  2. 掌握回歸分析、分類分析、聚類分析、降維等
  3. 了解各分類器之間的差異

二、實(shí)驗(yàn)環(huán)境

  1. ??操作系統(tǒng):Windows
  2. ??應(yīng)用軟件:anaconda jupyter

三、實(shí)驗(yàn)內(nèi)容與結(jié)果

1、SVM(support vector Machine)是什么?

支持向量機(jī)是基于數(shù)學(xué)優(yōu)化方法的分類學(xué)習(xí)算法

? 通過使用最大分類間隔(Margin)來確定最優(yōu)的最優(yōu)的劃分超平面,以獲得良好的泛化能力

? 通過核函數(shù)的方法將低維數(shù)據(jù)映射到高維空間,并使得在高維空間的數(shù)據(jù)是線性可分的,從而能夠處理低維空間中線性不可分的情況

具體理解可參考以下鏈接:[白話解析] 深入淺出支持向量機(jī)(SVM)之核函數(shù) - 騰訊云開發(fā)者社區(qū)-騰訊云

2、SVM能干什么?

? SVM最基本的應(yīng)用:分類

? ? ?求解一個(gè)最優(yōu)的分類面,將數(shù)據(jù)集分割為兩個(gè)的子集

? ? ?數(shù)據(jù)集在低維空間中無法使用超平面劃分

? ? ?映射到高維空間,尋找超平面分割

?3、SVM如何實(shí)現(xiàn)?

SVM采用核函數(shù)(Kernel Function)將低維數(shù)據(jù)映射到高維空間

? ? ?多種核函數(shù),適應(yīng)不同特性的數(shù)據(jù)集,影響SVM分類性能的關(guān)鍵因素
? ? ?常用的核函數(shù):線性核、多項(xiàng)式核、高斯核和sigmoid核等

為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量

4、獨(dú)熱編碼:獨(dú)熱編碼(One-Hot Encoding) - 知乎

可以大概這么理解:平等地位的就獨(dú)熱編碼,有大小順序的就標(biāo)簽編碼;

其實(shí)嚴(yán)格來說性別也應(yīng)該獨(dú)熱編碼,因?yàn)樗麄兪瞧降鹊摹?/p>

5、?隨機(jī)森林算法的基本原理

核心思想是“三個(gè)臭皮匠,頂個(gè)諸葛亮”

? 通過隨機(jī)的方式建立一個(gè)森林
? 每棵樹都是由從訓(xùn)練集中抽取的部分樣本,且基于部分隨機(jī)選擇的特征子集訓(xùn)練構(gòu)建
? 預(yù)測未知數(shù)據(jù)時(shí),多個(gè)決策樹投票決定最終結(jié)果:如果是數(shù)值形的輸出,則采取多個(gè)決策樹結(jié)果的平均或者加權(quán)作為最終輸出;如果是分類任務(wù),則采取投票機(jī)制或者是加權(quán)作為最終輸出。?

四、模型構(gòu)建

例題

1.使用scikit-learn建立SVM模型為葡萄酒數(shù)據(jù)集構(gòu)造分類器(分類結(jié)果為’good’或‘not’ ) [“不可使用quantity”列]

2.評(píng)估分類器在此數(shù)據(jù)集上的分類性能* 需要?jiǎng)澐钟?xùn)練集和測試集

1、讀入數(shù)據(jù)

為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量

原始數(shù)據(jù)共有3899條。?

代碼如下:

import pandas as pd
filename='data\wine.csv'
data=pd.read_csv(filename,index_col='idx')
data.loc[data['good_or_not']=='good','good_or_not']=1
data.loc[data['good_or_not']=='not','good_or_not']=0
data.drop('quality',axis=1,inplace=True)
print(data[0:5])

為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量

?2、數(shù)據(jù)初始化

代碼如下(示例):

from sklearn.model_selection import train_test_split
from sklearn.svm import SVC
from sklearn.preprocessing import MinMaxScaler
x = data.drop('good_or_not', axis=1).values.astype(float)
y = data['good_or_not'].values.astype(float)
print(type(x),type(y))

3、訓(xùn)練模型,評(píng)價(jià)分類器性能

from sklearn import svm
clf = svm.SVC(kernel='rbf', gamma=0.6,  C=100)
clf.fit(x,y)
print('Accuracy = ', clf.score(x, y))

y_pred = clf.predict(x)
from sklearn import metrics
print(metrics.classification_report( y, y_pred) )

?為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量

?4、將數(shù)據(jù)集拆分為訓(xùn)練集和測試集,在測試集上查看分類效果

from sklearn import svm
from sklearn import model_selection
x_train, x_test,  y_train, y_test = model_selection.train_test_split(x, y, test_size=0.2,random_state=1)
clf = svm.SVC(kernel='rbf',gamma=0.7, C=1)
clf.fit(x_train, y_train)
b = clf.score(x_train, y_train)
print("訓(xùn)練集準(zhǔn)確率:",b)
a = clf.score(x_test, y_test)
print("測試集準(zhǔn)確率:",a)

為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量?

?5、數(shù)據(jù)處理

from sklearn import preprocessing
from sklearn import model_selection
% 對(duì)不同方差的數(shù)據(jù)標(biāo)準(zhǔn)化
x_scale = preprocessing.scale(x)
%將標(biāo)準(zhǔn)化后的數(shù)據(jù)集拆分為訓(xùn)練集和測試集,在測試集上查看分類效果
from sklearn import svm
x_train, x_test,  y_train, y_test = model_selection.train_test_split(x_scale, y, test_size=0.2,random_state=1)
clf = svm.SVC(kernel='rbf',gamma=0.7, C=30)
clf.fit(x_train, y_train)
y_pred = clf.predict(x_test)
a = clf.score(x_test, y_test)
print(a)
print(metrics.classification_report(y_test, y_pred))
print(metrics.confusion_matrix(y_test, y_pred))

為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量


3.使用scikit-learn建立隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量(1-10之間)[“不可使用good_or_not”列]

step 1. 從文件中讀入數(shù)據(jù),進(jìn)行預(yù)處理,將所有特征轉(zhuǎn)換為數(shù)值型?

import numpy as np
import pandas as pd
filename='data\wine.csv'
data=pd.read_csv(filename,index_col='idx')
data.drop('good_or_not',axis=1,inplace=True)
x = data.drop('quality', axis=1).values.astype(float)
y = data['quality'].values.astype(float)

step 2. 從DataFrame對(duì)象中取出特征矩陣X和分類標(biāo)簽y,無需進(jìn)行歸一化處理

%劃分測試集和訓(xùn)練集
from sklearn import model_selection
x_train, x_test, y_train, y_test = model_selection.train_test_split(x,y, test_size=0.3, random_state=1)

step 3. 使用隨機(jī)森林算法訓(xùn)練集成分類器

參數(shù)n_ estimators和max_depth的設(shè)置直接影響模型的性能

且不同的數(shù)據(jù)集取值差別較大,通常通過搜索的方式找出合適的值

from sklearn.ensemble import RandomForestClassifier
%固定決策樹個(gè)數(shù),搜索最大深度max_depth在給定范圍內(nèi)的最優(yōu)取值
%從1到10中探索最優(yōu)深度
d_score = []
for i in range(1,10):
    RF = RandomForestClassifier(n_estimators=15, criterion='entropy', max_depth=i)
    RF.fit(x_train, y_train)
    d_score.append(RF.score(x_test, y_test))
    
depth = d_score.index(max(d_score)) #列表求最大值的索引
print(depth,d_score[depth])

為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量

% 按最優(yōu)深度,搜索最優(yōu)決策樹個(gè)樹n_estimators
% 從1到21中探索最優(yōu)決策樹的數(shù)目
e_score = []
for i in range(1,21):
    RF = RandomForestClassifier(n_estimators=i, criterion='entropy', max_depth=depth)
    RF.fit(x_train, y_train)
    e_score.append(RF.score(x_test, y_test))
    
est = e_score.index(max(e_score))
print(est,e_score[est])

?為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量

%雙層搜索

scores = [] % 記錄深度
pos = [] %記錄決策樹數(shù)目

for i in range(1, 10): %深度
    temp = [] 
    for j in range(1, 40): % 決策樹數(shù)目
        RF = RandomForestClassifier(n_estimators=j, criterion='entropy', max_depth=i)
        RF.fit(x_train, y_train)
        temp.append(RF.score(x_test, y_test))
    scores.append(max(temp))% 存儲(chǔ)這21個(gè)中表現(xiàn)最好的模型的scores
    pos.append(temp.index(max(temp))) % 存儲(chǔ)表現(xiàn)最好的模型的決策樹數(shù)目

max_scores = max(scores) % 找出每種深度下的所有模型的最好模型
si = scores.index(max(scores)) % 該最好模型對(duì)應(yīng)的決策樹的數(shù)目
depth = pos[si]
print(max_scores, depth)

?為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量

總結(jié)

以上就是今天要講的內(nèi)容,本文僅僅簡單介紹了使用SVM模型對(duì)葡萄酒的數(shù)據(jù)進(jìn)行回歸分析的使用,SVM的算法添加了限制條件,來保證盡可能減少不可分割的點(diǎn)的影響,使分割達(dá)到相對(duì)最優(yōu)。文章來源地址http://www.zghlxwxcb.cn/news/detail-424912.html

到了這里,關(guān)于為葡萄酒數(shù)據(jù)集構(gòu)造SVM分類器和使用隨機(jī)森林回歸模型預(yù)測葡萄酒質(zhì)量的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【數(shù)據(jù)挖掘】葡萄酒質(zhì)量分析及異常值檢測

    【數(shù)據(jù)挖掘】葡萄酒質(zhì)量分析及異常值檢測

    葡萄酒在人類歷史中扮演著非常重要的角色,它能舒緩疲勞、減輕病痛、消毒殺菌、美容養(yǎng)顏等等直到19世紀(jì)晚期,葡萄酒都是西方醫(yī)學(xué)中不可缺少的用品,適量飲用對(duì)人的身體會(huì)有益處。無論是用于交際會(huì)談,還是滋身養(yǎng)顏,優(yōu)良的葡萄酒因其獨(dú)特的風(fēng)味與絕佳的品質(zhì)往往

    2024年02月04日
    瀏覽(42)
  • 數(shù)據(jù)分析案例-基于PCA主成分分析法對(duì)葡萄酒數(shù)據(jù)進(jìn)行分析

    數(shù)據(jù)分析案例-基于PCA主成分分析法對(duì)葡萄酒數(shù)據(jù)進(jìn)行分析

    ???♂? 個(gè)人主頁:@艾派森的個(gè)人主頁 ???作者簡介:Python學(xué)習(xí)者 ?? 希望大家多多支持,我們一起進(jìn)步!?? 如果文章對(duì)你有幫助的話, 歡迎評(píng)論 ??點(diǎn)贊???? 收藏 ??加關(guān)注+ 目錄 1.項(xiàng)目背景 2.項(xiàng)目簡介 2.1分析目標(biāo) 2.2數(shù)據(jù)集介紹 2.3技術(shù)工具 3.算法理論 4.實(shí)驗(yàn)過程

    2024年02月03日
    瀏覽(27)
  • 6.1 葡萄酒評(píng)論分析報(bào)告

    任務(wù)描述 本關(guān)任務(wù):編寫程序,多維度分析葡萄酒數(shù)據(jù)。 第1關(guān)? 葡萄酒評(píng)論分析報(bào)告——國家列表和平均分 代碼如下: 第2關(guān)?葡萄酒評(píng)論分析報(bào)告——平均分排序和評(píng)分最高 代碼如下: 第3關(guān)?葡萄酒評(píng)論分析報(bào)告——價(jià)格最高和葡萄酒評(píng)分 代碼如下: 嘗試靜下心來做自

    2024年02月06日
    瀏覽(50)
  • 基于K近鄰的葡萄酒質(zhì)量檢測項(xiàng)目

    基于K近鄰的葡萄酒質(zhì)量檢測項(xiàng)目

    ?? 項(xiàng)目專欄:【機(jī)器學(xué)習(xí)項(xiàng)目實(shí)戰(zhàn)案例目錄】項(xiàng)目詳解 + 完整源碼 ?? 『精品學(xué)習(xí)專欄導(dǎo)航帖』 ??

    2024年02月03日
    瀏覽(40)
  • 【數(shù)學(xué)建?!繃愓骖}分析 2012 A題 葡萄酒的評(píng)價(jià)

    【數(shù)學(xué)建?!繃愓骖}分析 2012 A題 葡萄酒的評(píng)價(jià)

    優(yōu)秀論文地址: 鏈接:https://pan.baidu.com/s/19WGpybgM6RncxTYhx61JRA?pwd=vl22 提取碼:vl22 –來自百度網(wǎng)盤超級(jí)會(huì)員V6的分享 確定葡萄酒質(zhì)量時(shí)一般是通過聘請(qǐng)一批有資質(zhì)的評(píng)酒員進(jìn)行品評(píng)。每個(gè)評(píng)酒員在對(duì)葡萄酒進(jìn)行品嘗后對(duì)其分類指標(biāo)打分,然后求和得到其總分,從而確定葡萄酒的

    2024年02月12日
    瀏覽(19)
  • 僅記錄我的第一次數(shù)學(xué)建?!咸丫频脑u(píng)價(jià)

    僅記錄我的第一次數(shù)學(xué)建?!咸丫频脑u(píng)價(jià)

    僅以此來記錄我的數(shù)學(xué)建模課小組作業(yè) ?2022.11.3周四運(yùn)動(dòng)會(huì)放假,終于有時(shí)間做數(shù)學(xué)建模啦(月底就要答辯了,今日數(shù)學(xué)建模小組作業(yè)進(jìn)度2.6666%, ?2022.11.23哈哈哈哈哈哈終于寫完了,但! tm查重30% 要求20%,累了,改不動(dòng)了,開擺(真服了,為啥找個(gè)負(fù)責(zé)有能力的隊(duì)友比世界

    2024年02月12日
    瀏覽(24)
  • 2012年數(shù)學(xué)建模國賽A題(葡萄酒質(zhì)量評(píng)價(jià))優(yōu)秀論文.doc

    本博客下載鏈接包含修改的word版本, 可免費(fèi)下載閱覽學(xué)習(xí), 也可作為數(shù)學(xué)建模相關(guān)課程作業(yè)修改上交: 鏈接:https://pan.baidu.com/s/1JaNsp6aVhl0xLuESsKwv4Q?pwd=qtnc? 提取碼:qtnc 葡萄酒的評(píng)價(jià) 摘要 ? ? ?如今葡萄酒逐漸成為人們?cè)絹碓较矏鄣娘嬈?。本文主要針?duì)葡萄酒的評(píng)價(jià)問題,利用

    2024年02月11日
    瀏覽(31)
  • 使用matlab里的SVM進(jìn)行數(shù)據(jù)分類預(yù)測

    在MATLAB中使用支持向量機(jī)(SVM)進(jìn)行數(shù)據(jù)分類預(yù)測的示例代碼如下: 該示例代碼假設(shè)您已經(jīng)擁有特征矩陣X和對(duì)應(yīng)的標(biāo)簽向量Y。首先,將數(shù)據(jù)集劃分為訓(xùn)練集和測試集。然后,使用 fitcsvm 函數(shù)建立支持向量機(jī)(SVM)模型,并設(shè)置相關(guān)參數(shù),如核函數(shù)。接下來,使用訓(xùn)練好的模型對(duì)測

    2024年02月16日
    瀏覽(25)
  • 使用python中的SVM進(jìn)行數(shù)據(jù)分類預(yù)測

    在Python中使用支持向量機(jī)(SVM)進(jìn)行數(shù)據(jù)分類預(yù)測的示例代碼如下: 該示例代碼使用了 sklearn 庫中的 SVC 類來構(gòu)建支持向量機(jī)(SVM)模型。首先,將數(shù)據(jù)集劃分為訓(xùn)練集和測試集;然后創(chuàng)建一個(gè)SVM模型,設(shè)置參數(shù),如選擇線性核函數(shù);接下來使用訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練;最后,

    2024年02月15日
    瀏覽(22)
  • 機(jī)器學(xué)習(xí)之SVM分類器介紹——核函數(shù)、SVM分類器的使用

    機(jī)器學(xué)習(xí)之SVM分類器介紹——核函數(shù)、SVM分類器的使用

    機(jī)器學(xué)習(xí)算法——KD樹算法介紹以及案例介紹 機(jī)器學(xué)習(xí)的一些常見算法介紹【線性回歸,嶺回歸,套索回歸,彈性網(wǎng)絡(luò)】 一、SVM支持向量機(jī)介紹 1.1、SVM介紹 1.2、幾種核函數(shù)簡介 a、sigmoid核函數(shù) ?b、非線性SVM與核函數(shù) 重要參數(shù)kernel作為SVC類最重要的參數(shù)之一,“kernel\\\"在skl

    2024年02月04日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包