国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

數(shù)據(jù)分析案例-基于PCA主成分分析法對葡萄酒數(shù)據(jù)進行分析

這篇具有很好參考價值的文章主要介紹了數(shù)據(jù)分析案例-基于PCA主成分分析法對葡萄酒數(shù)據(jù)進行分析。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

???♂? 個人主頁:@艾派森的個人主頁

???作者簡介:Python學(xué)習(xí)者
?? 希望大家多多支持,我們一起進步!??
如果文章對你有幫助的話,
歡迎評論 ??點贊???? 收藏 ??加關(guān)注+


目錄

1.項目背景

2.項目簡介

2.1分析目標

2.2數(shù)據(jù)集介紹

2.3技術(shù)工具

3.算法理論

4.實驗過程

4.1數(shù)據(jù)探索

4.2 PCA主成分分析

4.3 構(gòu)建模型

5.總結(jié)

源代碼


摘要

????????葡萄酒作為世界上最早的飲料酒之一,其品質(zhì)和文化早已被人們所認可。據(jù)統(tǒng)計2021年,全球葡萄酒產(chǎn)量260億升,較2020年下降了近1%,至此已連續(xù)3年略低于10年平均水平。由于我國本土葡萄酒長期以來受到進口葡萄酒的沖擊及2020年疫情期間節(jié)日聚會、家庭餐會均被取消,餐飲業(yè)完全停滯,導(dǎo)致葡萄酒的需求短期內(nèi)大幅下降。2020年我國葡萄酒行業(yè)市場規(guī)模下滑至498.2億元,2021年小幅度上漲至510.8億元。預(yù)計2022年我國葡萄酒行業(yè)市場規(guī)模將進一步上升至587.2億元。本次實驗使用葡萄酒數(shù)據(jù)集進行主成分分析,最后構(gòu)建葡萄酒分類模型,用來對葡萄酒的分類。

1.項目背景

????????作為世界上最早的飲料酒之一,葡萄酒的發(fā)展與西方文明緊密相關(guān)。根據(jù)釀造歷史和生產(chǎn)工藝,葡萄酒生產(chǎn)國被劃分為傳統(tǒng)釀造工藝為代表的“舊世界”,包括法國、意大利、西班牙、德國等,以及以現(xiàn)代釀造技術(shù)為代表的“新世界”,包括美國、澳大利亞、新西蘭、智利、阿根廷和南非等。據(jù)統(tǒng)計2021年,全球葡萄酒產(chǎn)量260億升,較2020年下降了近1%,至此已連續(xù)3年略低于10年平均水平。受霜凍影響,歐盟的葡萄酒產(chǎn)量153.7億升,較2020年下降8%。這主要是由于2021年4月份霜凍導(dǎo)致法國葡萄酒產(chǎn)量大幅下降。意大利(50.2億升,增2%)、法國(37.6億升,降19%)、西班牙(35.3億升,降14%)三個國家占全球葡萄酒產(chǎn)量的47%。

????????由于我國本土葡萄酒長期以來受到進口葡萄酒的沖擊及2020年疫情期間節(jié)日聚會、家庭餐會均被取消,餐飲業(yè)完全停滯,導(dǎo)致葡萄酒的需求短期內(nèi)大幅下降。2020年我國葡萄酒行業(yè)市場規(guī)模下滑至498.2億元,2021年小幅度上漲至510.8億元。預(yù)計2022年我國葡萄酒行業(yè)市場規(guī)模將進一步上升至587.2億元。

????????葡萄酒行業(yè)產(chǎn)業(yè)鏈上游參與主體為原材料及相關(guān)設(shè)備,主要包括葡萄、淀粉、酵母、食品添加劑、包裝材料和釀造設(shè)備等;中游為葡萄酒行業(yè),主要有白葡萄酒、紅葡萄酒和桃紅葡萄酒三大類;下游為各類消費渠道,最后到達終端消費者。近年來,隨著葡萄酒產(chǎn)業(yè)鏈延伸,出現(xiàn)了各類“葡萄酒+”產(chǎn)業(yè)的新型模式,如“葡萄酒+旅游”、“葡萄酒+科技”等。

????????隨著我國全面步入小康社會,人們的生活水平不斷提高,消費市場持續(xù)升級,為具有一定品牌溢價能力的中高端葡萄酒帶來較大發(fā)展空間。經(jīng)過近幾年的努力,中國葡萄酒的品質(zhì)與風(fēng)味已經(jīng)贏得廣大消費者認可,這也為中國葡萄酒搏擊中高端葡萄酒市場奠定了基礎(chǔ)。綜合看來,中高端葡萄酒將是2022年乃至中國葡萄酒產(chǎn)業(yè)更長時間的發(fā)展熱點。

????????近年來,隨著民族、文化自信等因素助力國產(chǎn)品牌崛起,中國葡萄酒品質(zhì)與世界接軌,屢次斬獲國際性大獎,越來越多的消費者和經(jīng)銷商關(guān)注并選擇國產(chǎn)葡萄酒。國產(chǎn)葡萄酒收割存量市場持續(xù)加速,“國產(chǎn)”替代“進口”的趨勢明顯。同時,伴隨著進口葡萄酒的持續(xù)下滑,國產(chǎn)葡萄酒的替代效應(yīng)越發(fā)明顯。預(yù)計2022年,我國葡萄酒行業(yè)國產(chǎn)替代的速度將進一步加快。

2.項目簡介

2.1分析目標

????????通過研究葡萄酒數(shù)據(jù)集做出以下分析:

①使用主成分分析對數(shù)據(jù)進行降維分析

②構(gòu)建葡萄酒分類模型

2.2數(shù)據(jù)集介紹

????????wine樣本數(shù)據(jù)集中是double類型的178 * 14矩陣包括了三種酒中13種不同成分的數(shù)量。文件中,每行代表一種酒的樣本,共有178個樣本,一共有14列,其中,第一個屬性是類標識符,分別是1/2/3來表示,代表葡萄酒的三個分類。后面的13列為每個樣本的對應(yīng)屬性的樣本值。剩余的13個屬性是,酒精、蘋果酸、灰、灰分的堿度、鎂、總酚、黃酮類化合物、非黃烷類酚類、原花色素、顏色強度、色調(diào)、稀釋葡萄酒的OD280/OD315、脯氨酸。其中第1類有59個樣本,第2類有71個樣本,第3類有48個樣本。具體屬性描述如下:

屬性

屬性描述

target

類別

Alcohol

酒精

Malic acid

蘋果酸

Ash

Alkalinity of ash

灰分的堿度

Magnesium

Total phenoids

總酚

Flavonoids

黃酮類化合物

Noflavanoid phenols

非黃烷類酚類

Proanthocyanins

原花色素

Color intensity

顏色強度

Hue

色調(diào)

0D280/0315ofdiluted wines

稀釋葡萄酒的0D280/0315

proline

脯氨酸

2.3技術(shù)工具

Python版本:3.9

編譯工具:jupyter notebook

3.算法理論

主成分分析簡介

? ?主成分分析是數(shù)據(jù)降維算法的一種,降維是將高維度的數(shù)據(jù)(指標太多)保留下最重要的一些特征,去除噪聲和不重要的特征,從而實現(xiàn)提升數(shù)據(jù)處理速度的目的。

????????主成分分析是利用降維的思想,在損失很少信息的前提下把多個指標轉(zhuǎn)化為幾個綜合指標的多元統(tǒng)計方法。通常把轉(zhuǎn)化生成的綜合指標稱之為主成分,其中每個主成分都是原始變量的線性組合,且各個主成分之間互不相關(guān),這就使得主成分比原始變量具有某些更優(yōu)越的性能。這樣在研究復(fù)雜問題時就可以只考慮少數(shù)幾個主成分而不至于損失太多信息,從而更容易抓住主要矛盾,揭示事物內(nèi)部變量之間的規(guī)律性,同時使問題得到簡化,提高分析效率。

????????主成分分析正是研究如何通過原來變量的少數(shù)幾個線性組合來解釋原來變量絕大多數(shù)信息的一種多元統(tǒng)計方法。

主成分分析的思想

假設(shè)有 n nn 個樣本,p pp 個指標,則可構(gòu)成大小為 n × p n\times pn×p 的樣本矩陣 x xx:

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

主成分分析的計算步驟

假設(shè)有 n? 個樣本,p 個指標,則可構(gòu)成大小為 n × p的樣本矩陣 x :

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

1. 首先對其進行標準化處理:

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

2. 計算標準化樣本查的協(xié)方差矩陣:

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

1、2步驟可以合成一步:

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

4. 計算主成分共享率以及累計貢獻率:

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

5. 寫出主成分:

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

6. 根據(jù)系數(shù)分析主成分代表的意義:

?對于某個主成分而言,指標前面的系數(shù)越大,代表該指標對于該主成分的影響越大。

部分說明

一組數(shù)據(jù)是否可以用主成分分析,必須做適合性檢驗。可以用球形檢驗和KMO統(tǒng)計量檢驗。

1)球形檢驗(Bartlett)

??????? 球形檢驗的假設(shè):

???????????????? H0:相關(guān)系數(shù)矩陣為單位陣(即變量不相關(guān))

??????????????? ?H1:相關(guān)系數(shù)矩陣不是單位陣(即變量間有相關(guān)關(guān)系)

2)KMO(Kaiser-Meyer-Olkin)統(tǒng)計量

??????? KMO統(tǒng)計量比較樣本相關(guān)系數(shù)與樣本偏相關(guān)系數(shù),它用于檢驗樣本是否適于作主成分分析。

??????? KMO的值在0,1之間,該值越大,則樣本數(shù)據(jù)越適合作主成分分析和因子分析。一般要求該值大于0.5,方可作主成分分析或者相關(guān)分析。

??????? Kaiser在1974年給出了經(jīng)驗原則:

??????????????? 0.9以上?????? 適合性很好

??????????????? 0.8~0.9??????? 適合性良好

??????????????? 0.7~0.8??????? 適合性中等

?????? ?????????0.6~0.7??????? 適合性一般

??????????????? 0.5~0.6??????? 適合性不好

??????????????? 0.5以下?????? 不能接受的???????

4.實驗過程

4.1數(shù)據(jù)探索

加載葡萄酒數(shù)據(jù)集

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

使用shape屬性查看數(shù)據(jù)共有多少行多少列

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

原數(shù)據(jù)有178行,13列

使用info()查看基本信息

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

從結(jié)果中可以看出數(shù)據(jù)集沒有缺失值且都為浮點數(shù)類型。

4.2 PCA主成分分析

1.巴特利球形檢驗

檢驗總體變量的相關(guān)矩陣是否是單位陣(相關(guān)系數(shù)矩陣對角線的所有元素均為1,所有非對角線上的元素均為零);即檢驗各個變量是否各自獨立。

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

從結(jié)果中看出P值遠小于0.05,拒絕原假設(shè),說明變量之間有相關(guān)關(guān)系,可以做主成分分析。

2.求相關(guān)矩陣

①標準化

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

②求相關(guān)系數(shù)矩陣

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

③求特征值和特征向量

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

3.對特征值進行排序并輸出

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

?4.繪制散點圖和折線圖

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

從圖中得出主成分分析的K值應(yīng)為4比較好。

5.求特征值的貢獻度

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

6.求特征值的累計貢獻度

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

7.選出主成分

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

8.選出主成分對應(yīng)的特征向量矩陣

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

9.求主成分得分

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

10.繪制熱力圖

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

4.3 構(gòu)建模型

在構(gòu)建模型之前,先進行特征選擇,選出建模需要的數(shù)據(jù)(這里先使用經(jīng)過主成分分析后的數(shù)據(jù)),再拆分數(shù)據(jù)集為訓(xùn)練集和測試集。

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

構(gòu)建隨機森林模型

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

可以看出經(jīng)過主成分分析后的模型準確率為0.972。

接著我們使用原始數(shù)據(jù),也就是沒有經(jīng)過主成分分析處理的數(shù)據(jù)來構(gòu)建模型看看效果。

pca數(shù)據(jù)示例,數(shù)據(jù)分析,數(shù)據(jù)分析,pandas,數(shù)據(jù)挖掘,python,人工智能

從結(jié)果看出沒有經(jīng)過主成分分析處理的數(shù)據(jù)最后構(gòu)建的模型準確率為0.944,明顯看出經(jīng)過主成分分析處理的模型準確率提高了不少。

5.總結(jié)

????????本次實驗對葡萄酒數(shù)據(jù)進行了主成分分析,將13維的數(shù)據(jù)降到了4維,最后通過構(gòu)建邏輯回歸分類模型得出的模型準確率為0.97,相比于沒有經(jīng)過主成分分析處理的數(shù)據(jù)構(gòu)建的模型而言,經(jīng)過處理后的數(shù)據(jù)構(gòu)建的模型準確率提高了3%,說明本次主成分分析是有效果的,最后構(gòu)建的模型效果也很不錯。

????????通過這次Python項目實戰(zhàn),我學(xué)到了許多新的知識,這是一個讓我把書本上的理論知識運用于實踐中的好機會。原先,學(xué)的時候感嘆學(xué)的資料太難懂,此刻想來,有些其實并不難,關(guān)鍵在于理解。

????????在這次實戰(zhàn)中還鍛煉了我其他方面的潛力,提高了我的綜合素質(zhì)。首先,它鍛煉了我做項目的潛力,提高了獨立思考問題、自我動手操作的潛力,在工作的過程中,復(fù)習(xí)了以前學(xué)習(xí)過的知識,并掌握了一些應(yīng)用知識的技巧等

在此次實戰(zhàn)中,我還學(xué)會了下面幾點工作學(xué)習(xí)心態(tài):

1)繼續(xù)學(xué)習(xí),不斷提升理論涵養(yǎng)。在信息時代,學(xué)習(xí)是不斷地汲取新信息,獲得事業(yè)進步的動力。作為一名青年學(xué)子更就應(yīng)把學(xué)習(xí)作為持續(xù)工作用心性的重要途徑。走上工作崗位后,我會用心響應(yīng)單位號召,結(jié)合工作實際,不斷學(xué)習(xí)理論、業(yè)務(wù)知識和社會知識,用先進的理論武裝頭腦,用精良的業(yè)務(wù)知識提升潛力,以廣博的社會知識拓展視野。

2)努力實踐,自覺進行主角轉(zhuǎn)化。只有將理論付諸于實踐才能實現(xiàn)理論自身的價值,也只有將理論付諸于實踐才能使理論得以檢驗。同樣,一個人的價值也是透過實踐活動來實現(xiàn)的,也只有透過實踐才能鍛煉人的品質(zhì),彰顯人的意志。

3)提高工作用心性和主動性。實習(xí),是開端也是結(jié)束。展此刻自我面前的是一片任自我馳騁的沃土,也分明感受到了沉甸甸的職責。在今后的工作和生活中,我將繼續(xù)學(xué)習(xí),深入實踐,不斷提升自我,努力創(chuàng)造業(yè)績,繼續(xù)創(chuàng)造更多的價值。

這次Python實戰(zhàn)不僅僅使我學(xué)到了知識,豐富了經(jīng)驗。也幫忙我縮小了實踐和理論的差距。在未來的工作中我會把學(xué)到的理論知識和實踐經(jīng)驗不斷的應(yīng)用到實際工作中,為實現(xiàn)理想而努力。文章來源地址http://www.zghlxwxcb.cn/news/detail-778070.html

源代碼

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.datasets import load_wine
import warnings
warnings.filterwarnings('ignore')
plt.rcParams['font.sans-serif'] = ['SimHei'] #解決中文顯示|
plt.rcParams['axes.unicode_minus'] = False   #解決符號無法顯示
# 導(dǎo)入數(shù)據(jù)集
wine = load_wine()
# 將原數(shù)據(jù)集轉(zhuǎn)為DataFrame類型
data = pd.DataFrame(wine['data'],columns=wine['feature_names'])
data.head()
data.shape
data.info()
# Bartlett's球狀檢驗
from factor_analyzer.factor_analyzer import calculate_bartlett_sphericity
 
chi_square_value, p_value = calculate_bartlett_sphericity(data)
print(chi_square_value, p_value)
# KMO檢驗
# 檢查變量間的相關(guān)性和偏相關(guān)性,取值在0-1之間;KOM統(tǒng)計量越接近1,變量間的相關(guān)性越強,偏相關(guān)性越弱,因子分析的效果越好。
# 通常取值從0.6開始進行因子分析
from factor_analyzer.factor_analyzer import calculate_kmo
 
kmo_all, kmo_model = calculate_kmo(data)
print(kmo_all)
from sklearn.preprocessing import scale
data_scale = scale(data)  # 數(shù)據(jù)標準化
data_scale
covX = np.around(np.corrcoef(data.T),decimals=3) # 求相關(guān)系數(shù)矩陣
covX
featValue, featVec=  np.linalg.eig(covX.T)  #求解系數(shù)相關(guān)矩陣的特征值和特征向量
featValue, featVec
featValue = sorted(featValue,reverse=True) # 對特征值進行排序并輸出
featValue
# 同樣的數(shù)據(jù)繪制散點圖和折線圖
plt.scatter(range(1, data.shape[1] + 1), featValue)
plt.plot(range(1, data.shape[1] + 1), featValue)
# 顯示圖的標題和xy軸的名字
plt.title("Scree Plot")  
plt.xlabel("Factors")
plt.ylabel("Eigenvalue")
plt.hlines(y=1,xmin=0,xmax=13)   # 橫線繪制
plt.grid()  # 顯示網(wǎng)格
plt.show()  # 顯示圖形
gx = featValue/np.sum(featValue)
gx
lg = np.cumsum(gx)
lg
#選出主成分
k=[i for i in range(len(lg)) if lg[i]<0.80]
k = list(k)
print(k)
selectVec = np.matrix(featVec.T[k]).T
selectVe=selectVec*(-1)
selectVec
finalData = np.dot(data_scale,selectVec)
finalData
# 繪圖
plt.figure(figsize = (14,14))
ax = sns.heatmap(selectVec, annot=True, cmap="BuPu")
# 設(shè)置y軸字體大小
ax.yaxis.set_tick_params(labelsize=15)
plt.title("主成分分析", fontsize="xx-large")
# 設(shè)置y軸標簽
plt.ylabel("Sepal Width", fontsize="xx-large")
# 顯示圖片
plt.show()
X = finalData
y = wine['target']
from sklearn.model_selection import train_test_split
x_train,x_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=42) # 劃分數(shù)據(jù)集
# 邏輯回歸模型
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import confusion_matrix,accuracy_score,classification_report
lg = LogisticRegression()
lg.fit(x_train,y_train)
y_pred = lg.predict(x_test)
print('模型準確率',accuracy_score(y_test,y_pred))
print('混淆矩陣',confusion_matrix(y_test,y_pred))
print('分類報告',classification_report(y_test,y_pred))
X = data
y = wine['target']
from sklearn.model_selection import train_test_split
x_train,x_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=666)
# 邏輯回歸模型
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import confusion_matrix,accuracy_score,classification_report
lg = LogisticRegression()
lg.fit(x_train,y_train)
y_pred = lg.predict(x_test)
print('模型準確率',accuracy_score(y_test,y_pred))
print('混淆矩陣',confusion_matrix(y_test,y_pred))
print('分類報告',classification_report(y_test,y_pred))

到了這里,關(guān)于數(shù)據(jù)分析案例-基于PCA主成分分析法對葡萄酒數(shù)據(jù)進行分析的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 主成分分析法(PCA)解析與MATLAB實踐

    主成分分析法(PCA)解析與MATLAB實踐

    PCA(Principal Components Analysis)即主成分分析,也稱主分量分析或主成分回歸分析法,是一種無監(jiān)督的數(shù)據(jù)降維方法,在機器學(xué)習(xí)中常用于特征降維提取主要特征以減少計算量。PCA主要原理是將高維原數(shù)據(jù)通過一個轉(zhuǎn)換矩陣,映射到另一組低維坐標系下,從而實現(xiàn)數(shù)據(jù)降維。舉個簡

    2023年04月08日
    瀏覽(22)
  • 【數(shù)據(jù)處理方法】主成分分析(PCA)原理分析

    【數(shù)據(jù)處理方法】主成分分析(PCA)原理分析

    ????????筆者最近在學(xué)習(xí)的過程需要使用一些數(shù)據(jù)分析和處理的方法,而PCA就是其中常用的一種手段。但在自學(xué)的過程中,由于筆者水平有限,對一些博客中的公式不是能很好理解(數(shù)學(xué)不好的辛酸???),導(dǎo)致總是對整個方法的原理沒有一個透徹的理解。后來在視頻用

    2023年04月09日
    瀏覽(24)
  • Python PCA(主成分分析法)降維的兩種實現(xiàn)

    Python PCA(主成分分析法)降維的兩種實現(xiàn)

    ????????PCA降維,一般是用于數(shù)據(jù)分析和機器學(xué)習(xí)。它的作用是把一個高維的數(shù)據(jù)在保留最大信息量的前提下降低到一個低維的空間,從而使我們能夠提取數(shù)據(jù)的主要特征分量,從而得到對數(shù)據(jù)影響最大的主成分,便于我們對數(shù)據(jù)進行分析等后續(xù)操作。 ????????例如,

    2023年04月17日
    瀏覽(21)
  • R 語言 ggplot2 PCA 主成分分析(虛擬數(shù)據(jù)集)

    R 語言 ggplot2 PCA 主成分分析(虛擬數(shù)據(jù)集)

    以上代碼生成了100行基因,10列樣本的矩陣 前五列命名 wt 開頭+ 1-5 ,表示正常基因 后五列命名 ko 開頭+ 1-5 ,表示缺少基因的樣本(knock-out) 給每行基因都統(tǒng)一命名 gene + 1-100 head() 函數(shù)默認查看前6行 現(xiàn)在只是定義了矩陣的shape和name,還沒填充數(shù)值 這段代碼的作用是生成一個

    2024年02月11日
    瀏覽(16)
  • 【數(shù)據(jù)挖掘】PCA/LDA/ICA:A成分分析算法比較

    ????????在深入研究和比較算法之前,讓我們獨立回顧一下它們。請注意,本文的目的不是深入解釋每種算法,而是比較它們的目標和結(jié)果。 如果您想了解更多關(guān)于

    2024年02月15日
    瀏覽(18)
  • 怎樣計算權(quán)重?——層次分析法、熵值法:工具+數(shù)據(jù)+案例+代碼

    怎樣計算權(quán)重?——層次分析法、熵值法:工具+數(shù)據(jù)+案例+代碼

    1權(quán)重系數(shù)的計算 計算權(quán)重是一種常見的分析方法,在實際研究中,需要結(jié)合數(shù)據(jù)的特征情況進行選擇,比如數(shù)據(jù)之間的波動性是一種信息量,那么可考慮使用CRITIC權(quán)重法或信息量權(quán)重法;也或者專家打分數(shù)據(jù),那么可使用AHP層次法或優(yōu)序圖法。 結(jié)合各類方法計算權(quán)重的原理

    2024年02月05日
    瀏覽(96)
  • Python數(shù)據(jù)分析案例22——財經(jīng)新聞可信度分析(線性回歸,主成分回歸,隨機森林回歸)

    Python數(shù)據(jù)分析案例22——財經(jīng)新聞可信度分析(線性回歸,主成分回歸,隨機森林回歸)

    ?本次案例還是適合人文社科領(lǐng)域,金融或者新聞專業(yè)。本科生做線性回歸和主成分回歸就夠了,研究生還可以加隨機森林回歸,其方法足夠人文社科領(lǐng)域的碩士畢業(yè)論文了。 有八個自變量,[\\\'微博平臺可信度\\\',\\\'專業(yè)性\\\',\\\'可信賴性\\\',\\\'轉(zhuǎn)發(fā)量\\\',\\\'微博內(nèi)容質(zhì)量\\\',\\\'時效性\\\',\\\'驗證程度

    2023年04月08日
    瀏覽(31)
  • 聊聊基于Alink庫的主成分分析(PCA)

    主成分分析(Principal Component Analysis,PCA)是一種常用的數(shù)據(jù)降維和特征提取技術(shù),用于將高維數(shù)據(jù)轉(zhuǎn)換為低維的特征空間。其目標是通過線性變換將原始特征轉(zhuǎn)化為一組新的互相無關(guān)的變量,這些新變量稱為主成分,它們按照方差遞減的順序排列,以保留盡可能多的原始數(shù)據(jù)

    2024年02月08日
    瀏覽(27)
  • 模式識別實驗:基于主成分分析(PCA)的人臉識別

    模式識別實驗:基于主成分分析(PCA)的人臉識別

    本文使用Python實現(xiàn)了PCA算法,并使用ORL人臉數(shù)據(jù)集進行了測試并輸出特征臉,簡單實現(xiàn)了人臉識別的功能。 ORL人臉數(shù)據(jù)集共包含40個不同人的400張圖像,是在1992年4月至1994年4月期間由英國劍橋的Olivetti研究實驗室創(chuàng)建。此數(shù)據(jù)集包含40個類,每個類含10張圖片。所有的圖像是以

    2024年02月05日
    瀏覽(20)
  • 【語音識別】基于主成分分析PCA結(jié)合最近鄰KNN實現(xiàn)聲音自動分類附matlab代碼

    【語音識別】基于主成分分析PCA結(jié)合最近鄰KNN實現(xiàn)聲音自動分類附matlab代碼

    ??作者簡介:熱愛科研的Matlab仿真開發(fā)者,修心和技術(shù)同步精進,代碼獲取、論文復(fù)現(xiàn)及科研仿真合作可私信。 ??個人主頁:Matlab科研工作室 ??個人信條:格物致知。 更多Matlab完整代碼及仿真定制內(nèi)容點擊?? 智能優(yōu)化算法 ? ? ? 神經(jīng)網(wǎng)絡(luò)預(yù)測 ? ? ? 雷達通信? ? ? ?無

    2024年04月27日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包