国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Boosting三巨頭:XGBoost、LightGBM和CatBoost(發(fā)展、原理、區(qū)別和聯(lián)系,附代碼和案例)

這篇具有很好參考價值的文章主要介紹了Boosting三巨頭:XGBoost、LightGBM和CatBoost(發(fā)展、原理、區(qū)別和聯(lián)系,附代碼和案例)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。


??覺得內(nèi)容不錯的話,歡迎點(diǎn)贊收藏加關(guān)注??????,后續(xù)會繼續(xù)輸入更多優(yōu)質(zhì)內(nèi)容??

??有問題歡迎大家加關(guān)注私戳或者評論(包括但不限于NLP算法相關(guān),linux學(xué)習(xí)相關(guān),讀研讀博相關(guān)......)??

xgboost lighgbm catboost 區(qū)別,人工智能,機(jī)器學(xué)習(xí),數(shù)據(jù)分析,集成學(xué)習(xí),分類

(封面圖由ERNIE-ViLG AI 作畫大模型生成)

Boosting三巨頭:XGBoost、LightGBM和CatBoost(發(fā)展、原理、區(qū)別和聯(lián)系,附代碼和案例)

機(jī)器學(xué)習(xí)中,提高模型精度是研究的重點(diǎn)之一,而模型融合技術(shù)中,Boosting算法是一種常用的方法。在Boosting算法中,XGBoost、LightGBM和CatBoost是三個最為流行的框架。它們在實(shí)際使用中有各自的優(yōu)勢和適用場景,下面將會介紹它們的區(qū)別與聯(lián)系。

1. 算法原理

1.1 XGBoost

XGBoost是由陳天奇等人提出的一個優(yōu)化的Gradient Boosting算法,以其出色的表現(xiàn)和可擴(kuò)展性而受到廣泛關(guān)注。XGBoost使用了C++實(shí)現(xiàn),可以運(yùn)行在多個平臺上,并支持多種編程語言,如Python、R、Java等。其原理可以概括為將弱學(xué)習(xí)器依次加入到一個全局的加權(quán)模型中,每一輪迭代都在損失函數(shù)的梯度方向上優(yōu)化模型。它在原有GBDT的基礎(chǔ)上,添加了正則化項(xiàng)和缺失值處理,使得模型更加穩(wěn)定和準(zhǔn)確。其原理如下:

首先,假設(shè)有n個訓(xùn)練樣本 ( x i , y i ) (x_{i}, y_{i}) (xi?,yi?),其中 x i x_{i} xi?為輸入特征, y i y_{i} yi?為輸出值。那么,目標(biāo)就是找到一個函數(shù)f(x),使得 f ( x ) f(x) f(x)可以預(yù)測 y y y的值。

其次,定義損失函數(shù) L ( y , f ( x ) ) L(y, f(x)) L(y,f(x)),用來度量 f ( x ) f(x) f(x)的預(yù)測值與實(shí)際值之間的誤差。

再次,我們使用Boosting算法來不斷迭代提高模型精度。假設(shè)現(xiàn)在已經(jīng)有了一個弱分類器 f m ? 1 ( x ) f_{m-1}(x) fm?1?(x),那么我們希望找到一個新的弱分類器 f m ( x ) f_{m}(x) fm?(x)來減少 L ( y , f ( x ) ) L(y, f(x)) L(y,f(x))的值。于是我們在已有的弱分類器 f m ? 1 ( x ) f_{m-1}(x) fm?1?(x)基礎(chǔ)上,加上一個新的弱分類器 f m ( x ) f_{m}(x) fm?(x),最終得到新的分類器 f m ( x ) = f m ? 1 ( x ) + γ h m ( x ) f_{m}(x)=f_{m-1}(x)+\gamma h_{m}(x) fm?(x)=fm?1?(x)+γhm?(x),其中 γ \gamma γ為學(xué)習(xí)率, h m ( x ) h_{m}(x) hm?(x)為新的弱分類器。

最后,由于XGBoost使用了正則化項(xiàng)來控制模型的復(fù)雜度,并采用了特殊的梯度下降方法進(jìn)行訓(xùn)練,使得其在處理高維稀疏數(shù)據(jù)時,具有較好的效果。

1.2 LightGBM

LightGBM是由微軟提出的一種基于Histogram算法的Gradient Boosting框架。它通過對樣本特征值進(jìn)行離散化,將連續(xù)特征離散化為有限個整數(shù),從而將高維稀疏數(shù)據(jù)轉(zhuǎn)化為低維稠密數(shù)據(jù),從而加速了訓(xùn)練速度。相比XGBoost,LightGBM的最大優(yōu)勢在于其快速的訓(xùn)練速度和較小的內(nèi)存占用,這主要得益于其采用了基于直方圖的決策樹算法和局部優(yōu)化等技術(shù)。LightGBM的核心思想是在構(gòu)造決策樹時,將連續(xù)特征離散化為若干個桶,然后將每個桶作為一個離散特征對待,從而加速樹的構(gòu)建和訓(xùn)練過程。其原理如下:

首先,對于每個特征,我們需要將其離散化為一些桶,每個桶中包含一些連續(xù)的特征值。在訓(xùn)練時,我們只需要計(jì)算每個桶中的樣本的統(tǒng)計(jì)信息(如平均值和方差),而不需要計(jì)算每個樣本的特征值,從而減少了計(jì)算量。

其次,對于每個樣本,我們根據(jù)離散化后的特征值,將其歸入對應(yīng)的桶中,然后計(jì)算桶中樣本的統(tǒng)計(jì)信息。接著,我們通過梯度單邊采樣(GOSS)算法,選擇一部分樣本進(jìn)行訓(xùn)練,這些樣本中包含了大部分的梯度信息,從而保證了訓(xùn)練的準(zhǔn)確性和效率。

最后,LightGBM還使用了基于直方圖的決策樹算法,使得在處理高維稀疏數(shù)據(jù)時,具有較好的效果。

1.3 CatBoost

CatBoost是由Yandex提出的一種基于梯度提升算法的開源機(jī)器學(xué)習(xí)框架。它在處理分類問題時,可以自動處理類別特征,無需手動進(jìn)行特征編碼。CatBoost的原理與XGBoost和LightGBM類似,同樣是通過將多個弱學(xué)習(xí)器組合成一個強(qiáng)學(xué)習(xí)器。不同之處在于,CatBoost使用了一種新的損失函數(shù),即加權(quán)交叉熵?fù)p失函數(shù),可以有效地處理類別不平衡問題。其原理如下:

首先,CatBoost使用了一種稱為Ordered Boosting的算法來提高模型精度。Ordered Boosting可以看做是一種特殊的特征選擇方法,它將訓(xùn)練樣本按照特征值大小排序,然后使用分段線性模型擬合每一段特征值的梯度,從而提高了模型的擬合能力。

其次,CatBoost在處理分類問題時,可以自動處理類別特征。它使用了一種稱為Target Encoding的方法,將類別特征轉(zhuǎn)化為一組實(shí)數(shù)值,從而避免了手動進(jìn)行特征編碼的麻煩。

最后,CatBoost還使用了基于對稱樹的決策樹算法,使得在處理高維稀疏數(shù)據(jù)時,具有較好的效果。

2. 發(fā)展前景和應(yīng)用場景

XGBoost、LightGBM和CatBoost作為目前最先進(jìn)的梯度提升算法,在許多數(shù)據(jù)科學(xué)競賽和實(shí)際應(yīng)用中都取得了很好的效果。隨著大數(shù)據(jù)時代的到來,這三種算法的應(yīng)用場景也越來越廣泛。

其中,XGBoost在傳統(tǒng)機(jī)器學(xué)習(xí)領(lǐng)域仍然是最常用的算法之一,特別是在結(jié)構(gòu)化數(shù)據(jù)的分類、回歸和排序任務(wù)中表現(xiàn)突出。LightGBM在大規(guī)模數(shù)據(jù)集和高維度數(shù)據(jù)上表現(xiàn)更佳,適用于處理文本分類、圖像分類、推薦系統(tǒng)等領(lǐng)域的數(shù)據(jù)。CatBoost在處理類別特征和缺失值方面表現(xiàn)出色,適用于電商推薦、醫(yī)療預(yù)測、金融風(fēng)控等領(lǐng)域的數(shù)據(jù)。

總的來說,XGBoost、LightGBM和CatBoost作為梯度提升算法的代表,都具有自身的優(yōu)勢和適用場景,隨著數(shù)據(jù)和計(jì)算能力的不斷提升,它們的應(yīng)用前景也會越來越廣闊。

3. 使用案例

3.1 XGBoost

XGBoost可以應(yīng)用于多種場景,如回歸、分類、排序等。下面以Kaggle競賽中的房價預(yù)測問題為例,展示如何使用XGBoost進(jìn)行模型訓(xùn)練和預(yù)測。

首先,我們使用Pandas讀取數(shù)據(jù)集,并將其劃分為訓(xùn)練集和測試集。

import pandas as pd
from sklearn.model_selection import train_test_split

df = pd.read_csv('train.csv')
X = df.drop('SalePrice', axis=1)
y = df['SalePrice']
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

接著,我們使用XGBoost的Python接口進(jìn)行模型訓(xùn)練和預(yù)測。

import xgboost as xgb
from sklearn.metrics import mean_squared_error

dtrain = xgb.DMatrix(X_train, label=y_train)
dtest = xgb.DMatrix(X_test)

params = {'max_depth': 3, 'learning_rate': 0.1, 'objective': 'reg:squarederror'}
num_rounds = 100

model = xgb.train(params, dtrain, num_rounds)
y_pred = model.predict(dtest)

mse = mean_squared_error(y_test, y_pred)
print("Mean Squared Error:", mse)

上述代碼中,我們首先使用xgb.DMatrix將訓(xùn)練數(shù)據(jù)轉(zhuǎn)化為DMatrix格式。接著,我們定義了模型參數(shù),并設(shè)置了迭代次數(shù)為100。然后,我們使用xgb.train函數(shù)進(jìn)行模型訓(xùn)練,并使用model.predict函數(shù)進(jìn)行模型預(yù)測。最后,我們使用sklearn.metrics.mean_squared_error函數(shù)計(jì)算了模型的均方誤差。

3.2 LightGBM

LightGBM可以應(yīng)用于多種場景,如回歸、分類、排序等。下面以Kaggle競賽中的鳶尾花分類問題為例,展示如何使用LightGBM進(jìn)行模型訓(xùn)練和預(yù)測。

首先,我們使用Pandas讀取數(shù)據(jù)集,并將其劃分為訓(xùn)練集和測試集。

import pandas as pd
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

data = load_iris()
df = pd.DataFrame(data.data, columns=data.feature_names)
df['target'] = data.target

X = df.drop('target', axis=1)
y = df['target']
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

接著,我們使用LightGBM的Python接口進(jìn)行模型訓(xùn)練和預(yù)測。

import lightgbm as lgb
from sklearn.metrics import accuracy_score

dtrain = lgb.Dataset(X_train, label=y_train)
dtest = lgb.Dataset(X_test, label=y_test)

params = {'objective': 'multiclass', 'num_class': 3, 'metric': 'multi_logloss'}
num_rounds = 100

model = lgb.train(params, dtrain, num_rounds)
y_pred = model.predict(X_test)

y_pred = [list(x).index(max(x)) for x in y_pred]
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)

上述代碼中,我們首先使用lgb.Dataset將訓(xùn)練數(shù)據(jù)轉(zhuǎn)化為Dataset格式。接著,我們定義了模型參數(shù),并設(shè)置了迭代次數(shù)為100。然后,我們使用lgb.train函數(shù)進(jìn)行模型訓(xùn)練,并使用model.predict函數(shù)進(jìn)行模型預(yù)測。最后,我們使用sklearn.metrics.accuracy_score函數(shù)計(jì)算了模型的準(zhǔn)確率。

3.3 CatBoost

import catboost as cb
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

iris = load_iris()
X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2)

train_data = cb.Pool(X_train, label=y_train)
test_data = cb.Pool(X_test, label=y_test)

params = {'loss_function': 'MultiClass', 'num_class': 3, 'eval_metric': 'Accuracy'}

num_rounds = 20
bst = cb.train(params, train_data, num_rounds)

preds = bst.predict(X_test)
y_pred = [np.argmax(pred) for pred in preds]

acc = accuracy_score(y_test, y_pred)
print("Accuracy:", acc)

綜合展示

為了更好地展示XGBoost、LightGBM和CatBoost的應(yīng)用場景和效果,我們以波士頓房價預(yù)測數(shù)據(jù)集為例進(jìn)行實(shí)驗(yàn)。

首先,我們使用sklearn庫中的load_boston函數(shù)加載數(shù)據(jù)集,并對數(shù)據(jù)進(jìn)行劃分,80%用于訓(xùn)練,20%用于測試。

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split

data = load_boston()
X_train, X_test, y_train, y_test = train_test_split(data.data, data.target, test_size=0.2, random_state=42)

然后,我們依次使用XGBoost、LightGBM和CatBoost訓(xùn)練模型,并對模型進(jìn)行評估。

import xgboost as xgb
from lightgbm import LGBMRegressor
from catboost import CatBoostRegressor
from sklearn.metrics import mean_squared_error

# XGBoost
xgb_model = xgb.XGBRegressor(n_estimators=100, max_depth=5, learning_rate=0.1, random_state=42)
xgb_model.fit(X_train, y_train)
xgb_pred = xgb_model.predict(X_test)
xgb_rmse = mean_squared_error(y_test, xgb_pred, squared=False)

# LightGBM
lgb_model = LGBMRegressor(n_estimators=100, max_depth=5, learning_rate=0.1, random_state=42)
lgb_model.fit(X_train, y_train)
lgb_pred = lgb_model.predict(X_test)
lgb_rmse = mean_squared_error(y_test, lgb_pred, squared=False)

# CatBoost
cat_model = CatBoostRegressor(n_estimators=100, max_depth=5, learning_rate=0.1, random_seed=42, silent=True)
cat_model.fit(X_train, y_train)
cat_pred = cat_model.predict(X_test)
cat_rmse = mean_squared_error(y_test, cat_pred, squared=False)

print("XGBoost RMSE: {:.2f}".format(xgb_rmse))
print("LightGBM RMSE: {:.2f}".format(lgb_rmse))
print("CatBoost RMSE: {:.2f}".format(cat_rmse))

參考文獻(xiàn)

[1] Chen, T., & Guestrin, C. (2016). Xgboost: A scalable tree boosting system. In Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining (pp. 785-794).
[2] Ke, G., Meng, Q., Finley, T., Wang, T., Chen, W., Ma, W., … & Liu,
G. (2017). Lightgbm: A highly efficient gradient boosting decision tree. In Advances in Neural Information Processing Systems (pp. 3146-3154).
[3] Prokhorenkova, L., Gusev, G., Vorobev, A., Dorogush, A. V., & Gulin, A. (2018). CatBoost: unbiased boosting with categorical features. In Advances in neural information processing systems (pp. 6638-6648).
[4] XGBoost官方文檔:https://xgboost.readthedocs.io/en/latest/
[5] LightGBM官方文檔:https://lightgbm.readthedocs.io/en/latest/
[6] CatBoost官方文檔:https://catboost.ai/docs/
[7] 《Python機(jī)器學(xué)習(xí)基礎(chǔ)教程》(吳斌):介紹了XGBoost、LightGBM和CatBoost的使用方法和實(shí)例。
[8] 《Applied Machine Learning》(Kelleher, John D.):介紹了各種機(jī)器學(xué)習(xí)算法,其中也包括了梯度提升算法和其變種。
[9] 《Hands-On Gradient Boosting with XGBoost and scikit-learn》(Villalba, Benjamin):詳細(xì)介紹了XGBoost和scikit-learn庫的梯度提升實(shí)現(xiàn)。
[10] 《Gradient Boosting》(Friedman, Jerome H.):介紹了梯度提升算法的基本思想和實(shí)現(xiàn)原理。文章來源地址http://www.zghlxwxcb.cn/news/detail-781055.html


??覺得內(nèi)容不錯的話,歡迎點(diǎn)贊收藏加關(guān)注??????,后續(xù)會繼續(xù)輸入更多優(yōu)質(zhì)內(nèi)容??

??有問題歡迎大家加關(guān)注私戳或者評論(包括但不限于NLP算法相關(guān),linux學(xué)習(xí)相關(guān),讀研讀博相關(guān)......)??

到了這里,關(guān)于Boosting三巨頭:XGBoost、LightGBM和CatBoost(發(fā)展、原理、區(qū)別和聯(lián)系,附代碼和案例)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 數(shù)據(jù)分析 | Boosting與Bagging的區(qū)別

    ? ? ? ? Bagging思想專注于降低方差,操作起來較為簡單,而Boosting思想專注于降低整體偏差來降低泛化誤差,在模型效果方面的突出表現(xiàn)制霸整個弱分類器集成的領(lǐng)域。具體區(qū)別體現(xiàn)在如下五點(diǎn): 弱評估器:Bagging相互獨(dú)立、并行構(gòu)建;Boosting相互關(guān)聯(lián),按照順序依次構(gòu)建,先

    2024年02月12日
    瀏覽(16)
  • CatBoost 原理解釋及主要算法圖分析

    CatBoost 原理解釋及主要算法圖分析

    ? ? ? ? CatBoost?與 XGBoost 、LightGBM是主流的三大Boosting框架,都是高效的GBDT算法工程化實(shí)現(xiàn)框架。CatBoost?則因長于處理類別特征而取名為CatBoost(Categorical + Boosting)。算法的理論特色,包括用于處理類別變量的目標(biāo)變量統(tǒng)計(jì)和排序提升算法。算法原文地址:CatBoost算法論文。原

    2024年03月21日
    瀏覽(38)
  • 用通俗易懂的方式講解:CatBoost 算法原理及案例

    用通俗易懂的方式講解:CatBoost 算法原理及案例

    前面已講了7節(jié),為方便大家學(xué)習(xí),我總結(jié)在一起,無論是日常實(shí)踐還是面試使用,都非常方便,喜歡記得收藏 用通俗易懂的方式講解:邏輯回歸模型及案例(Python 代碼) 用通俗易懂的方式講解:決策樹模型及案例(Python 代碼) 用通俗易懂的方式講解: 隨機(jī)森林及案例(

    2024年04月12日
    瀏覽(27)
  • 機(jī)器學(xué)習(xí):LightGBM算法原理(附案例實(shí)戰(zhàn))

    機(jī)器學(xué)習(xí):LightGBM算法原理(附案例實(shí)戰(zhàn))

    作者:i阿極 作者簡介:Python領(lǐng)域新星作者、多項(xiàng)比賽獲獎?wù)撸翰┲鱾€人首頁 ??????如果覺得文章不錯或能幫助到你學(xué)習(xí),可以點(diǎn)贊??收藏??評論??+關(guān)注哦!?????? ??????如果有小伙伴需要數(shù)據(jù)集和學(xué)習(xí)交流,文章下方有交流學(xué)習(xí)區(qū)!一起學(xué)習(xí)進(jìn)步!?? 訂閱專欄案

    2024年01月19日
    瀏覽(34)
  • XGBoost詳解(原理篇)

    XGBoost詳解(原理篇)

    入門小菜鳥,希望像做筆記記錄自己學(xué)的東西,也希望能幫助到同樣入門的人,更希望大佬們幫忙糾錯啦~侵權(quán)立刪。 目錄 一、XGBoost簡介 二、XGBoost原理 1、基本組成元素 2、整體思路 (1)訓(xùn)練過程——構(gòu)建XGBoost模型? ? ? ? (2)測試過程 3、目標(biāo)函數(shù) (1)最初的目標(biāo)函數(shù)

    2023年04月23日
    瀏覽(23)
  • 吉比特?zé)o源光網(wǎng)絡(luò)三巨頭:GPON、XG-PON和XGS-PON到底有啥區(qū)別?

    吉比特?zé)o源光網(wǎng)絡(luò)三巨頭:GPON、XG-PON和XGS-PON到底有啥區(qū)別?

    你好,這里是網(wǎng)絡(luò)技術(shù)聯(lián)盟站。 Passive Optical Network(PON)技術(shù)已經(jīng)成為Fiber-to-the-X(FTTx)網(wǎng)絡(luò)建設(shè)的主流技術(shù)之一。隨著用戶對高帶寬需求的不斷增長,特別是隨著OTT視頻、4K電視等大流量應(yīng)用的普及,運(yùn)營商紛紛將10G GPON技術(shù)納入日程,以滿足用戶對更快速、更可靠網(wǎng)絡(luò)連接

    2024年02月20日
    瀏覽(13)
  • 機(jī)器學(xué)習(xí)——XGboost原理及python實(shí)現(xiàn)

    機(jī)器學(xué)習(xí)——XGboost原理及python實(shí)現(xiàn)

    XGBoost 算法是boost 集成算法中的一種,Boosting 算法的思想是將許多弱分類器集成在一起形成一個強(qiáng)分類器。XGBoost 是一種提升樹模型,是將許多樹模型集成在一起,形成強(qiáng)分類器。XGBoost 中使用的弱分類器為CART (classification and regression tree)回歸樹。 xgboost并沒有提出一種新的

    2024年02月05日
    瀏覽(27)
  • 花了3周理解的xgboost算法原理

    花了3周理解的xgboost算法原理

    先學(xué)決策樹,再學(xué)隨機(jī)森林,最后才來到xgboost。本以為如此平滑地過渡過來,會容易一些,沒想到還是這么艱難。零零散散花了3周多的時間,看了好多文章的解釋和闡述,才勉強(qiáng)get到xgboost的算法原理。 這其中,有兩個參考來源,我個人比較推薦:一個是文字,一個是視頻。

    2024年02月11日
    瀏覽(17)
  • 一文速學(xué)-XGBoost模型算法原理以及實(shí)現(xiàn)+Python項(xiàng)目實(shí)戰(zhàn)

    一文速學(xué)-XGBoost模型算法原理以及實(shí)現(xiàn)+Python項(xiàng)目實(shí)戰(zhàn)

    目錄 前言 一、XGBoost模型概述 1.發(fā)展歷史 2.算法改進(jìn)之處 1.損失函數(shù) 2.分裂點(diǎn)選擇 3.剪枝策略 4.正則化 5.學(xué)習(xí)率 6.提前停止 二、XGBoost算法原理 1.初始化構(gòu)造目標(biāo)函數(shù) ?2.目標(biāo)函數(shù)變換 ?變換優(yōu)勢總結(jié) 3.將樹引入目標(biāo)函數(shù) 4.構(gòu)建最優(yōu)樹(貪心算法) 三、XGBoost實(shí)戰(zhàn)-貸款違約預(yù)測模

    2024年02月03日
    瀏覽(24)
  • 機(jī)器學(xué)習(xí)算法原理lightgbm、word2vec、cnn、lstm、textcnn、bert、transformer、隨機(jī)森林、lr

    首先需要說一說GBDT,它是一種基于決策樹的集成算法,它使用的集成方法是boosting,其主要思想是通過多次迭代,每次迭代都學(xué)習(xí)一棵CART樹來擬合之前 t-1 棵樹的預(yù)測結(jié)果與訓(xùn)練樣本真實(shí)值的殘差,最終得到一個準(zhǔn)確度更高的模型。 全稱為Gradient Boosting Decision Tree。它是一種

    2024年02月13日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包