機(jī)器學(xué)習(xí) | Python實(shí)現(xiàn)XGBoost極限梯度提升樹模型答疑
問題系列
關(guān)于XGBoost有幾個(gè)問題想請(qǐng)教一下。1.XGBoost的API有哪些種調(diào)用方法?2.參數(shù)如何調(diào)?文章來源:http://www.zghlxwxcb.cn/news/detail-699097.html
問題回答
- XGBoost的API有2種調(diào)用方法,一種是我們常見的原生API,一種是兼容Scikit-learn API的API,Scikit-learn API與Sklearn生態(tài)系統(tǒng)無縫集成。
- 對(duì)于XGBoost來說,默認(rèn)的超參數(shù)是可以正常運(yùn)行的,但是如果你想獲得最佳的效果,那么就需要自行調(diào)整一些超參數(shù)來匹配你的數(shù)據(jù),以下參數(shù)對(duì)于XGBoost非常重要:
eta
num_boost_round
max_depth
subsample
colsample_bytree
gamma
min_child_weight
l文章來源地址http://www.zghlxwxcb.cn/news/detail-699097.html
到了這里,關(guān)于機(jī)器學(xué)習(xí) | Python實(shí)現(xiàn)XGBoost極限梯度提升樹模型答疑的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!