国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

模型應(yīng)用系實習(xí)生-模型訓(xùn)練筆記(更新至線性回歸、Ridge回歸、Lasso回歸、Elastic Net回歸、決策樹回歸、梯度提升樹回歸和隨機(jī)森林回歸)

這篇具有很好參考價值的文章主要介紹了模型應(yīng)用系實習(xí)生-模型訓(xùn)練筆記(更新至線性回歸、Ridge回歸、Lasso回歸、Elastic Net回歸、決策樹回歸、梯度提升樹回歸和隨機(jī)森林回歸)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


本次訓(xùn)練的變量是一致對應(yīng)的,訓(xùn)練準(zhǔn)備通過后,后續(xù)建模都不會有報錯的!

一、訓(xùn)練準(zhǔn)備(x_train, x_test, y_train, y_test)

1.1 導(dǎo)包

scikit-learn包以及鏡像

pip3 install --index-url https://pypi.douban.com/simple scikit-learn

1.2 數(shù)據(jù)要求

必須全部為數(shù)字類型且無空值才能進(jìn)行訓(xùn)練,關(guān)于非數(shù)據(jù)類型需要進(jìn)行相對處理例如:可以采用獨熱編碼或者label編碼進(jìn)行處理。

本文演示的是pandas 的dataframe數(shù)據(jù)類型的操作,轉(zhuǎn)換成別的類型也同理

1.21 導(dǎo)入數(shù)據(jù)

import pandas as pd
df = pd.read_csv('data.csv')
df.head(5) #查看數(shù)據(jù)前五條

1.22 數(shù)據(jù)類型查看檢測以及轉(zhuǎn)換

1. 通過df.info()查看類型以及缺失值情況

df.info()

2. label編碼
使用sklearn中的LabelEncoder類,將標(biāo)簽分配給分類變量的不同類別,并將其轉(zhuǎn)換為整數(shù)標(biāo)簽。

from sklearn.preprocessing import LabelEncoder
Label_df[i] = LabelEncoder().fit_transform(Label_df[i])

3. 獨熱編碼
pd.get_dummies函數(shù)是Pandas中用于執(zhí)行獨熱編碼的函數(shù)。它將類別變量轉(zhuǎn)換為獨熱編碼的形式,其中每個類別將被轉(zhuǎn)換為新的二進(jìn)制特征,表示原始特征中是否存在該類別。這對于機(jī)器學(xué)習(xí)模型處理分類數(shù)據(jù)時非常有用。
例如,如果有一個類別特征"color",包含紅色、藍(lán)色和綠色三個類別。使用pd.get_dummies函數(shù)可以將這個特征轉(zhuǎn)換為三個新的特征"color_red"、“color_blue"和"color_green”,它們的取值為0或1,表示原始特征中是否包含對應(yīng)的顏色。

df_one_hot = pd.get_dummies(df, columns=['color'])
df_one_hot.replace({False: 0, True: 1})

4. 缺失值處理
直接刪除

#刪除指定列缺失值
df.dropna(subset=['身份證號'],inplace = True)
#刪除NaN值
df.dropna(axis=0,inplace=True)
#全部為空就刪除此行
df.dropna(axis=0,how="all",inplace=True)
#有一個為空就刪除此行
df.dropna(axis=0, how='any', inplace=True)

填充

#數(shù)據(jù)填充
df.fillna(method='pad', inplace=True) # 填充前一條數(shù)據(jù)的值
df.fillna(method='bfill', inplace=True) # 填充后一條數(shù)據(jù)的值
df.fillna(df['cname'].mean(), inplace=True) # 填充平均值

5. 檢測函數(shù)這里是我自己定義的高效快速便捷方式
檢測函數(shù),輸入dataframe用for循環(huán)對每列檢測和操作, 自動檢測空值,object類型數(shù)據(jù),并且進(jìn)行默認(rèn)操作,
df.fillna(method=‘pad’, inplace=True) # 填充前一條數(shù)據(jù)的值
df.fillna(method=‘bfill’, inplace=True) # 填充后一條數(shù)據(jù)的值
獨熱編碼
df_one_hot = pd.get_dummies(df, columns=[‘color’])
返回處理好的dataframe

def process_dataframe(df):
    df.fillna(method='pad', inplace=True) # 填充前一條數(shù)據(jù)的值
    df.fillna(method='bfill', inplace=True) # 填充后一條數(shù)據(jù)的值
    df_one_hot = df.copy()
    for i in df.columns:
        if df[i].dtype == object:
            df_one_hot = pd.get_dummies(df, columns=[i]) # 獨熱編碼
    return df_one_hot

更多dataframe操作可以看一下鄙人不才總結(jié)的小處理
http://t.yssmx.com/iRbFj

1.22 劃分?jǐn)?shù)據(jù)

from sklearn.model_selection import train_test_split
x_data = df.iloc[:, 0:-1]  
y_data = df.iloc[:, -1]  
# 劃分?jǐn)?shù)據(jù)集
x_train, x_test, y_train, y_test = train_test_split(x_data, y_data, test_size=0.3, random_state=42)

二、回歸

2.1 線性回歸

https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html#sklearn.linear_model.LinearRegression
訓(xùn)練以及簡單預(yù)測

from sklearn.linear_model import LinearRegression
from sklearn import metrics

#加載模型訓(xùn)練
Linear_R = LinearRegression()
Linear_R.fit(x_train, y_train)

# 預(yù)測
y_pred = Linear_R.predict(x_test)

# 評估
MAE_lr = metrics.mean_absolute_error(y_test, y_pred)
MSE_lr = metrics.mean_squared_error(y_test, y_pred)
RMSE_lr = metrics.mean_squared_error(y_test, y_pred, squared=False)
R2_Score_lr = metrics.r2_score(y_test, y_pred)
print("LinearRegression 評估")
print("MAE: ", MAE_lr)
print("MSE: ", MSE_lr)
print("RMSE: ", RMSE_lr)
print("R2 Score: ", R2_Score_lr)

2.2 隨機(jī)森林回歸

from sklearn.ensemble import RandomForestRegressor
from sklearn import metrics

#加載模型訓(xùn)練
RandomForest_R = RandomForestRegressor()
RandomForest_R.fit(x_train, y_train)

# 預(yù)測
y_pred = RandomForest_R.predict(x_test)

# 評估
MAE_Forest= metrics.mean_absolute_error(y_test, y_pred)
MSE_Forest = metrics.mean_squared_error(y_test, y_pred)
RMSE_Forest = metrics.mean_squared_error(y_test, y_pred, squared=False)
R2_Score_Forest = metrics.r2_score(y_test, y_pred)
print("LinearRegression 評估")
print("MAE: ", MAE_Forest)
print("MSE: ", MSE_Forest)
print("RMSE: ", RMSE_Forest)
print("R2 Score: ", R2_Score_Forest)

模型優(yōu)化

from sklearn.model_selection import RandomizedSearchCV
from sklearn.ensemble import RandomForestRegressor
from sklearn.datasets import make_regression

# 創(chuàng)建一個參數(shù)網(wǎng)格,定義需要調(diào)整的超參數(shù)及其可能的取值范圍
param_grid = {
    'n_estimators': [100, 200, 300],  # 樹的數(shù)量
    'max_depth': [None, 5, 10, 15],  # 最大深度
    'min_samples_split': [2, 5, 10],  # 內(nèi)部節(jié)點再劃分所需最小樣本數(shù)
    'min_samples_leaf': [1, 2, 4]  # 葉子節(jié)點最少樣本數(shù)
}

# 創(chuàng)建一個隨機(jī)森林回歸模型
rf = RandomForestRegressor()

# 使用 RandomizedSearchCV 進(jìn)行參數(shù)搜索
random_search = RandomizedSearchCV(estimator=rf, param_distributions=param_grid, n_iter=100, cv=5, verbose=2, random_state=42, n_jobs=-1)

# 訓(xùn)練模型并搜索最佳參數(shù)組合
random_search.fit(x_train, y_train)

# 輸出最佳參數(shù)組合和最佳評分
print("Best Parameters:", random_search.best_params_)
print("Best Score:", random_search.best_score_)

# 使用最佳參數(shù)組合的模型進(jìn)行預(yù)測
best_model = random_search.best_estimator_
y_pred = best_model.predict(x_test)

# 評估模型性能
MAE_Forest = metrics.mean_absolute_error(y_test, y_pred)
MSE_Forest = metrics.mean_squared_error(y_test, y_pred)
RMSE_Forest = metrics.mean_squared_error(y_test, y_pred, squared=False)
R2_Score_Forest = metrics.r2_score(y_test, y_pred)
print("\nRandom Forest Regression Evaluation with Best Parameters:")
print("MAE: ", MAE_Forest)
print("MSE: ", MSE_Forest)
print("RMSE: ", RMSE_Forest)
print("R2 Score: ", R2_Score_Forest)

2.3 GradientBoostingRegressor梯度提升樹回歸

https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingRegressor.html

這里是引用梯度提升樹(GradientBoosting)是一種集成學(xué)習(xí)方法,通過構(gòu)建多個弱預(yù)測模型(通常是決策樹),然后將它們組合成一個強(qiáng)預(yù)測模型。梯度提升樹通過迭代的方式訓(xùn)練決策樹模型,每一次迭代都會針對之前迭代的殘差進(jìn)行擬合。它通過梯度下降的方式逐步改進(jìn)模型,以最小化損失函數(shù)。
梯度提升樹在每一輪迭代中,通過擬合一個新的弱模型來糾正之前模型的錯誤。在每一輪迭代中,它會計算出模型的負(fù)梯度(殘差),然后用新的弱模型去擬合這個負(fù)梯度,使得之前模型的殘差得到修正。最終,多個弱模型組合成一個強(qiáng)模型,可以用于回歸問題和分類問題。

在Scikit-Learn中,GradientBoostingRegressor是基于梯度提升樹的回歸模型。它可以通過調(diào)節(jié)樹的數(shù)量、樹的深度以及學(xué)習(xí)率等超參數(shù)來控制模型的復(fù)雜度和泛化能力。梯度提升樹在處理各種類型的數(shù)據(jù)集時都表現(xiàn)良好,并且常被用于解決回歸問題。

from sklearn.ensemble import GradientBoostingRegressor
from sklearn import metrics

#加載模型訓(xùn)練
GradientBoosting_R = GradientBoostingRegressor()
GradientBoosting_R.fit(x_train, y_train)

# 預(yù)測
y_pred = GradientBoosting_R.predict(x_test)

# 評估
MAE_GradientBoosting= metrics.mean_absolute_error(y_test, y_pred)
MSE_GradientBoosting = metrics.mean_squared_error(y_test, y_pred)
RMSE_GradientBoosting = metrics.mean_squared_error(y_test, y_pred, squared=False)
R2_Score_GradientBoosting = r2_score(y_test, y_pred)
print("GradientBoostingRegressor 評估")
print("MAE: ", MAE_GradientBoosting)
print("MSE: ", MSE_GradientBoosting)
print("RMSE: ", RMSE_GradientBoosting)
print("R2 Score: ", R2_Score_GradientBoosting)

2.4 Lasso回歸

https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Lasso.html#sklearn.linear_model.Lasso

Lasso回歸(Least Absolute Shrinkage and Selection Operator Regression)是一種線性回歸方法,它利用L1正則化來限制模型參數(shù)的大小,并傾向于產(chǎn)生稀疏模型。與傳統(tǒng)的最小二乘法不同,Lasso回歸在優(yōu)化目標(biāo)函數(shù)時,不僅考慮到數(shù)據(jù)擬合項,還考慮到對模型參數(shù)的懲罰項。
Lasso回歸的優(yōu)化目標(biāo)函數(shù)是普通最小二乘法的損失函數(shù)加上L1范數(shù)的懲罰項
模型應(yīng)用系實習(xí)生-模型訓(xùn)練筆記(更新至線性回歸、Ridge回歸、Lasso回歸、Elastic Net回歸、決策樹回歸、梯度提升樹回歸和隨機(jī)森林回歸),數(shù)據(jù)挖掘,數(shù)據(jù)預(yù)處理,數(shù)據(jù)分析,回歸,筆記,線性回歸

from sklearn.linear_model import Lasso
from sklearn import metrics

#加載模型訓(xùn)練
Lasso_R = Lasso()
Lasso_R.fit(x_train, y_train)

# 預(yù)測
y_pred = Lasso_R.predict(x_test)

# 評估
MAE_Lasso= metrics.mean_absolute_error(y_test, y_pred)
MSE_Lasso = metrics.mean_squared_error(y_test, y_pred)
RMSE_Lasso = metrics.mean_squared_error(y_test, y_pred, squared=False)
R2_Score_Lasso = metrics.r2_score(y_test, y_pred)
print("Lasso 評估")
print("MAE: ", MAE_Lasso)
print("MSE: ", MSE_Lasso)
print("RMSE: ", RMSE_Lasso)
print("R2 Score: ", R2_Score_Lasso)

2.5 Ridge嶺回歸

https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Ridge.html#sklearn.linear_model.Ridge

from sklearn.linear_model import Ridge
from sklearn import metrics

#加載模型訓(xùn)練
Ridge_R = Ridge()
Ridge_R.fit(x_train, y_train)

# 預(yù)測
y_pred = Ridge_R.predict(x_test)

# 評估
MAE_Ridge= metrics.mean_absolute_error(y_test, y_pred)
MSE_Ridge = metrics.mean_squared_error(y_test, y_pred)
RMSE_Ridge = metrics.mean_squared_error(y_test, y_pred, squared=False)
R2_Score_Ridge = r2_score(y_test, y_pred)
print("RidgeCV 評估")
print("MAE: ", MAE_Ridge)
print("MSE: ", MSE_Ridge)
print("RMSE: ", RMSE_Ridge)
print("R2 Score: ", R2_Score_Ridge)

2.6 Elastic Net回歸

https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.ElasticNet.html

Elastic Net回歸是一種結(jié)合了嶺回歸(Ridge Regression)和Lasso回歸(Lasso
Regression)的線性回歸模型。它通過結(jié)合L1和L2正則化懲罰項來克服嶺回歸和Lasso回歸各自的限制,以達(dá)到更好的預(yù)測性能。

嶺回歸使用L2正則化,它通過向損失函數(shù)添加一個懲罰項來限制模型參數(shù)的大小,防止過擬合。Lasso回歸使用L1正則化,它傾向于產(chǎn)生稀疏的模型,即使大部分特征對目標(biāo)變量沒有影響,也會將它們的系數(shù)縮減為零。

Elastic
Net回歸結(jié)合了L1和L2正則化的優(yōu)點,可以同時產(chǎn)生稀疏模型并減少多重共線性帶來的影響。它的損失函數(shù)包括數(shù)據(jù)擬合項和正則化項,其中正則化項是L1和L2范數(shù)的線性組合。

Elastic Net回歸在特征維度很高,且特征之間存在相關(guān)性時很有用。它可以用于特征選擇和回歸分析,尤其適用于處理實際數(shù)據(jù)集中的復(fù)雜問題。

from sklearn.linear_model import ElasticNet
from sklearn import metrics


# 使用訓(xùn)練數(shù)據(jù)擬合模型
elastic_net = ElasticNet()
elastic_net.fit(x_train, y_train)

# 預(yù)測
y_pred = elastic_net.predict(x_test)

# 評估
MAE_ElasticNet= metrics.mean_absolute_error(y_test, y_pred)
MSE_ElasticNet = metrics.mean_squared_error(y_test, y_pred)
RMSE_ElasticNet = metrics.mean_squared_error(y_test, y_pred, squared=False)
R2_Score_ElasticNet = metrics.r2_score(y_test, y_pred)
print("ElasticNet 評估")
print("MAE: ", MAE_ElasticNet)
print("MSE: ", MSE_ElasticNet)
print("RMSE: ", RMSE_ElasticNet)
print("R2 Score: ", R2_Score_ElasticNet)

2.7 DecisionTreeRegressor決策樹模型

https://scikit-learn.org/stable/modules/generated/sklearn.tree.DecisionTreeRegressor.html文章來源地址http://www.zghlxwxcb.cn/news/detail-741936.html

from sklearn.tree import DecisionTreeRegressor
from sklearn import metrics

decision_tree = DecisionTreeRegressor()
decision_tree.fit(x_train, y_train)

y_pred = decision_tree.predict(x_test)

# 評估
MAE_decision_tree= metrics.mean_absolute_error(y_test, y_pred)
MSE_decision_tree = metrics.mean_squared_error(y_test, y_pred)
RMSE_decision_tree = metrics.mean_squared_error(y_test, y_pred, squared=False)
R2_Score_decision_tree = r2_score(y_test, y_pred)
print("DecisionTreeRegressor 評估")
print("MAE: ", MAE_decision_tree)
print("MSE: ", MSE_decision_tree)
print("RMSE: ", RMSE_decision_tree)
print("R2 Score: ", R2_Score_decision_tree)

自動化模型加評估

from sklearn.linear_model import LinearRegression
from sklearn.ensemble import RandomForestRegressor
from sklearn.ensemble import GradientBoostingRegressor
from sklearn.linear_model import Lasso
from sklearn.linear_model import Ridge
from sklearn.linear_model import ElasticNet
from sklearn.tree import DecisionTreeRegressor

from sklearn.metrics import mean_absolute_error, mean_squared_error, mean_squared_error, r2_score

modellist = [LinearRegression,RandomForestRegressor,GradientBoostingRegressor,Lasso,Ridge,ElasticNet,DecisionTreeRegressor]
namelist = ['LinearRegression','RandomForest','GradientBoosting','Lasso','Ridge','ElasticNet','DecisionTree']
RMSE = []
R2_Score = []

for  i in range(len(modellist)):
    mymodel = modellist[i]
    tr_model = mymodel()
    tr_model.fit(x_train, y_train)
    y_pred = tr_model.predict(x_train)
    print(f'{namelist[i]} 模型評估 \n  MAE:{mean_absolute_error(y_train, y_pred)} MSE:{mean_squared_error(y_train, y_pred)} RMSE:{mean_squared_error(y_train,y_pred, squared=False)} R2 Score:{r2_score(y_train, y_pred)}')

    y_pred = tr_model.predict(x_test)
    RMSE.append(mean_squared_error(y_test,y_pred, squared=False))
    R2_Score.append(r2_score(y_test, y_pred))
data_show = pd.concat([pd.DataFrame(RMSE),pd.DataFrame(R2_Score),pd.DataFrame(namelist)],axis=1)    
data_show.columns = ['RMSE','R2_Score','model']
data_show

三、分類

…未完待續(xù)

到了這里,關(guān)于模型應(yīng)用系實習(xí)生-模型訓(xùn)練筆記(更新至線性回歸、Ridge回歸、Lasso回歸、Elastic Net回歸、決策樹回歸、梯度提升樹回歸和隨機(jī)森林回歸)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 微軟 蘇州STCA 2022暑期實習(xí)生 平行面+終面 面經(jīng)

    博主背景 中流985軟件工程專業(yè)本科,acm銀牌選手,無實習(xí)經(jīng)歷,無項目。 這些部分是我在和一起參與面試的人溝通的時候了解到的,和大家做個分享,希望能幫助到各位。 代碼能力 這個不用多說,代碼能力越強(qiáng)越好。 溝通能力 這個點是很重要但是很容易被人忽略的一個點

    2024年02月05日
    瀏覽(41)
  • ChatGPT的插件能用了,每月 20 美元的實習(xí)生真香

    ChatGPT的插件能用了,每月 20 美元的實習(xí)生真香

    哈嘍嗨!你好,我是小雨青年,一名 追趕 AI 步伐的程序員。 自從上周 OpenAI 官宣了即將開放插件給 Plus 用戶以來,這三天我就每天都會刷新ChatGPT 設(shè)置頁面。 直到今天早上,插件終于面向我的賬戶開放啦! 這真是,泰褲辣! 作為本次啟用插件的早期會員用戶,首先我向大家

    2024年02月05日
    瀏覽(15)
  • 記錄--前端實習(xí)生的這個 bug 被用做了一道基礎(chǔ)面試題

    記錄--前端實習(xí)生的這個 bug 被用做了一道基礎(chǔ)面試題

    測試發(fā)現(xiàn)了一個問題,簡單描述問題就是通過函數(shù)刪除一個數(shù)組中多個元素,傳入的參數(shù)是一個數(shù)組索引。 然后發(fā)現(xiàn)實際效果有時刪除的不是想要的內(nèi)容。 具體? Bug ?代碼實現(xiàn): 上面代碼出現(xiàn)問題的原因是 splice 會改變原始數(shù)組的,然后導(dǎo)致索引偏移,不知道有沒有同學(xué)出過

    2024年02月05日
    瀏覽(25)
  • 計算機(jī)視覺實習(xí)生面經(jīng)(百度 | 地平線 | 小米 | 曠視 | 快手)

    一面 1.處理樣本不平衡的方法 (1) Bootstrapping :訓(xùn)練隨機(jī)森林,對于每一個樹就是采樣booststraping方法采樣,也算是隨機(jī)森林的其中一個隨機(jī)性表現(xiàn)。再比如bagging方法,也是基于該有放回重采樣方法。 (2) 數(shù)據(jù)擴(kuò)充 :數(shù)據(jù)降采樣 (3) Focal Loss :對不同樣本預(yù)測錯誤的懲罰權(quán)重不同

    2024年02月08日
    瀏覽(21)
  • 關(guān)于.Net和Java的看法——我見過最牛的一個小實習(xí)生經(jīng)歷

    關(guān)于.Net和Java的看法——我見過最牛的一個小實習(xí)生經(jīng)歷

    筆者( 小方同學(xué)在學(xué)習(xí) )是一個??圃盒5囊幻胀▽W(xué)生,目前就職于某三線城市的WEB方面.Net開發(fā)實習(xí)生,在找實習(xí)期間和就業(yè)期間的一些看法,發(fā)表此文,純個人想法,歡迎討論,指正!哈哈輕點噴~ 在校學(xué)習(xí)技術(shù)方面也是.Net方面,所以實習(xí)就是.Net開發(fā)實習(xí)生。我也很喜

    2023年04月08日
    瀏覽(22)
  • 機(jī)器學(xué)習(xí)6:使用 TensorFlow 的訓(xùn)練線性回歸模型

    紙上得來終覺淺,絕知此事要躬行。前面 5 篇文章介紹了機(jī)器學(xué)習(xí)相關(guān)的部分基礎(chǔ)知識,在本章,筆者將講解基于 TensorFlow 實現(xiàn)一個簡單的線性回歸模型,以便增強(qiáng)讀者對機(jī)器學(xué)習(xí)的體感。 目錄 1.環(huán)境準(zhǔn)備 1.1 安裝 Python3 1.2 安裝 PyCharm 1.3 安裝 TensorFlow 1.4 安裝?pandas

    2024年02月11日
    瀏覽(24)
  • MIT線性代數(shù)詳細(xì)筆記(更新中)

    MIT線性代數(shù)詳細(xì)筆記(更新中)

    2022.10.15 ~ 2022.11. 立個flag,每天一到兩刷。 行圖像: 對于行圖像,n=2,即兩方程兩未知數(shù),兩條直線的交點就是方程的解。 列圖像 該方程的目的是什么? ????????目的是尋找正確的線性組合。上圖紅框部分就是列向量的線性組合。 x=1,y=2的線性組合可以得出b。而所有的

    2024年02月15日
    瀏覽(28)
  • 機(jī)械學(xué)習(xí)模型訓(xùn)練常用代碼(隨機(jī)森林、聚類、邏輯回歸、svm、線性回歸、lasso回歸,嶺回歸)

    更多pandas操作請參考添加鏈接描述pandas對于文件數(shù)據(jù)基本操作 導(dǎo)入的包sklearn 字符串編碼處理,LabelEncoder TfidfVectorizer結(jié)合TruncatedSVD 排除某一列,例如 如果需要用到回歸則換成RandomForestRegressor 數(shù)據(jù)在dc_matrix里面 繪制距離 #加入到表里面 師范,保存文本模型,使用其轉(zhuǎn)換,調(diào)

    2023年04月14日
    瀏覽(23)
  • 【AI】《動手學(xué)-深度學(xué)習(xí)-PyTorch版》筆記(九):從零開始實現(xiàn)線性回歸的訓(xùn)練

    在深度學(xué)習(xí)中,用來訓(xùn)練的數(shù)據(jù)集通過標(biāo)注來實現(xiàn)。 咱們在這一步使用函數(shù)來生成一組數(shù)據(jù)集 定義數(shù)據(jù)生成函數(shù):synthetic_data

    2024年02月14日
    瀏覽(23)
  • 網(wǎng)絡(luò)工程——專業(yè)實習(xí)訓(xùn)練(拓?fù)浯罱?)

    路由控制的方式 ????????1.控制路由的發(fā)布:通過路由策略對發(fā)布的路由進(jìn)行過濾,只發(fā)布滿足條件的路由 ????????2.控制路由的接收:通過路由策略對接收的路由進(jìn)行過濾,只接收滿足條件的路由 ????????3.控制路由的引入:通過路由策略控制從其他路由協(xié)議引入

    2023年04月09日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包