国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型

這篇具有很好參考價(jià)值的文章主要介紹了機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型分析(波士頓房價(jià))

目的與要求

1、通過自定義函數(shù)進(jìn)行線性回歸模型對boston數(shù)據(jù)集前兩個(gè)維度的數(shù)據(jù)進(jìn)行模型訓(xùn)練并畫出SSE和Epoch曲線圖,畫出真實(shí)值和預(yù)測值的散點(diǎn)圖,最后進(jìn)行二維和三維度可視化展示數(shù)據(jù)區(qū)域。
2、通過自定義函數(shù)進(jìn)行線性回歸模型對boston數(shù)據(jù)集前四個(gè)維度的數(shù)據(jù)進(jìn)行模型訓(xùn)練并畫出SSE和Epoch曲線圖,畫出真實(shí)值和預(yù)測值的散點(diǎn)圖,最后進(jìn)行可視化展示數(shù)據(jù)區(qū)域。

步驟

1、先載入boston數(shù)據(jù)集 Load Iris data
2、分離訓(xùn)練集和設(shè)置測試集split train and test sets
3、對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理Normalize the data
4、自定義損失函數(shù)
5、使用梯度下降算法訓(xùn)練線性回歸模型
6、初始化模型參數(shù)
7、訓(xùn)練模型
8、對訓(xùn)練集和新數(shù)據(jù)進(jìn)行預(yù)測
9、畫出SSE和Epoch折線圖
10、畫出真實(shí)值和預(yù)測值的散點(diǎn)圖
11、進(jìn)行可視化

代碼

1、通過自定義函數(shù)進(jìn)行線性回歸模型對boston數(shù)據(jù)集前兩個(gè)維度的數(shù)據(jù)進(jìn)行模型訓(xùn)練并畫出SSE和Epoch曲線圖,畫出真實(shí)值和預(yù)測值的散點(diǎn)圖,最后進(jìn)行二維和三維度可視化展示數(shù)據(jù)區(qū)域。

#引入所需庫
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D

# 讀取數(shù)據(jù)
data_url = "http://lib.stat.cmu.edu/datasets/boston"
raw_df = pd.read_csv(data_url, sep="\s+", skiprows=22, header=None)
data = np.hstack([raw_df.values[::2, :], raw_df.values[1::2, :2]])
target = raw_df.values[1::2, 2]
x = data[:,:2] # 只使用前兩個(gè)特征進(jìn)行線性回歸
y = target.reshape(-1,1)

#自定義函數(shù)進(jìn)行線性回歸
def compute_cost(X, y, theta):
    """
    計(jì)算損失函數(shù)(平均誤差平方和)
    """
    m = len(y)
    predictions = X.dot(theta)
    cost = (1/(2*m)) * np.sum(np.square(predictions-y))
    return cost

def gradient_descent(X, y, theta, learning_rate, num_epochs):
    """
    使用梯度下降算法訓(xùn)練線性回歸模型
    """
    m = len(y)
    cost_history = np.zeros(num_epochs)
    theta_history = np.zeros((num_epochs, theta.shape[0]))
    
    for epoch in range(num_epochs):
        predictions = X.dot(theta)
        errors = predictions - y
        theta = theta - (1/m) * learning_rate * (X.T.dot(errors))
        
        cost = compute_cost(X, y, theta)
        cost_history[epoch] = cost
        theta_history[epoch,:] = theta.T
    
    return theta, cost_history, theta_history

#對輸入特征進(jìn)行標(biāo)準(zhǔn)化
mean_x = np.mean(x, axis=0)          #求出每一列特征的平均值
std_x = np.std(x, axis=0)            #求出每一列特征的標(biāo)準(zhǔn)差。
x = (x - mean_x) / std_x           #將每一列特征進(jìn)行標(biāo)準(zhǔn)化,即先將原始數(shù)據(jù)減去該列的平均值,再除以該列的標(biāo)準(zhǔn)差,這樣就能得到均值為0,標(biāo)準(zhǔn)差為1的特征 
X = np.hstack([np.ones((len(x),1)), x]) # 添加一列全為1的特征,表示截距項(xiàng)

# 初始化模型參數(shù)
theta = np.zeros((X.shape[1],1))

# 訓(xùn)練模型
learning_rate = 0.01
num_epochs = 1000
theta, cost_history, theta_history = gradient_descent(X, y, theta, learning_rate, num_epochs)

# 對訓(xùn)練集進(jìn)行預(yù)測
predictions = X.dot(theta)
predictions[:10]

# 對新數(shù)據(jù)進(jìn)行預(yù)處理
new_data = np.array([[0.01, 18]]) # 假設(shè)新數(shù)據(jù)是 CRIM=0.01,ZN=18
new_data = (new_data - mean_x) / std_x
new_X = np.hstack([np.ones((1,1)), new_data]) # 添加截距項(xiàng)

# 使用訓(xùn)練出的模型參數(shù)進(jìn)行預(yù)測
new_predictions = new_X.dot(theta)
new_predictions
print('預(yù)測的房價(jià)為:${:.7f}'.format(float(new_predictions)*1000))

# 畫出Epoch曲線圖
#將每個(gè)特征在訓(xùn)練過程中更新的參數(shù)θ的變化情況繪制出來,可以看到不同特征在訓(xùn)練過程中的變化趨勢
plt.figure()
plt.plot(range(num_epochs), theta_history[:, 0], label='theta0')
plt.plot(range(num_epochs), theta_history[:, 1], label='theta1')
plt.show()

# 畫出SSE和Epoch折線圖
plt.figure(figsize=(10,5))
plt.plot(range(num_epochs), cost_history)
plt.xlabel('Epoch')
plt.ylabel('SSE')
plt.title('SSE vs. Epoch')
plt.show()

# 畫出預(yù)測值與真實(shí)值的比較圖
plt.figure(figsize=(10,5))
plt.scatter(y, predictions)
plt.xlabel('True Values')
plt.ylabel('Predictions')
plt.title('True Values vs. Predictions')
plt.show()

# 畫出數(shù)據(jù)二維可視化圖
plt.figure(figsize=(10,5))
plt.scatter(x[:,0], y)
plt.xlabel('CRIM')
plt.ylabel('MEDV')
plt.title('CRIM vs. MEDV')
plt.show()

# 畫出數(shù)據(jù)三維可視化圖
fig = plt.figure(figsize=(10,5))
ax = fig.add_subplot(111, projection='3d')
ax.scatter(x[:,0], x[:,1], y)
ax.set_xlabel('CRIM')
ax.set_ylabel('ZN')
ax.set_zlabel('MEDV')
ax.set_title('CRIM-ZN vs. MEDV')
plt.show()

Jupyter截圖:
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能

1、通過自定義函數(shù)進(jìn)行線性回歸模型對boston數(shù)據(jù)集前四個(gè)維度的數(shù)據(jù)進(jìn)行模型訓(xùn)練并畫出SSE和Epoch曲線圖,畫出真實(shí)值和預(yù)測值的散點(diǎn)圖,最后進(jìn)行可視化展示數(shù)據(jù)區(qū)域。

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
#載入數(shù)據(jù)
data_url = "http://lib.stat.cmu.edu/datasets/boston"
raw_df = pd.read_csv(data_url, sep="\s+", skiprows=22, header=None)
data = np.hstack([raw_df.values[::2, :], raw_df.values[1::2, :2]])
target = raw_df.values[1::2, 2]
x = data[:,:2]#前2個(gè)維度
y = target
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D

# 讀取數(shù)據(jù)
data_url = "http://lib.stat.cmu.edu/datasets/boston"
raw_df = pd.read_csv(data_url, sep="\s+", skiprows=22, header=None)
data = np.hstack([raw_df.values[::2, :], raw_df.values[1::2, :2]])
target = raw_df.values[1::2, 2]
x = data[:,:4] # 
y = target.reshape(-1,1)

#自定義函數(shù)進(jìn)行線性回歸
def compute_cost(X, y, theta):
    """
    計(jì)算損失函數(shù)(平均誤差平方和)
    """
    m = len(y)
    predictions = X.dot(theta)
    cost = (1/(2*m)) * np.sum(np.square(predictions-y))
    return cost

def gradient_descent(X, y, theta, learning_rate, num_epochs):
    """
    使用梯度下降算法訓(xùn)練線性回歸模型
    """
    m = len(y)
    cost_history = np.zeros(num_epochs)
    theta_history = np.zeros((num_epochs, theta.shape[0]))
    
    for epoch in range(num_epochs):
        predictions = X.dot(theta)
        errors = predictions - y
        theta = theta - (1/m) * learning_rate * (X.T.dot(errors))
        
        cost = compute_cost(X, y, theta)
        cost_history[epoch] = cost
        theta_history[epoch,:] = theta.T
    
    return theta, cost_history, theta_history

#對輸入特征進(jìn)行標(biāo)準(zhǔn)化
mean_x = np.mean(x, axis=0)          #求出每一列特征的平均值
std_x = np.std(x, axis=0)            #求出每一列特征的標(biāo)準(zhǔn)差。
x = (x - mean_x) / std_x           #將每一列特征進(jìn)行標(biāo)準(zhǔn)化,即先將原始數(shù)據(jù)減去該列的平均值,再除以該列的標(biāo)準(zhǔn)差,這樣就能得到均值為0,標(biāo)準(zhǔn)差為1的特征 
X = np.hstack([np.ones((len(x),1)), x]) # 添加一列全為1的特征,表示截距項(xiàng)

# 初始化模型參數(shù)
theta = np.zeros((X.shape[1],1))

# 訓(xùn)練模型
learning_rate = 0.01
num_epochs = 1000
theta, cost_history, theta_history = gradient_descent(X, y, theta, learning_rate, num_epochs)
# 畫出Epoch曲線圖
#將每個(gè)特征在訓(xùn)練過程中更新的參數(shù)θ的變化情況繪制出來,可以看到不同特征在訓(xùn)練過程中的變化趨勢
plt.figure()
plt.plot(range(num_epochs), theta_history[:, 0], label='theta0')
plt.plot(range(num_epochs), theta_history[:, 1], label='theta1')
plt.plot(range(num_epochs), theta_history[:, 2], label='theta2')
plt.plot(range(num_epochs), theta_history[:, 3], label='theta3')
plt.show()


# 對訓(xùn)練集進(jìn)行預(yù)測
predictions = X.dot(theta)
predictions[:10]

# 對新數(shù)據(jù)進(jìn)行預(yù)處理
new_data = np.array([[ 0.01,18,2.310,0]]) # 假設(shè)新數(shù)據(jù)是 CRIM=0.01,ZN=18,INDUS=2.310,CHAS=0
new_data = (new_data - mean_x) / std_x
new_X = np.hstack([np.ones((1,1)), new_data]) # 添加截距項(xiàng)

# 使用訓(xùn)練出的模型參數(shù)進(jìn)行預(yù)測
new_predictions = new_X.dot(theta)
new_predictions
print('預(yù)測的房價(jià)為:${:.7f}'.format(float(new_predictions)*1000))
# 畫出SSE曲線圖
plt.figure()
plt.plot(range(num_epochs), cost_history)
plt.xlabel('Epoch')
plt.ylabel('SSE')
plt.title('SSE vs. Epoch')
plt.show()
# 畫出預(yù)測值與真實(shí)值的比較圖
plt.figure(figsize=(10,5))
plt.scatter(y, predictions)
plt.xlabel('True Values')
plt.ylabel('Predictions')
plt.title('True Values vs. Predictions')
plt.show()

# 可視化前四個(gè)維度的數(shù)據(jù)
#前四個(gè)維度數(shù)據(jù)的可視化圖像。其中橫軸為第一個(gè)特征CRIM,縱軸為第二個(gè)特征ZN,縱軸為第三個(gè)特征INDUS,點(diǎn)的顏色為第四個(gè)特征的值。
fig = plt.figure(figsize=(10, 8))
ax = fig.add_subplot(111, projection='3d')
ax.scatter(x[:, 0], x[:, 1], x[:, 2], c=x[:, 3], cmap='cool')
ax.set_xlabel('CRIM')
ax.set_ylabel('ZN')
ax.set_zlabel('INDUS')
plt.title('Boston Housing Data')
plt.show()

Jupyter截圖:
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能

部分解析:
1、通過自定義函數(shù)進(jìn)行線性回歸模型對boston數(shù)據(jù)集前兩個(gè)維度的數(shù)據(jù)進(jìn)行模型訓(xùn)練并畫出SSE和Epoch曲線圖,畫出真實(shí)值和預(yù)測值的散點(diǎn)圖,最后進(jìn)行二維和三維度可視化展示數(shù)據(jù)區(qū)域。

機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
畫出SSE(誤差平方和)隨Epoch(迭代次數(shù))的變化曲線圖,用來評估模型訓(xùn)練的效果。在每個(gè)Epoch,模型都會計(jì)算一次預(yù)測值并計(jì)算預(yù)測值與實(shí)際值之間的誤差(即損失),然后通過梯度下降算法更新模型參數(shù),使得下一次預(yù)測的誤差更小。隨著Epoch的增加,SSE的值會逐漸減小,直到收斂到一個(gè)最小值。
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
2、通過自定義函數(shù)進(jìn)行線性回歸模型對boston數(shù)據(jù)集前四個(gè)維度的數(shù)據(jù)進(jìn)行模型訓(xùn)練并畫出SSE和Epoch曲線圖,畫出真實(shí)值和預(yù)測值的散點(diǎn)圖,最后進(jìn)行可視化展示數(shù)據(jù)區(qū)域。
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
畫出SSE(誤差平方和)隨Epoch(迭代次數(shù))的變化曲線圖,用來評估模型訓(xùn)練的效果。在每個(gè)Epoch,模型都會計(jì)算一次預(yù)測值并計(jì)算預(yù)測值與實(shí)際值之間的誤差(即損失),然后通過梯度下降算法更新模型參數(shù),使得下一次預(yù)測的誤差更小。隨著Epoch的增加,SSE的值會逐漸減小,直到收斂到一個(gè)最小值。
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型,機(jī)器學(xué)習(xí)與深度學(xué)習(xí),大數(shù)據(jù)可視化,大數(shù)據(jù),機(jī)器學(xué)習(xí),深度學(xué)習(xí),線性回歸,大數(shù)據(jù),人工智能
使用梯度下降算法訓(xùn)練線性回歸模型的基本思路是:先隨機(jī)初始化模型參數(shù)θ,然后通過迭代調(diào)整參數(shù)θ,使得損失函數(shù)的值盡量小。模型訓(xùn)練完成后,我們可以用訓(xùn)練好的模型對新的數(shù)據(jù)進(jìn)行預(yù)測。文章來源地址http://www.zghlxwxcb.cn/news/detail-538094.html

到了這里,關(guān)于機(jī)器學(xué)習(xí)與深度學(xué)習(xí)——自定義函數(shù)進(jìn)行線性回歸模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——線性回歸的從零開始實(shí)現(xiàn)

    機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——線性回歸的從零開始實(shí)現(xiàn)

    雖然現(xiàn)在的深度學(xué)習(xí)框架幾乎可以自動化實(shí)現(xiàn)下面的工作,但從零開始實(shí)現(xiàn)可以更了解工作原理,方便我們自定義模型、自定義層或自定義損失函數(shù)。 根據(jù)帶有噪聲的線性模型構(gòu)造一個(gè)人造數(shù)據(jù)集。任務(wù)是使用這個(gè)數(shù)據(jù)集來恢復(fù)模型的參數(shù)。我們使用低維數(shù)據(jù),可以更容易地

    2024年02月15日
    瀏覽(20)
  • 【機(jī)器學(xué)習(xí)】線性回歸模型詳解

    【機(jī)器學(xué)習(xí)】線性回歸模型詳解

    PS:本文有一定閱讀門檻,如果有不明白的地方歡迎評論詢問! 接下來我們將要學(xué)習(xí)我們的第一個(gè)模型——線性回歸。比如說我需要根據(jù)數(shù)據(jù)預(yù)測某個(gè)面積的房子可以賣多少錢 接下來我們會用到以下符號: m:訓(xùn)練樣本數(shù)量 x:輸入值,又稱為屬性值 y:輸出值,是我們需要的結(jié)果

    2024年02月03日
    瀏覽(21)
  • 機(jī)器學(xué)習(xí)10—多元線性回歸模型

    機(jī)器學(xué)習(xí)10—多元線性回歸模型

    在市場的經(jīng)濟(jì)活動中,經(jīng)常會遇到某一市場現(xiàn)象的發(fā)展和變化取決于幾個(gè)影響因素的情況,也就是一個(gè)因變量和幾個(gè)自變量有依存關(guān)系的情況。而且有時(shí)幾個(gè)影響因素主次難以區(qū)分,或者有的因素雖屬次要,但也不能略去其作用。例如,某一商品的銷售量既與人口的增長變化

    2023年04月24日
    瀏覽(22)
  • 【機(jī)器學(xué)習(xí)300問】11、多元線性回歸模型和一元線性回歸有什么不同?

    【機(jī)器學(xué)習(xí)300問】11、多元線性回歸模型和一元線性回歸有什么不同?

    ? ? ? ? 在之前的文章中,我們已經(jīng)學(xué)習(xí)了一元線性回歸模型,其中最關(guān)鍵的參數(shù)是w和b。機(jī)器學(xué)習(xí)的目的就是去得到合適w和b后能準(zhǔn)確預(yù)測未知數(shù)據(jù)。但現(xiàn)實(shí)世界是復(fù)雜的,一個(gè)事情的發(fā)生絕大多數(shù)時(shí)候不會是一個(gè)原因?qū)е隆?????????因此多元線性回歸模型區(qū)別與一元線

    2024年01月22日
    瀏覽(24)
  • 【機(jī)器學(xué)習(xí)】P2 線性回歸、損失函數(shù)與梯度下降

    【機(jī)器學(xué)習(xí)】P2 線性回歸、損失函數(shù)與梯度下降

    線性回歸簡單的說就是線性函數(shù); 線性回歸屬于機(jī)器學(xué)習(xí) 回歸問題; 在線性回歸建立的線性關(guān)系的模型中,假設(shè)目標(biāo)變量和自變量之間存在一種線性關(guān)系,模型的目標(biāo)是找到最佳的擬合線,是的模型對于未知的數(shù)據(jù)能夠進(jìn)行最準(zhǔn)確的預(yù)測; 線性回歸模型的一般形式為: y

    2023年04月08日
    瀏覽(28)
  • 【AI】機(jī)器學(xué)習(xí)——線性模型(邏輯斯蒂回歸)

    【AI】機(jī)器學(xué)習(xí)——線性模型(邏輯斯蒂回歸)

    邏輯回歸輸出的是實(shí)例屬于每個(gè)類別的似然概率,似然概率最大的類別就是分類結(jié)果 在一定條件下,邏輯回歸模型與樸素貝葉斯分類器等價(jià) 多分類問題可以通過多次二分類或者Softmax回歸解決 3. 線性回歸模型 4.4 線性分類模型——感知器 目標(biāo):用判別模型解決分類問題 4.1.

    2024年02月09日
    瀏覽(21)
  • 機(jī)器學(xué)習(xí)實(shí)戰(zhàn):Python基于LR線性回歸進(jìn)行預(yù)測(十)

    機(jī)器學(xué)習(xí)實(shí)戰(zhàn):Python基于LR線性回歸進(jìn)行預(yù)測(十)

    注意這里的LR指的是 Linear Regression ,線性回歸。而非邏輯回歸 Logistic Regression ,雖然二者簡稱都是LR,但是后者我們還是俗稱 Logistic 多點(diǎn) 1.1 LR的介紹 線性回歸(Linear Regression)是一種用于建立自變量與連續(xù)因變量之間線性關(guān)系模型的統(tǒng)計(jì)學(xué)和機(jī)器學(xué)習(xí)方法。它是最簡單、最常

    2024年02月03日
    瀏覽(31)
  • python機(jī)器學(xué)習(xí)(五)邏輯回歸、決策邊界、代價(jià)函數(shù)、梯度下降法實(shí)現(xiàn)線性和非線性邏輯回歸

    python機(jī)器學(xué)習(xí)(五)邏輯回歸、決策邊界、代價(jià)函數(shù)、梯度下降法實(shí)現(xiàn)線性和非線性邏輯回歸

    線性回歸所解決的問題是把數(shù)據(jù)集的特征傳入到模型中,預(yù)測一個(gè)值使得誤差最小,預(yù)測值無限接近于真實(shí)值。比如把房子的其他特征傳入到模型中,預(yù)測出房價(jià), 房價(jià)是一系列連續(xù)的數(shù)值,線性回歸解決的是有監(jiān)督的學(xué)習(xí)。有很多場景預(yù)測出來的結(jié)果不一定是連續(xù)的,我們

    2024年02月15日
    瀏覽(26)
  • 機(jī)器學(xué)習(xí)6:使用 TensorFlow 的訓(xùn)練線性回歸模型

    紙上得來終覺淺,絕知此事要躬行。前面 5 篇文章介紹了機(jī)器學(xué)習(xí)相關(guān)的部分基礎(chǔ)知識,在本章,筆者將講解基于 TensorFlow 實(shí)現(xiàn)一個(gè)簡單的線性回歸模型,以便增強(qiáng)讀者對機(jī)器學(xué)習(xí)的體感。 目錄 1.環(huán)境準(zhǔn)備 1.1 安裝 Python3 1.2 安裝 PyCharm 1.3 安裝 TensorFlow 1.4 安裝?pandas

    2024年02月11日
    瀏覽(24)
  • 1、動手學(xué)深度學(xué)習(xí)——線性神經(jīng)網(wǎng)絡(luò):線性回歸的實(shí)現(xiàn)(從零實(shí)現(xiàn)+內(nèi)置函數(shù)實(shí)現(xiàn))

    1、動手學(xué)深度學(xué)習(xí)——線性神經(jīng)網(wǎng)絡(luò):線性回歸的實(shí)現(xiàn)(從零實(shí)現(xiàn)+內(nèi)置函數(shù)實(shí)現(xiàn))

    回歸(regression)是能為一個(gè)或多個(gè)自變量與因變量之間關(guān)系建模的一類方法。 在自然科學(xué)和社會科學(xué)領(lǐng)域, 回歸經(jīng)常用來表示輸入和輸出之間的關(guān)系 。 給定一個(gè)數(shù)據(jù)集,我們的目標(biāo)是 尋找模型的權(quán)重和偏置 , 使得根據(jù)模型做出的預(yù)測大體符合數(shù)據(jù)里的真實(shí)價(jià)格。 輸出的

    2024年02月11日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包