線性迴歸

由於監督學習由目標或結果變數(或因變數)組成,其將從給定的一組預測變數(自變數)預測。使用這些變數集,我們生成一個將輸入對映到所需輸出的函式。訓練過程一直持續到模型在訓練資料上達到所需的準確度。

因此,有許多監督學習演算法的例子,所以在這種情況下我想關注線性迴歸

線性迴歸用於根據連續變數估算實際值(房屋成本,看漲期權,總銷售額等)。在這裡,我們通過擬合最佳線來建立獨立變數和因變數之間的關係。該最佳擬合線稱為迴歸線,並由線性方程 Y = a * X + b 表示。

理解線性迴歸的最佳方法是重溫這種童年經歷。讓我們說,你問一個五年級的孩子,通過增加體重的順序來安排他們班上的人,而不是問他們的體重! 你覺得孩子會怎麼做?他/她可能會在人的身高和體型上進行(視覺分析),並使用這些可見引數的組合進行排列。

這是現實生活中的線性迴歸! 孩子實際上已經發現高度和構建將通過關係與權重相關聯,這看起來像上面的等式。

在這個等式中:

Y – Dependent Variable
a – Slope
X – Independent variable
b – Intercept

這些係數 a 和 b 是基於最小化資料點和迴歸線之間的距離的平方差的總和而匯出的。

請看下面的例子。這裡我們已經確定了具有線性方程 y = 0.2811x + 13.9 的最佳擬合線。現在使用這個等式,我們可以找到重量,知道一個人的身高。

StackOverflow 文件

線性迴歸主要有兩種型別:簡單線性迴歸和多元線性迴歸。簡單線性迴歸的特徵在於一個獨立變數。並且,多元線性迴歸(顧名思義)的特徵是多個(超過 1 個)自變數。在找到最佳擬合線時,你可以擬合多項式或曲線迴歸。這些被稱為多項式或曲線迴歸。

只是暗示在 Python 中實現線性迴歸

#Import Library
#Import other necessary libraries like pandas, numpy...
from sklearn import linear_model

#Load Train and Test datasets
#Identify feature and response variable(s) and values must be numeric and numpy arrays

x_train=input_variables_values_training_datasets
y_train=target_variables_values_training_datasets
x_test=input_variables_values_test_datasets

# Create linear regression object

linear = linear_model.LinearRegression()

# Train the model using the training sets and check score

linear.fit(x_train, y_train)
linear.score(x_train, y_train)

#Equation coefficient and Intercept

print('Coefficient: \n', linear.coef_)
print('Intercept: \n', linear.intercept_)

#Predict Output

predicted= linear.predict(x_test)

我已經提供了一些關於理解監督學習挖掘線性迴歸演算法以及一段 Python 程式碼的一瞥。