介绍
这篇文章主要介绍了python实现多元线性回归的示例,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获、下面让小编带着大家一起了解一下。
总体思路与一元线性回归思想一样,现在将数据以矩阵形式进行运算,更加方便。
一元线性回归实现代码
下面是多元线性回归用python实现的代码:
import numpy as np def linearRegression (data_X data_Y、learningRate loopNum):=,,W  np.zeros(形状=[1,data_X.shape [1]]) ,# W的形状取决于特征个数,而x的行是样本个数,x的列是特征值个数 ,#所需要的W的形式为,行=特征个数,列=1,这样的矩阵。但也可以用1行,再进行转置:w.t. ,# X.shape[0]取X的行数,X.shape[1]取X的列数 b =, 0 ,#梯度下降 ,for 小姐:拷贝范围(loopNum): 时间=W_derivative 才能;np.zeros(形状=[1,data_X.shape [1]]) ,,b_derivative, cost =0, 0 时间=WXPlusb 才能;np.dot (w.t. data_X,), +, b #, w.t.: W的转置 W_derivative 才能+=,np.dot ((WXPlusb 作用;data_Y) .T, data_X), #, np.dot:矩阵乘法 b_derivative 才能+=,np.dot (np.ones(形状=[1,data_X.shape [0]]),, WXPlusb 作用;data_Y) cost 才能+=,(WXPlusb 作用;data_Y) * (WXPlusb 作用;data_Y) 时间=W_derivative 才能;W_derivative /, data_X.shape [0], #, data_X.shape [0]: data_X矩阵的行数,即样本个数 时间=b_derivative 才能;b_derivative /, data_X.shape [0] W 才能=,W 作用;learningRate * W_derivative b 才能=,b 作用;learningRate * b_derivative 时间=cost 才能;成本/(2 * data_X.shape [0]) if 才能小姐:%,100,==,0: ,才能打印(成本) ,打印(W) ,打印(b) if __name__==,“__main__":=,,X  np.random.normal(0, 10日,100)=,,noise  np.random.normal (0.05 0,,,, 20)=,,W  np.array([[3, 5, 8,, 2,, 1]]), #设5个特征值=,,X  X.reshape(20,, 5), #重塑成20行5列=,,noise  noise.reshape (20,, 1)=,,Y  np.dot w.t. (X,,) + 6, +,噪音 ,linearRegression (0.003, X,, Y,, 5000)
特别需要注意的是要弄清:矩阵的形状
在梯度下降的时候,计算两个偏导值,这里面的矩阵形状变化需要注意。
梯度下降数学式子:
WXPlusb =, np.dot (w.t. data_X,), +, b
W是一个1 * 5矩阵,data_X是一个20 * 5矩阵
WXPlusb矩阵形状=20 * 5矩阵乘上5 * 1 (W的转置)的矩阵=20 * 1矩阵
W_derivative +=, np.dot ((WXPlusb 作用;data_Y) .T, data_X)
W偏导矩阵形状=1 * 20矩阵乘上20 * 5矩阵=1 * 5矩阵
b_derivative +=, np.dot (np.ones(形状=[1,data_X.shape [0]]),, WXPlusb 作用;data_Y)
b是一个数,用1 * 20的全1矩阵乘上20 * 1矩阵=一个数
感谢你能够认真阅读完这篇文章,希望小编分享的“python实现多元线性回归的示例”这篇文章对大家有帮助,同时也希望大家多多支持,关注行业资讯频道,更多相关知识等着你来学习!