线性回归——最小二乘法(公式推导和非调包实现)

Kohana ·
更新时间:2024-09-21
· 820 次阅读

接上一篇文章【线性回归——二维线性回归方程(证明和代码实现)】

前言:
博主前面一篇文章讲述了二维线性回归问题的求解原理和推导过程,以及使用python自己实现算法,但是那种方法只能适用于普通的二维平面问题,今天博主来讲一下线性回归问题中更为通用的方法,也是我们实际开发中会经常用到的一个数学模型,常用的解法就是最小二次乘法和梯度下降法.博主今天对最小二乘法进行推导并使用Python代码自定义实现,废话不多说,开始吧:

一、公式推导 假如现在有一堆这样的数据(x1,y1),(x2,y2),…,(xn,yn)(x_1,y_1),(x_2,y_2),\dots,(x_n,y_n)(x1​,y1​),(x2​,y2​),…,(xn​,yn​),然后我们已经通过某种方式得到了数据所对应的模型y^=θ0+θ1x\hat{y}=\theta_0+\theta_1xy^​=θ0​+θ1​x,但是因为 y^\hat{y}y^​ 毕竟是通过训练模型所得到的预测值,所以 y^\hat{y}y^​ 与 yyy 之间必定存在误差如图所示:
原创文章 48获赞 99访问量 1万+ 关注 私信 展开阅读全文
作者:尼克不可



最小二乘法 回归 线性 线性回归

需要 登录 后方可回复, 如果你还没有账号请 注册新账号