线性回归, 最简单的机器学习算法, 当你看完这篇文章, 你就会发现, 线性回归是多么的简单.
首先, 什么是线性回归. 简单的说, 就是在坐标系中有很多点, 线性回归的目的就是找到一条线使得这些点都在这条直线上或者直线的周围, 这就是线性回归(Linear Regression).
是不是有画面感了? 那么我们上图片:
![1.png][1]
那么接下来, 就让我们来看看具体的线性回归吧
首先, 我们以二维数据为例:
我们有一组数据和, 其中是我们的特征, 就是我们的真实值(也就是每一个x对应的值), 我们需要找到一个和从而得到一条直线, 而这条直线的和就是我们线性回归所需要求的参数
那么, 和需要怎样求得呢? 那么我们需要先来了解一下他的机制
如我们之前所说, 我们需要这条直线使得所有的点尽可能的在直线上或者直线的两边, 也就是说, 我们这些在我们直线上对应的值与我们真实的值的差尽可能的小, 即尽可能的小, 因此就有了我们的损失函数:
那么我们的目标就变成了使得尽可能的小
首先我们对损失函数求导:
求解以后可得:
其中即是的均值
而这就是我们的最小二乘法, 求解得到的和就是我们拟合出来的直线的参数.
[1]: )
那么就下来, 我们来看一看当为多维的情况, 也就是多元线性回归
与上面的一样, 我们需要拟合一个直线使得大多数的点在直线上或者在直线周围, 不同的是, 现在我们的是多维的, 而我们的损失函数也就变成了
以上, 就是我们的线性回归以及使用最小二乘法求线性回归了