机器学习——多变量回归

模型

普通表示

两个变量能进行回归分析吗_机器学习为特征个数。
两个变量能进行回归分析吗_python_02
两个变量能进行回归分析吗_深度学习_03:
两个变量能进行回归分析吗_深度学习_04

向量表示

两个变量能进行回归分析吗_深度学习_05两个变量能进行回归分析吗_python_06两个变量能进行回归分析吗_两个变量能进行回归分析吗_07

多元梯度下降法

两个变量能进行回归分析吗_机器学习_08
两个变量能进行回归分析吗_深度学习_09时(实际上也是单变量线性回归):

两个变量能进行回归分析吗_深度学习_10
两个变量能进行回归分析吗_机器学习_11

两个变量能进行回归分析吗_机器学习_12时:
两个变量能进行回归分析吗_深度学习_10
两个变量能进行回归分析吗_人工智能_14

特征缩放

对于多个特征值,如果这些特征值的数量级差别很大,在不做任何处理的情况下,利用梯度下降法最小化损失函数的过程将收敛很慢,比如下面的情况,对于特征两个变量能进行回归分析吗_机器学习_15两个变量能进行回归分析吗_深度学习_16
两个变量能进行回归分析吗_深度学习_17
它的收敛过程将非常缓慢。
那么我们如果解决这个问题呢?我们的目的是使每个特征值都尽量保持在同一数量级范围内,因此,可以对每个特征值进行如下操作:
两个变量能进行回归分析吗_两个变量能进行回归分析吗_18
参数解释:
两个变量能进行回归分析吗_python_19:所有样本中特征两个变量能进行回归分析吗_机器学习_20的平均值
两个变量能进行回归分析吗_python_21:所有样本中特征两个变量能进行回归分析吗_机器学习_20的极差(max-min)

正规方程(Normal)法

梯度下降法中,为了最小化损失函数,每一次的迭代过程都要遍历样本中的各个数据。然而,利用正规方程,我们可以一步到位。
下面看一个例子:

1

2104

5

1

45

460

1

1416

3

2

40

232

1

1534

3

2

30

315

1

852

2

1

36

178

在这个例子中,一共有4个特征两个变量能进行回归分析吗_人工智能_29,则:
两个变量能进行回归分析吗_人工智能_30
两个变量能进行回归分析吗_深度学习_31
利用矩阵的相关运算可求得:
两个变量能进行回归分析吗_深度学习_32
对于一组含有m个样本,n个特征的数据:
利用两个变量能进行回归分析吗_python_33表示第i个样本的第j个特征值。
两个变量能进行回归分析吗_机器学习_34
两个变量能进行回归分析吗_python_35
两个变量能进行回归分析吗_人工智能_36
则:
两个变量能进行回归分析吗_深度学习_32

两个变量能进行回归分析吗_python_38的不可逆情况

  1. 特征值中出现了多余的数据(比如两个变量能进行回归分析吗_python_39两个变量能进行回归分析吗_python_40为常数)
  2. 过多的特征(样本的数量远小于特征的数量)

梯度下降法和正规方程法比较

梯度下降法
  • 需要我们手动选择学习率 两个变量能进行回归分析吗_两个变量能进行回归分析吗_41
  • 需要很多次的迭代,而且每次迭代都要遍历所有数据
  • 但是当特征特征数量两个变量能进行回归分析吗_两个变量能进行回归分析吗_42比较大时(上百万或上千万),梯度下降法要比正规方程法效果好
正规方程法
  • 不需要选择学习率 两个变量能进行回归分析吗_两个变量能进行回归分析吗_41
  • 不需要进行多次迭代
  • 需要计算矩阵的乘积和矩阵的逆(两个变量能进行回归分析吗_两个变量能进行回归分析吗_44),这个过程的复杂度大约为两个变量能进行回归分析吗_python_45,当两个变量能进行回归分析吗_两个变量能进行回归分析吗_42比较大时,所需的开销也会很大

因此,当两个变量能进行回归分析吗_机器学习比较小时,通常选择正规方程法,当两个变量能进行回归分析吗_机器学习比较大时,通常选择梯度下降法。

总结

通过上面的学习我们可以发现,单变量的回归是当两个变量能进行回归分析吗_深度学习_09时的多变量回归。