1.20 多变量线性回归

文章目录

  • 1.20 多变量线性回归
  • @[toc] 四、多变量线性回归(Linear Regression with Multiple Variables)
  • 4.1 多维特征
  • 4.2 多变量梯度下降
  • 4.3 梯度下降法实践1-特征缩放
  • 4.4 梯度下降法实践2-学习率
  • 4.5 特征和多项式回归
  • 4.6 正规方程
  • 4.7 正规方程及不可逆性(可选)


四、多变量线性回归(Linear Regression with Multiple Variables)

4.1 多维特征

参考视频: 4 - 1 - Multiple Features (8 min).mkv

目前为止,我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为梯度下降求解最大值_线性回归

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-h8o4EF5L-1642734612973)(…/images/591785837c95bca369021efa14a8bb1c.png)]

增添更多特征后,我们引入一系列新的注释:

梯度下降求解最大值_线性回归_02

梯度下降求解最大值_线性代数_03代表第 梯度下降求解最大值_梯度下降求解最大值_04 个训练实例,是特征矩阵中的第梯度下降求解最大值_梯度下降求解最大值_04行,是一个向量vector)。

比方说,上图的

梯度下降求解最大值_梯度下降求解最大值_06

梯度下降求解最大值_线性代数_07代表特征矩阵中第 梯度下降求解最大值_梯度下降求解最大值_04 行的第 梯度下降求解最大值_深度学习_09 个特征,也就是第 梯度下降求解最大值_梯度下降求解最大值_04 个训练实例的第 梯度下降求解最大值_深度学习_09

如上图的梯度下降求解最大值_线性回归_12

支持多变量的假设 梯度下降求解最大值_深度学习_13 表示为:梯度下降求解最大值_机器学习_14

这个公式中有梯度下降求解最大值_线性回归_15个参数和梯度下降求解最大值_线性回归_02个变量,为了使得公式能够简化一些,引入梯度下降求解最大值_梯度下降求解最大值_17,则公式转化为:梯度下降求解最大值_梯度下降求解最大值_18

此时模型中的参数是一个梯度下降求解最大值_线性回归_15维的向量,任何一个训练实例也都是梯度下降求解最大值_线性回归_15维的向量,特征矩阵梯度下降求解最大值_机器学习_21的维度是 梯度下降求解最大值_线性回归_22。 因此公式可以简化为:梯度下降求解最大值_线性代数_23,其中上标梯度下降求解最大值_线性回归_24代表矩阵转置。

4.2 多变量梯度下降

参考视频: 4 - 2 - Gradient Descent for Multiple Variables (5 min).mkv

与单变量线性回归类似,在多变量线性回归中,我们也构建一个代价函数,则这个代价函数是所有建模误差的平方和,即:梯度下降求解最大值_线性代数_25

其中:梯度下降求解最大值_线性代数_26

我们的目标和单变量线性回归问题中一样,是要找出使得代价函数最小的一系列参数。
多变量线性回归的批量梯度下降算法为:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-oaANvvXQ-1642734612981)(…/images/41797ceb7293b838a3125ba945624cf6.png)]

即:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sO2IcogV-1642734612985)(…/images/6bdaff07783e37fcbb1f8765ca06b01b.png)]

求导数后得到:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ut9lLItD-1642734612987)(…/images/dd33179ceccbd8b0b59a5ae698847049.png)]

梯度下降求解最大值_梯度下降求解最大值_27时,
梯度下降求解最大值_深度学习_28

梯度下降求解最大值_线性代数_29

梯度下降求解最大值_线性回归_30

我们开始随机选择一系列的参数值,计算所有的预测结果后,再给所有的参数一个新的值,如此循环直到收敛。

代码示例:

计算代价函数
梯度下降求解最大值_线性回归_31
其中:梯度下降求解最大值_深度学习_32

Python 代码:

def computeCost(X, y, theta):
    inner = np.power(((X * theta.T) - y), 2)
    return np.sum(inner) / (2 * len(X))

4.3 梯度下降法实践1-特征缩放

参考视频: 4 - 3 - Gradient Descent in Practice I - Feature Scaling (9 min).mkv

在我们面对多维特征问题的时候,我们要保证这些特征都具有相近的尺度,这将帮助梯度下降算法更快地收敛。

以房价问题为例,假设我们使用两个特征,房屋的尺寸和房间的数量,尺寸的值为 0-2000平方英尺,而房间数量的值则是0-5,以两个参数分别为横纵坐标,绘制代价函数的等高线图能,看出图像会显得很扁,梯度下降算法需要非常多次的迭代才能收敛。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-o25CZhXq-1642734612990)(…/images/966e5a9b00687678374b8221fdd33475.jpg)]

解决的方法是尝试将所有特征的尺度都尽量缩放到-1到1之间。如图:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-oQOGMRZZ-1642734612994)(…/images/b8167ff0926046e112acf789dba98057.png)]

最简单的方法是令:梯度下降求解最大值_深度学习_33,其中 梯度下降求解最大值_梯度下降求解最大值_34是平均值,梯度下降求解最大值_线性回归_35是标准差。

4.4 梯度下降法实践2-学习率

参考视频: 4 - 4 - Gradient Descent in Practice II - Learning Rate (9 min).mkv

梯度下降算法收敛所需要的迭代次数根据模型的不同而不同,我们不能提前预知,我们可以绘制迭代次数和代价函数的图表来观测算法在何时趋于收敛。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-x2MTg1op-1642734612999)(…/images/cd4e3df45c34f6a8e2bb7cd3a2849e6c.jpg)]

也有一些自动测试是否收敛的方法,例如将代价函数的变化值与某个阀值(例如0.001)进行比较,但通常看上面这样的图表更好。

梯度下降算法的每次迭代受到学习率的影响,如果学习率梯度下降求解最大值_梯度下降求解最大值_36过小,则达到收敛所需的迭代次数会非常高;如果学习率梯度下降求解最大值_梯度下降求解最大值_36过大,每次迭代可能不会减小代价函数,可能会越过局部最小值导致无法收敛。

通常可以考虑尝试些学习率:

梯度下降求解最大值_梯度下降求解最大值_38

4.5 特征和多项式回归

参考视频: 4 - 5 - Features and Polynomial Regression (8 min).mkv

如房价预测问题,

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JTX1oYKH-1642734613003)(…/images/8ffaa10ae1138f1873bc65e1e3657bd4.png)]

梯度下降求解最大值_梯度下降求解最大值_39

梯度下降求解最大值_深度学习_40(临街宽度),梯度下降求解最大值_梯度下降求解最大值_41(纵向深度),梯度下降求解最大值_深度学习_42(面积),则:梯度下降求解最大值_机器学习_43
线性回归并不适用于所有数据,有时我们需要曲线来适应我们的数据,比如一个二次方模型:梯度下降求解最大值_机器学习_44
或者三次方模型: 梯度下降求解最大值_线性回归_45

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zvH3Fkfl-1642734613005)(…/images/3a47e15258012b06b34d4e05fb3af2cf.jpg)]

通常我们需要先观察数据然后再决定准备尝试怎样的模型。 另外,我们可以令:

梯度下降求解最大值_深度学习_46,从而将模型转化为线性回归模型。

根据函数图形特性,我们还可以使:

梯度下降求解最大值_线性回归_47

或者:

梯度下降求解最大值_线性回归_48

注:如果我们采用多项式回归模型,在运行梯度下降算法前,特征缩放非常有必要。

4.6 正规方程

参考视频: 4 - 6 - Normal Equation (16 min).mkv

到目前为止,我们都在使用梯度下降算法,但是对于某些线性回归问题,正规方程方法是更好的解决方案。如:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6nZckdrd-1642734613009)(…/images/a47ec797d8a9c331e02ed90bca48a24b.png)]

正规方程是通过求解下面的方程来找出使得代价函数最小的参数的:梯度下降求解最大值_梯度下降求解最大值_49
假设我们的训练集特征矩阵为 梯度下降求解最大值_机器学习_21(包含了 梯度下降求解最大值_梯度下降求解最大值_51)并且我们的训练集结果为向量 梯度下降求解最大值_线性回归_52,则利用正规方程解出向量 梯度下降求解最大值_机器学习_53
上标T代表矩阵转置,上标-1 代表矩阵的逆。设矩阵梯度下降求解最大值_机器学习_54,则:梯度下降求解最大值_线性代数_55
以下表示数据为例:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bZOfvbt9-1642734613011)(…/images/261a11d6bce6690121f26ee369b9e9d1.png)]

即:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-o6czGrND-1642734613014)(…/images/c8eedc42ed9feb21fac64e4de8d39a06.png)]

运用正规方程方法求解参数:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ase52Wko-1642734613017)(…/images/b62d24a1f709496a6d7c65f87464e911.jpg)]

注:对于那些不可逆的矩阵(通常是因为特征之间不独立,如同时包含英尺为单位的尺寸和米为单位的尺寸两个特征,也有可能是特征数量大于训练集的数量),正规方程方法是不能用的。

梯度下降与正规方程的比较:

梯度下降

正规方程

需要选择学习率梯度下降求解最大值_线性回归_52

不需要

需要多次迭代

一次运算得出

当特征数量大时也能较好适用

需要计算 如果特征数量n较大则运算代价大,因为矩阵逆的计算时间复杂度为,通常来说当小于10000 时还是可以接受的

适用于各种类型的模型

只适用于线性模型,不适合逻辑回归模型等其他模型

总结一下,只要特征变量的数目并不大,标准方程是一个很好的计算参数$\theta $的替代方法。具体地说,只要特征变量数量小于一万,我通常使用标准方程法,而不使用梯度下降法。

随着我们要讲的学习算法越来越复杂,例如,当我们讲到分类算法,像逻辑回归算法,我们会看到,实际上对于那些算法,并不能使用标准方程法。对于那些更复杂的学习算法,我们将不得不仍然使用梯度下降法。因此,梯度下降法是一个非常有用的算法,可以用在有大量特征变量的线性回归问题。或者我们以后在课程中,会讲到的一些其他的算法,因为标准方程法不适合或者不能用在它们上。但对于这个特定的线性回归模型,标准方程法是一个比梯度下降法更快的替代算法。所以,根据具体的问题,以及你的特征变量的数量,这两种算法都是值得学习的。

正规方程的python实现:

import numpy as np
    
 def normalEqn(X, y):
    
   theta = np.linalg.inv(X.T@X)@X.T@y #X.T@X等价于X.T.dot(X)
    
   return theta

4.7 正规方程及不可逆性(可选)

参考视频: 4 - 7 - Normal Equation Noninvertibility (Optional) (6 min).mkv

在这段视频中谈谈正规方程 ( normal equation ),以及它们的不可逆性。
由于这是一种较为深入的概念,并且总有人问我有关这方面的问题,因此,我想在这里来讨论它,由于概念较为深入,所以对这段可选材料大家放轻松吧,也许你可能会深入地探索下去,并且会觉得理解以后会非常有用。但即使你没有理解正规方程和线性回归的关系,也没有关系。

我们要讲的问题如下:梯度下降求解最大值_机器学习_61

备注:本节最后我把推导过程写下。

增加内容:

梯度下降求解最大值_机器学习_61

梯度下降求解最大值_线性回归_31
其中:梯度下降求解最大值_深度学习_32

将向量表达形式转为矩阵表达形式,则有梯度下降求解最大值_线性代数_65 ,其中梯度下降求解最大值_机器学习_21梯度下降求解最大值_深度学习_67梯度下降求解最大值_线性回归_02列的矩阵(梯度下降求解最大值_深度学习_67为样本个数,梯度下降求解最大值_线性回归_02为特征个数),梯度下降求解最大值_梯度下降求解最大值_71梯度下降求解最大值_线性回归_02行1列的矩阵,梯度下降求解最大值_线性回归_52梯度下降求解最大值_深度学习_67行1列的矩阵,对梯度下降求解最大值_梯度下降求解最大值_75进行如下变换

梯度下降求解最大值_深度学习_76

梯度下降求解最大值_梯度下降求解最大值_77

梯度下降求解最大值_梯度下降求解最大值_78

接下来对梯度下降求解最大值_梯度下降求解最大值_75偏导,需要用到以下几个矩阵的求导法则:

梯度下降求解最大值_梯度下降求解最大值_80

梯度下降求解最大值_机器学习_81

所以有:

梯度下降求解最大值_梯度下降求解最大值_82

梯度下降求解最大值_梯度下降求解最大值_83

梯度下降求解最大值_深度学习_84

梯度下降求解最大值_梯度下降求解最大值_85,

则有梯度下降求解最大值_机器学习_61