一、线性回归

        需要通过训练集

神经网络回归任务 神经网络实现线性回归_正则化


神经网络回归任务 神经网络实现线性回归_回归_02

求解x,y之间的映射关系

神经网络回归任务 神经网络实现线性回归_人工智能_03

神经网络回归任务 神经网络实现线性回归_机器学习_04

         1.线性回归

                ①模型


神经网络回归任务 神经网络实现线性回归_机器学习_05

                        增广权重向量&增广特征向量:在x和

神经网络回归任务 神经网络实现线性回归_人工智能_06

上添加一个b,可将模型中原有的b消除。

神经网络回归任务 神经网络实现线性回归_人工智能_07

                        模型转换为: 

神经网络回归任务 神经网络实现线性回归_正则化_08

                 ②训练集D上的经验风险

                        

神经网络回归任务 神经网络实现线性回归_回归_09

                                X矩阵:其中每行为一个样本

                                Y向量:列向量,每一列为一个结果

                        

神经网络回归任务 神经网络实现线性回归_机器学习_10

        

神经网络回归任务 神经网络实现线性回归_回归_11

        

神经网络回归任务 神经网络实现线性回归_正则化_12

                ③经验风险最小化

                        

神经网络回归任务 神经网络实现线性回归_机器学习_13

        以此公式求解w                推导

神经网络回归任务 神经网络实现线性回归_回归_14

                        

->-xy+xx^T=0

                        

->xx^Tw=xy

                        

->w=(xx^T)^{-1}xy

         条件:

神经网络回归任务 神经网络实现线性回归_机器学习_18

必须存在                                若

神经网络回归任务 神经网络实现线性回归_机器学习_18

不存在(特征之间存在共线性),可以采用以下两种方法求解

                                ①SGD(随机数下降)  ②降维  

                结构风险

神经网络回归任务 神经网络实现线性回归_神经网络回归任务_20

 ,其中

神经网络回归任务 神经网络实现线性回归_机器学习_21

被称为正则化项

神经网络回归任务 神经网络实现线性回归_正则化_22

为正则化参数。                        使其最小化

神经网络回归任务 神经网络实现线性回归_回归_23

!!!Attention矩阵微积分

神经网络回归任务 神经网络实现线性回归_正则化_24

         2.多项式回归

                ①模型

                        

神经网络回归任务 神经网络实现线性回归_正则化_25

        多项式曲线拟合

                ②损失函数

                        

神经网络回归任务 神经网络实现线性回归_回归_26

                ③经验风险最小化

                        求解过程与线性回归类似

                ④选择合适的多项式次数

神经网络回归任务 神经网络实现线性回归_神经网络回归任务_27

                         控制过拟合:正则化

                                惩罚大的系数

神经网络回归任务 神经网络实现线性回归_人工智能_28

                                其中

神经网络回归任务 神经网络实现线性回归_机器学习_29

正则化项

神经网络回归任务 神经网络实现线性回归_正则化_22

正则化系数

                         控制过拟合:增加训练样本数量

        3.从概率视角来看线性回归

神经网络回归任务 神经网络实现线性回归_回归_31

                 ①似然函数

                        参数w固定时,描述随机变量x的分布情况,称p(x;w)为概率

                        已知随机变量x时,不同参数w对其分布的影响,称p(x;w)为似然

                        线性回归中的似然函数

神经网络回归任务 神经网络实现线性回归_回归_32

                                                                                       

神经网络回归任务 神经网络实现线性回归_人工智能_33

                ②最大似然估计

                        求一组参数w,使

神经网络回归任务 神经网络实现线性回归_回归_34

取最大值(求导)                                

神经网络回归任务 神经网络实现线性回归_人工智能_35

                ③贝叶斯学习

                        将参数w也视为随机变量;给定一组数据X,求参数w的分布p(w|X),也称后验分布

                        贝叶斯公式

神经网络回归任务 神经网络实现线性回归_回归_36

                        先验:

神经网络回归任务 神经网络实现线性回归_正则化_37

        后验 正比于  似然 X 先验

神经网络回归任务 神经网络实现线性回归_人工智能_38

                         最大后验估计

神经网络回归任务 神经网络实现线性回归_神经网络回归任务_39

                                                              

神经网络回归任务 神经网络实现线性回归_神经网络回归任务_40

        正则化系数

神经网络回归任务 神经网络实现线性回归_机器学习_41

                ⑤四种准则

平方误差

经验风险最小化

神经网络回归任务 神经网络实现线性回归_神经网络回归任务_42

结构风险最小化

神经网络回归任务 神经网络实现线性回归_人工智能_43

概率

最大似然估计

(XX^T)^{-1}Xy

最大后验估计

神经网络回归任务 神经网络实现线性回归_人工智能_43

         4.模型选择

                        模型越复杂,训练错误越低;

                        但不能以训练错误高低来选择模型;

                        选择模型时,测试集不可见。

                ①引入验证集

                可将训练集分为两部分训练集验证集在验证集上挑选一个错误最小的模型

                解决数据稀疏问题(样本过少):交叉验证,将训练集分为S组,每次使用S-1组作为训练集,剩下一组作验证集;取验证集平均性能最好的一组

神经网络回归任务 神经网络实现线性回归_机器学习_45

                 ②使用准则

                        赤池信息量准则、贝叶斯信息准则

                ③偏差-方差分解

                        平衡模型复杂度期望风险

                        期望风险

神经网络回归任务 神经网络实现线性回归_正则化_46

                        最优模型

神经网络回归任务 神经网络实现线性回归_人工智能_47

                        期望风险可以分解为:

神经网络回归任务 神经网络实现线性回归_回归_48

                                                        

神经网络回归任务 神经网络实现线性回归_正则化_49

                                

神经网络回归任务 神经网络实现线性回归_回归_50

 通常由样本分布噪声引起,无法通过优化模型消除。                        目的:模型

神经网络回归任务 神经网络实现线性回归_回归_51

与最优模型

神经网络回归任务 神经网络实现线性回归_正则化_52

尽可能贴近

神经网络回归任务 神经网络实现线性回归_回归_53

神经网络回归任务 神经网络实现线性回归_正则化_54

                         由偏差与方差进行模型选择

神经网络回归任务 神经网络实现线性回归_正则化_55

                         随着模型复杂度↑,方差↑,偏差↓

        5.常用定理

                ①没有免费午餐定理

                        不存在某种算法对所有问题都有效

                ②丑小鸭定理

                        丑小鸭与白天鹅之间的区别和两只白天鹅之间的区别一样大(未给定具体条件的情况下)

                ③奥卡姆剃刀定理

                        若无必要,勿增实体

                ④归纳偏置

                        做出的假设称为归纳偏置,在贝叶斯学习中称为先验

                ⑤PAC学习

                        由大数定律,训练集趋于无穷大时,泛化误差趋近于0

                        

神经网络回归任务 神经网络实现线性回归_机器学习_56 \infty}R(f)-R^{emp}(f)=0" title="\lim_{|D|-> \infty}R(f)-R^{emp}(f)=0" style="width: 258px; visibility: visible;" data-type="block">

                        

神经网络回归任务 神经网络实现线性回归_人工智能_57