文章目录

  • 基本认识
  • 逻辑回归模型
  • 逻辑回归模型的损失函数:交叉熵损失
  • 损失函数最小值求解推导
  • 迭代公式的向量化


基本认识

在评分卡项目中,如果需要构建一个标准的评分卡模型,就只能采用逻辑回归模型因为其它支持概率输出的分类模型只能给出样本的总分值,没有办法给出每个变量的分值,以及每个变量不同取值的分值,也可以理解成不能看到每个特征对总分的影响

线性回归简单回顾

逻辑回归推理 逻辑回归推导过程_最小值

线性回归模型是用属性线性组合来预测目标变量,而每个属性的权重反映了在该模型中属性的重要程度,即权重越大,则在该模型中对目标变量的预测能力越强

逻辑回归是一个广义的线性模型,在普通的线性函数加了sigmoid映射,映射到0-1之间,一般0.5是一个阈值,来达到一个二分类的效果(本文后续只给出sigmoid的推导,softmax多分类推导请看博主之前的笔记

逻辑回归推理 逻辑回归推导过程_损失函数_02

逻辑回归模型

逻辑回归推理 逻辑回归推导过程_取值_03

逻辑回归模型的损失函数:交叉熵损失

根据y的取值可以如下表示:

逻辑回归推理 逻辑回归推导过程_最小值_04

可以合并如下:

逻辑回归推理 逻辑回归推导过程_损失函数_05

根据极大似然估计,上面式子取似然函数:

比如三个样本同时出现的概率P = p1 * p2 * p3

逻辑回归推理 逻辑回归推导过程_最小值_06

由于连乘不好计算,所以对两边同时取对数变成连加的形式:

逻辑回归推理 逻辑回归推导过程_逻辑回归推理_07

这个函数就是损失函数,求这个函数的最大值也就意味着总概率越大。
但是我们一般更希望求损失函数的最小值,所以在上述函数前面加负号:

逻辑回归推理 逻辑回归推导过程_损失函数_08

这就形成了逻辑回归的损失函数:交叉熵损失

所以我们可以得出结论,损失函数的确定是根据极大似然估计来的

模型训练的过程也就是求损失函数最小值的过程

损失函数最小值求解推导

此处用梯度下降,最小二乘法请参考博主之前的文章

首先明确 θ 更新方程

逻辑回归推理 逻辑回归推导过程_逻辑回归推理_09

对 θ 求偏导

逻辑回归推理 逻辑回归推导过程_损失函数_10

分开求导再相乘即可

逻辑回归推理 逻辑回归推导过程_损失函数_11

sigmoid求导如下:

逻辑回归推理 逻辑回归推导过程_取值_12

逻辑回归推理 逻辑回归推导过程_取值_13

上述整合

逻辑回归推理 逻辑回归推导过程_取值_14

迭代公式的向量化

逻辑回归推理 逻辑回归推导过程_最小值_15