一、逻辑斯蒂分布

逻辑斯蒂分布也叫作增长分布,其分布函数是一个增长函数。

设X是连续随机变量,X服从逻辑斯谛分布是指X具有下列分布函数和密度函数:

分布函数:连载|逻辑回归_机器学习

密度函数:连载|逻辑回归_人工智能_02

上式中,连载|逻辑回归_人工智能_03为位置参数,连载|逻辑回归_机器学习_04为形状参数。

在不同的参数下概率密度函数连载|逻辑回归_python_05的图像如下所示(图中的s是参数连载|逻辑回归_机器学习_06):

连载|逻辑回归_深度学习_07

在不同参数下分布函数连载|逻辑回归_python_05的图像如下所示(图中的s是参数连载|逻辑回归_机器学习_06):

连载|逻辑回归_人工智能_10

根据分布函数我们可以看出图像呈s型,且关于点连载|逻辑回归_逻辑回归_11成中心对称,曲线在两端的增长速度很慢,在中间的增长速度很快,且连载|逻辑回归_机器学习_06(s)的值越小增长速度越快。

当我们选择连载|逻辑回归_机器学习_13的时候,逻辑斯蒂概率分布函数就是我们逻辑斯蒂回归中药用到的sigmoid函数,即:

连载|逻辑回归_python_14

其导数:连载|逻辑回归_机器学习_15

二、逻辑回归的由来

我们都知道了线性回归可以进行回归学习,但是想要去做分类问题的时候应该怎么办呢?其实我们只需要去找到一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来。

我们首先考虑二分类任务,其输出标记为y={0,1},而线性回归模型产生的预测值z=w^Tx+b是实值,我们需要的是将这个实值z转换为0/1值,最理想的是“单位阶跃函数”,也就是如下的形式。

连载|逻辑回归_深度学习_16

这个函数代表的也就是若预测值z大于0就判为正例,小于0则判为负例,预测值为临界值0则可以任意判别,对应的图形表示如下。

对于图中的单位阶跃函数(红色)我们可以看出它并不是连续的,于是我们希望找到能在一定程度上近似单位阶跃函数的替代函数,并希望它是单调可微的,也就是如下的形式:

连载|逻辑回归_人工智能_17

性质:我们把用g(z)来表示y,它的导数形式为连载|逻辑回归_机器学习_15

该函数我们称作对数几率函数,也可以称作“Sigmoid函数”,它将z值转化为了一个接近0或1的y值。我们结合z的表达式可以得到如下的形式:

连载|逻辑回归_人工智能_19

三、逻辑回归的推导

对于上文中这种将z(线性回归函数)带入到sigmoid函数转化为分类问题的形式我们可以把它叫做逻辑回归(logistic regression)

从二分类问题入手,我们给定数据集连载|逻辑回归_机器学习_20,我们希望对于输入数据连载|逻辑回归_机器学习_21,有输出连载|逻辑回归_python_22,一类为正例,一类为负例。``

首先我们进行一个设定(g(z)表示sigmoid函数):

连载|逻辑回归_人工智能_23为正例的概率:连载|逻辑回归_python_24

x^i为负例的概率:连载|逻辑回归_深度学习_25

对于真实标记为正例的样本我们希望 连载|逻辑回归_机器学习_26越大越好。

对于真实标记为负例的样本我们希望连载|逻辑回归_python_27越大越好。

利用极大似然,我们希望得到:

连载|逻辑回归_python_28

即:

连载|逻辑回归_机器学习_29

即:

连载|逻辑回归_逻辑回归_30

在实际应用中我们需要不断的减小loss使得模型优化,我们采用梯度下降法来优化模型:

(对loss进行求导,我们只处理\sum后的补分即可)

连载|逻辑回归_人工智能_31

连载|逻辑回归_人工智能_32

连载|逻辑回归_机器学习_33

由此可得梯度为:

连载|逻辑回归_逻辑回归_34

梯度参数更新即为:

连载|逻辑回归_机器学习_35

以上便是逻辑回归的损失函数的推导以及梯度下降法参数更新的推导过程。

连载|逻辑回归_深度学习_36