logistic回归示意图

r做logistic回归 logistic回归作图_logistic回归


sigmoid激活函数。
这个图画的有一点神经网络的感觉。

r做logistic回归 logistic回归作图_极大似然_02


这里用到了极大似然。

L 就是在各个x下,是已知分类的概率的乘积,使得这个L最大的w和b值,就是所求。

r做logistic回归 logistic回归作图_logistic回归_03


求max转换为求min
将C1 C2 分类转换为 0 1 分类,为了方便写成统一的式子
转换之后可以看出式子可以统一了
可以转换了,下图:

r做logistic回归 logistic回归作图_r做logistic回归_04


统一了形式,还引入了交叉熵的概念。

r做logistic回归 logistic回归作图_机器学习_05


r做logistic回归 logistic回归作图_机器学习_06


你离目标越远,你的步长就越大。

logistic回归与线性回归对比

r做logistic回归 logistic回归作图_机器学习_07


r做logistic回归 logistic回归作图_神经网络_08

logistic回归+square error

上面寻找最优时用的是极大似然,这里用平方误差和看一下。

r做logistic回归 logistic回归作图_logistic回归_09


r做logistic回归 logistic回归作图_神经网络_10


r做logistic回归 logistic回归作图_神经网络_11


square error:很远处走的也很慢很慢,可能很好几个小时都跑不出来结果。根本不知道你现在离目标值是近还是远。
cross entropy:很远处的梯度很大,步长很大。 步长小的时候往往离最优值很近。

往往根据这些调节learning rate 学习率,square error就无法根据什么信息来调节

logistic回归 多分类问题

r做logistic回归 logistic回归作图_极大似然_12


用softmax将其输出值限制在[0,1]之间,且通过e的多少次方,会将所有z转换为非负数,并且,会将z之间的差距拉大,便于区分。

r做logistic回归 logistic回归作图_logistic回归_13

logistic回归的局限性

r做logistic回归 logistic回归作图_r做logistic回归_14


这种情况就无法分类了。

因为画出来的决策边界肯定是一条直线

怎么做?
特征转换

r做logistic回归 logistic回归作图_r做logistic回归_15


r做logistic回归 logistic回归作图_机器学习_16


r做logistic回归 logistic回归作图_logistic回归_17