机器学习中常用的导公式和迹公式

Logistic回归-分类_sklearn

sigmoid函数

Logistic回归-分类_梯度下降法_02

Sigmoid/Logistic Function:分类思想

Logistic回归-分类_梯度下降法_03

决策边界-线性

决策边界(decision boundary),所谓决策边界就是能够把样本正确分类的一条边界,主要有线性决策边界(linear decision boundaries)和非线性决策边界(non-linear decision boundaries)

Logistic回归-分类_深度学习_04

Logistic回归-分类_梯度下降法_05

决策边界-非线性

Logistic回归-分类_梯度下降法_06

Logistic回归-分类_sklearn_07

Logistic回归

logistict回归分类采用的是最优化算法.其做法就是通过迭代的方法不断调整θ=(θ1,θ2,……θn)的取值,从而求得使得代价函数最小的θ的取值。(注:这里的θ是我们提到ℎθ(x)=g(θ^T X) 的θ,即回归方程y=θ^T X 的参数)

其核心是利用梯度下降法(最速下降法)进行优化模型。梯度下降算法的步骤(梯度下降被广泛应用于像逻辑回归、线性回归和神经网络、深度学习的模型中)

Logistic回归-分类_sklearn_08

逻辑回归的代价函数

Logistic回归-分类_深度学习_09

Logistic回归-分类_代价函数_10

线性回归代价函数的实际意义就是平方误差。而逻辑回归却不是,它的预测函数ℎθ(x)是非线性的。如果类比地使用线性回归的代价函数于逻辑回归,那J(θ)很有可能就是非凸函数,即存在很多局部最优解,但不一定是全局最优解。我们希望构造一个凸函数,也就是一个碗型函数做为逻辑回归的代价函数。

Logistic回归-分类_机器学习_11

梯度下降法-初识

一、概念

梯度下降法是一个最优化算法,它是沿梯度下降的方向求解极小值。

二、前提条件

1、目标函数(代价函数)

使用梯度下降法是要有前提条件,第一个就是要有目标函数。梯度下降法是求解最优解的算法没错,但是你要告诉梯度下降法是求的那个函数得最优解。

三、梯度的概念

梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)

梯度有两点非常重要:(1)矢量(2)沿着梯度的方向,目标函数增加最快

我们采用的梯度下降法因为求的是目标函数的最小值,所以方向是该点梯度的反方向。

1 方向导数顾名思义,方向导数就是某个方向上的导数

比如下面的图示,在某一点处的方向导数其实是由很多(方向导数即该点处切线)

Logistic回归-分类_代价函数_12

梯度:是一个矢量,其方向上的方向导数最大,其大小正好是此最大方向导数 。

梯度下降法-梯度如何求解

Logistic回归-分类_梯度下降法_13

梯度下降法-形象理解

我们以”下山问题”进行类比,更直观的感受梯度下降法。比如现在我的代价函数只和两个参数有关θ_0,θ_1,我画如下的图形:

Logistic回归-分类_代价函数_14

假设你站在山的某一处,你现在想以最快速度下山,那你肯定是找一条最陡峭的路走。你环顾四周,找到了一条路线,恩,这个方向是最陡的(梯度方向)。于是你就出发了,走了一会发现,这个方向不是最陡的路了。你就停下来,换了个最陡的方向,继续往下走。重复这个步骤,你最终到达了山脚下。

那么,你从山顶到山脚的整个下山的过程,就是梯度下降。

梯度下降法算法

Logistic回归-分类_深度学习_15

逻辑回归-核心(求解梯度)

Logistic回归-分类_梯度下降法_16

Logistic回归-分类_深度学习_17

Logistic回归-分类_深度学习_18

Logistic回归-分类_深度学习_19

Logistic回归-分类_梯度下降法_20

精度(正确率、准确率)accuracy = (TP+TN)/(TP+TN+FP+FN)

精确率precision = TP/(TP+FP)召回率recall = TP/(TP+FN)

精度比较好理解,就是预测准确的数占所有样本的比例,是最基本的指标;

精确率表示被预测为正例的样本中有多少是真正的正例。(查准率)

召回率表示所有正类的样本中有多少是被准确预测为正类(正例的样本被找回来了多少)。(查全率)

不准确的叫法:有些会把准确率(precision)和正确率( accuracy )