前言
在学习机器学习的过程中,我们最开始通常会接触各种类型的回归模型。例如线性回归用来模拟一条线性函数满足函数周围的数据到达该直线的误差最小;逻辑回归用来确定以某条线性函数为基础,其两边的数据可以分为两种类型。我们往往只知道模型可以处理什么样的逻辑,做什么样的事情,却对为什么是这个模型了解甚少。本文通过参考多种资料,通过对广义线性回归的理解出发,来阐述其他回归模型的生成原理。所写纯属个人理解,如果错误欢迎指正。
1、指数分布族
这里阐述指数族的目的是为了说明广义线性模型(Generalized Linear Models)GLM,因为广义线性模型的提出是由指数族而来。
另外需要知道凡是符合指数族分布的随机变量,都可以用广义线性回归进行分析。
下面是指数分布族的公式定义:
下面是公式中的参数:(可以通过后面具体例子的推导来理解)
- η:分布的自然参数(也就是说跟分布有关)
- T(y):充分统计量(对于我们考虑的分布情况,通常情况下 T(y)=y)
- a(η):log partition function, 本质上起着规范化常数的作用,保证概率分布 为1
当
被固定时,
、
就定义了一个以
为参数的一个指数分布。我们变化
就得到这个分布的不同分布。
而大多数的概率分布都属于指数分布族,如:
- 伯努利分布(Bernoulli):对 0、1 问题进行建模;
- 二项分布(Multinomial):对 K 个离散结果的事件建模;
- 泊松分布(Poisson):对计数过程进行建模,比如网站访问量的计数问题,放射性衰变的数目,商店顾客数量等问题;
- 伽马分布(gamma)与指数分布(exponential):对有间隔的正数进行建模,比如公交车的到站时间问题;
- β 分布:对小数建模;
- Dirichlet 分布:对概率分布进建模;
- Wishart 分布:协方差矩阵的分布;
- 高斯分布(Gaussian)
而如何通过对应的分布情况获得相应的模型呢,那么下面就通过一些例子来推导出,不同的分布情况下所获得的模型是什么样的,当然在进行推倒之前我们需要了解下广义线性模型,以及指数族与广义线性模型的关系。
2、广义线性模型
要确定一组数据是否满足广义线性模型,需要满足其三个假设:
1. 定义线性预测算子
2. 定义y的估计值
3. 定义 y 的估值概率分布属于某种指数分布族:
通过这三条假设,结合样本的分布情况,通过将样本的分布情况转化为指数族的形式,得到最终的T,a,b以及
,从而得到满足分布情况下的模型。
2.1、GLM推导逻辑回归
接下来按照上面GLM作出的假设条件来推导逻辑回归。
对于二分类问题,其样本点在结果上非0即1,因此很容易想到其样本满足伯努利分布,因此:
对于伯努利分布来说。假定通过决策函数处理之后,不同的自变量x通过决策函数得到结果等于1和等于0的概率分别为
因而得到等式:
参照指数分布族的各位置参数,可以得到:
由第三个条件进行推倒
最终可以得到决策函数
也就是sigmoid函数
2.2、GLM推导线性回归
接下来按照上面GLM作出的假设条件来推导线性回归。
由于线性回归的损失值也就是噪音值符合高斯分布,即
由于
的值与
和
无关,因此为了简化证明,我们令
,
原因如下,通过极大似然估计估算参数为多少时满足误差最小
事实证明,找出最合适的参数使得误差最小,公式中最终关注的是下面部分最小,才可以让以上函数最大
因此与
无关,因此为了推导简单,我们令
,
因此得到
由第三个条件进行推倒
最终得决策函数为
也就是线性回归的决策函数
3、总结
对于一组模型,首先我们要确定我们最终的结果要满足什么样的分布,在确定了分布之后,如果模型符合指数族分布形式,那么我们可以根据分布条件和指数族的对应关系,推导出指数族的4个参数,在获得参数的过程中我们就可以获得对应的决策函数,因而获得我们需要的模型,在获得模型之后我们就可以根据不同的条件选择不同的优化策略,从而获取对应的参数值。