文章目录
- 4. 最大后验估计(MAP)
- 4.1 后验概率密度
- 4.2 样本条件概率密度 p(X∣D)
- 4.2.1 贝叶斯分类器
- 4.2.2 联系参数后验概率密度 p(θ∣D)
- 4.2.3 小结
- 4.3 最大后验估计的步骤
- 4.4 示例
- 4.4.1 已知先验概率和条件概率
- 4.4.2 朴素贝叶斯
- 5. MLE和MAP的联系
4. 最大后验估计(MAP)
- 考虑这个问题:贾跃亭老板下周回国的概率为多少?如果从频率派的角度看,因为贾老板跑路后从未回国,只要他不回来,概率就始终为0;但事实上贾老板下周回国的概率可能只是很小而非零,若哪天他的造车计划大获成功或者乐视网情况转好,其回国的可能性还会大大提升,这就比较符合贝叶斯学派的观点。 频率派的一个问题,就是在小的的观测数据集下,最大化似然函数值的方法容易与观测数据过度拟合
- 记贾老板下周回国为事件
,现在我们认为这是一个小概率事件,概率为小量
,可以看作一种先验知识。随着时间的推移,发生了事件
,比如法拉第新车开始量产,或者法拉第资金链断裂,这时贾老板回国的可能性就会变化,对
的估计也应当有相应调整,变成后验概率
- 最大后验估计寻求使后验概率最大的参数值,相比最大似然估计,这种方法融入了要估计量的先验分布。先验概率包含了人们根据以往经验对事件的一些初步认识,当某些事件
- 最大后验估计的示意图如下
4.1 后验概率密度
- 利用贝叶斯公式,可以得到先验概率
和 后验概率
之间的关系如下
这个公式提供了利用先验概率
和条件概率函数值
来计算后验概率
- 在后验概率公式中,分母
,由于对
所在的参数空间整体进行了积分,因此不影响,有
可见,当事件
发生时,最大后验估计通过条件概率函数值
对先验
进行修正。经过整个数据集
的修正后,后验概率密度
将在合理的估计值
- 我们的目标是找出最大后验估计值
,即
4.2 样本条件概率密度 
- 1.1 节中我们分析过,参数估计的目的是为了得到模型分布,即数据集条件下的样本分布
,这时我们必须明确 MAP 和 MLE 的区别
- MLE 中,参数
是一个定值,模型分布仅由其取值
决定,而
仅由数据集
决定,也就是只有一个样本条件概率密度
(似然函数)
- MAP 中,参数
是一个分布
,
的每一个取值
都唯一地决定了一个模型分布,为了整体考虑需要对
做积分,即
,因此 MAP 方法最终往往要做一个复杂的积分
- 下面通过一个贝叶斯决策的例子说明
4.2.1 贝叶斯分类器
考虑构造一个贝叶斯分类器,使用贝叶斯公式计算
类后验概率
如下贝叶斯分类器使用这个类后验概率密度函数预测任意样本
,下面化简符号
- 通常我们认为类先验概率可以事前得到,所以把
简写为
- 像 1.1 节中一样将数据集
按样本类别划分为,并假设第
类的样本对第
类的类条件概率
没有任何影响,这样
就可以简化为
符号化简后,上式变为
假设一共有
个类别,这里计算类后验概率密度的核心是估计
个
类条件概率密度
,根据我们的假设,这里相当于处理
,每个问题都在单一的类别下发生,形式为
已知一组从
中 i.i.d 采样的样本
,估计条件概率
- 通常我们认为类先验概率可以事前得到,所以把
4.2.2 联系参数后验概率密度 
考虑上一节最后提出的任意一个独立问题,基本目标是计算
,并且使得它尽量靠近
,这里可以把它表示为
的边缘概率密度,即
注意其中出现了 MAP 过程中得到的后验概率分布
。这是贝叶斯估计中最核心的公式,它将
类条件概率密度
(注意这是
的简写)和
未知参数的后验概率密度
联系起来。如果 MAP 的估计结果为
(即
在
光滑
积分拖尾的影响足够小(就是说
在
则可以如下估计类条件概率密度为
当以上两条件不满足时,即我们对
的把握不是很强时,上面的式子指导我们应该对所有的
求积分来得到满意的
(注意其实是类条件概率密度
4.2.3 小结
欲基于贝叶斯估计方法构造贝叶斯分类器,一些基本假设如下
- 条件概率密度
的数学形式完全已知,只是
取值
- 参数向量
的 先验概率
包含了我们对
- 其余的关于参数向量
的信息包含在 i.i.d 采样的数据集
中,他们都服从未知的概率密度函数
- 条件概率密度
- 问题的核心在于计算后验概率密度函数
,一旦得到就能如下计算(类)后验概率
根据贝叶斯公式,有
再利用样本间独立性假设,有
这样就完成了对问题的正式解答。构造的贝叶斯分类器示意图如下
这里可以考虑和最大似然估计的关系
- 假设
在
- 若先验概率
非零且在附近邻域变化不大,则根据等式 (2) ,
- 则根据等式(1),
将趋近于
,后者就是最大似然法优化的最大似然函数
- 假设
4.3 最大后验估计的步骤
- 找出参数的最大后验估计
- 和最大似然估计步骤类似,先找出后验概率密度
(或其正相关形式)的表示,然后通过令偏导数为 0 找出使后验概率最大的估计值
- 有时我们也可以直接从数据集
中估计出先验概率
和条件概率函数
,进而直接计算
- 如有需要,可以进一步计算类条件概率密度构造贝叶斯分类器
4.4 示例
4.4.1 已知先验概率和条件概率
假设有5个袋子,每个袋子中都有无限饼干(樱桃或柠檬味),已知5个袋子中两种口味混合比例和被拿到的概率如下
- 10%概率拿到;樱桃100%
- 20%概率拿到;樱桃75% + 柠檬25%
- 40%概率拿到;樱桃50% + 柠檬50%
- 20%概率拿到;樱桃25% + 柠檬75%
- 10%概率拿到;柠檬100%
现在从同一个袋子中连续拿到了两个柠檬饼干,那么这个袋子最可能是哪个袋子?
分析:设
表示拿到第
个袋子,各个袋子被拿到的概率就是先验
,我们需要根据事件
:“连续从一个袋子中拿到两个饼干” 这件事在每个袋子中发生的似然性来调整它们。
设从第
个袋子中拿出柠檬饼干的概率为
,拿到第
个袋子的概率为
,根据后验概率公式,优化目标是:
4.4.2 朴素贝叶斯
- 朴素贝叶斯是一种基于最大后验估计的分类算法。设输入空间
为
维向量集合,输出空间
。
分别是定义在
上的随机向量/变量,从真实分布
独立同分布地采样得到训练数据集
- 这是一种生成式方法,利用数据分布估计先验概率
和条件概率函数
,进而得到联合概率分布
用于预测
- 得到联合分布
,即
其中先验概率
和样本每一维(特征)的条件概率
,即
设第
个特征
可能取值的集合为
,条件概率估计为
式中
是第
个样本的第
个特征;
是第
个特征可能取的第
- 示例
条件独立性假设
:考察条件概率分布假设
可取值有
个,
,
可取值有
个,那么参数个数最多为
,参数数量为指数级,因此直接估计
是不可行的。为此朴素贝叶斯作了条件独立性假设,即
- 看贝叶斯公式
随着数据量的增加,条件概率函数值
对先验
的修正越来越大,参数分布会越来越向数据靠拢,先验的影响力会越来越小。因此在数据量趋向无限时,MAP 得到的参数后验概率一般会收敛到狄拉克函数,这时 MLE 和 MAP 最终会得到相同的估计
如果先验是均匀分布,则贝叶斯方法MAP等价于频率方法MLE,因为先验是均匀分布本质上表示对事物没有任何预判
看最大后验估计的优化目标
可见这里第二项
正是最大似然估计的优化目标 NLL,所以MLE和MAP在优化时的不同就是在于先验项
。如果我们假设先验是一个高斯分布,即
于是有
可见,在MAP中使用一个高斯分布的先验等价于在MLE中使用一个L2正则项