机器学习笔记之高斯混合模型——EM算法求解高斯混合模型【M步操作】

  • 引言
  • 回顾:EM算法求解高斯混合模型的E步操作
  • EM算法M步操作
  • 求解过程


引言

上一节介绍了使用EM算法求解高斯混合模型参数的E步操作,本节将继续介绍后续的M步操作

回顾:EM算法求解高斯混合模型的E步操作

  • 高斯混合模型稀疏高斯回归代码_EM算法引入隐变量稀疏高斯回归代码_算法_02后的表示结果如下:
    稀疏高斯回归代码_稀疏高斯回归代码_03
    稀疏高斯回归代码_算法_04表示隐变量稀疏高斯回归代码_算法_02选择具体某项离散参数稀疏高斯回归代码_EM算法_06的概率分布:
    稀疏高斯回归代码_EM算法_07
    稀疏高斯回归代码_EM算法_08表示隐变量稀疏高斯回归代码_人工智能_09条件下,样本稀疏高斯回归代码_算法_10服从均值为稀疏高斯回归代码_EM算法_11,协方差为稀疏高斯回归代码_机器学习_12 的高斯分布:
    稀疏高斯回归代码_EM算法_13
  • 对应的联合概率分布稀疏高斯回归代码_人工智能_14表示如下:
    稀疏高斯回归代码_算法_15
    其中稀疏高斯回归代码_机器学习_16表示 稀疏高斯回归代码_人工智能_17属于各高斯分布的概率组成的向量。数学符号表示如下:
    稀疏高斯回归代码_机器学习_18表示样本稀疏高斯回归代码_EM算法_19属于离散常量稀疏高斯回归代码_算法_20对应概率分布稀疏高斯回归代码_人工智能_21的概率结果。稀疏高斯回归代码_人工智能_22
    同理,稀疏高斯回归代码_人工智能_23表示稀疏高斯回归代码_EM算法_19属于各高斯分布的期望组成的向量。数学符号表示如下:
    稀疏高斯回归代码_人工智能_25表示稀疏高斯回归代码_EM算法_19属于离散常量稀疏高斯回归代码_算法_20对应概率分布稀疏高斯回归代码_人工智能_21的期望信息。稀疏高斯回归代码_机器学习_29
    稀疏高斯回归代码_机器学习_30表示稀疏高斯回归代码_EM算法_19属于各高斯分布的协方差组成的向量。数学符号表示如下:
    稀疏高斯回归代码_EM算法_32表示稀疏高斯回归代码_EM算法_19属于离散常量稀疏高斯回归代码_算法_20对应概率分布稀疏高斯回归代码_人工智能_21的协方差信息。稀疏高斯回归代码_稀疏高斯回归代码_36
  • 关于隐变量的后验概率稀疏高斯回归代码_人工智能_37表示如下:
    稀疏高斯回归代码_人工智能_38
  • 至此,E步操作表示如下:
    稀疏高斯回归代码_人工智能_39是关于稀疏高斯回归代码_稀疏高斯回归代码_40的函数。即:
    稀疏高斯回归代码_稀疏高斯回归代码_41
    经过E步的求解过程,求得最终表示结果如下:
    稀疏高斯回归代码_机器学习_42

EM算法M步操作

重新观察E步结果:
稀疏高斯回归代码_EM算法_43

  • 其中稀疏高斯回归代码_人工智能_44部分表示如下:
    稀疏高斯回归代码_EM算法_45
    稀疏高斯回归代码_算法_46具体指(共三项):
    稀疏高斯回归代码_人工智能_47
  • 稀疏高斯回归代码_算法_48部分表示如下:
    稀疏高斯回归代码_算法_49
    稀疏高斯回归代码_机器学习_50具体指(共6项):
    稀疏高斯回归代码_人工智能_51
    由于稀疏高斯回归代码_机器学习_50上一次迭代得到的参数结果,是已知量;因此将稀疏高斯回归代码_算法_53中的稀疏高斯回归代码_机器学习_50项修正过来:
    例如稀疏高斯回归代码_机器学习_55稀疏高斯回归代码_机器学习_50的一个解,区别于对应稀疏高斯回归代码_算法_46的解稀疏高斯回归代码_人工智能_58
    稀疏高斯回归代码_算法_59
    实际上稀疏高斯回归代码_算法_60是由稀疏高斯回归代码_机器学习_50构成的量,它的结果不会对当前迭代步骤稀疏高斯回归代码_人工智能_62的最优值产生影响。因此,在这里将其缩写成稀疏高斯回归代码_人工智能_63
  • 由于稀疏高斯回归代码_算法_64本质上是样本稀疏高斯回归代码_人工智能_17所有可能属于的高斯分布组成的向量,即:
    稀疏高斯回归代码_EM算法_66
    并且对应的稀疏高斯回归代码_算法_67分别表示如下:
    查看详情移步至传送门稀疏高斯回归代码_稀疏高斯回归代码_68
    因此,稀疏高斯回归代码_人工智能_69分别表示如下:
    稀疏高斯回归代码_EM算法_70
    基于上述公式,对稀疏高斯回归代码_算法_53进行变换:
    稀疏高斯回归代码_算法_72
    我们以求解稀疏高斯回归代码_稀疏高斯回归代码_73在当前时刻的最优解稀疏高斯回归代码_稀疏高斯回归代码_74为例。上述式子中只有方括号内第一项包含稀疏高斯回归代码_稀疏高斯回归代码_73,因此则有:
    稀疏高斯回归代码_人工智能_76
    并且稀疏高斯回归代码_稀疏高斯回归代码_73是概率结果,因此稀疏高斯回归代码_稀疏高斯回归代码_73需要满足约束条件:
    稀疏高斯回归代码_稀疏高斯回归代码_79
    至此,求解稀疏高斯回归代码_人工智能_58的最优解稀疏高斯回归代码_稀疏高斯回归代码_81即:
    稀疏高斯回归代码_稀疏高斯回归代码_82
    其中任意一项稀疏高斯回归代码_机器学习_83使用如下优化函数进行表示:
    稀疏高斯回归代码_EM算法_84

求解过程

使用拉格朗日乘数法进行求解:

  • 构建拉格朗日函数稀疏高斯回归代码_机器学习_85
    稀疏高斯回归代码_算法_86
  • 拉格朗日函数稀疏高斯回归代码_机器学习_85稀疏高斯回归代码_EM算法_88求偏导:
    观察第一个连加号稀疏高斯回归代码_稀疏高斯回归代码_89,只有唯一一个稀疏高斯回归代码_人工智能_90稀疏高斯回归代码_EM算法_88相关,其余均为常数;稀疏高斯回归代码_人工智能_92
  • 稀疏高斯回归代码_EM算法_93,等式两端同乘稀疏高斯回归代码_EM算法_88
    稀疏高斯回归代码_人工智能_95
  • 稀疏高斯回归代码_机器学习_96,均进行求导并等于0,则有:
    稀疏高斯回归代码_机器学习_97
    其中:
    条件概率密度积分~约束条件~稀疏高斯回归代码_算法_98
    整理得:
    稀疏高斯回归代码_算法_99
    因此,将稀疏高斯回归代码_机器学习_100带回原式,则有:
    稀疏高斯回归代码_机器学习_101
    基于上式,可以求出稀疏高斯回归代码_稀疏高斯回归代码_102
    因而最终求解隐变量稀疏高斯回归代码_机器学习_103的后验概率分布结果稀疏高斯回归代码_算法_104
    稀疏高斯回归代码_人工智能_105

同理,可求出其他隐变量稀疏高斯回归代码_算法_106的离散参数的迭代概率结果。

稀疏高斯回归代码_EM算法_107

至此,高斯混合模型部分介绍结束。下一节将介绍隐马尔可夫模型
推导过程本身不是重点,只需要知道‘高斯混合模型’可以使用‘狭义EM’直接求解即可。高斯混合模型作为最经典的‘概率生成模型’,它的‘生成模型思想’需要留意。