1. ELM 是什么

随机赋予,当我们有了输入层到隐藏层的权值之后,可以根据最小二乘法得到隐藏层到输出层的权值,这也就是ELM的训练模型过程。

    与BP算法不同,BP算法(后向传播算法),输入层到隐藏层的权值,和隐藏层到输出层的权值全部需要迭代求解(梯度下降法)

 

elm评价机器学习模型 对elm模型的理解_梯度下降法

 

用一张老图来说明,也就是说上图中的Wi1,Wi2,Wi3 在超限学习机中,是随机的,固定的,不需要迭代求解的。我们的目标只需要求解从隐藏层到输出层的权值。毫无疑问,相对于BP算法,训练速度大大提高了。

 

 

2. ELM 的训练过程

elm评价机器学习模型 对elm模型的理解_elm评价机器学习模型_02

 

在上述公式中,wi 表示输入层到隐藏层的权值, bi表示系统偏置(bias),ß   则是我们的目标:隐藏层到输出层的权值,N 表示训练集的大小,oj 表示分类结果。为了无限逼近训练数据的真实结果,我们希望分类结果与真实结果t一致,那么也就是

elm评价机器学习模型 对elm模型的理解_梯度下降法_03

所以上式可以表示为

elm评价机器学习模型 对elm模型的理解_梯度下降法_04

 (懒了,不想用公式编辑器,TAT)   用矩阵表示,则 

elm评价机器学习模型 对elm模型的理解_梯度下降法_05

        其中N 表示训练集的大小,N~ 表示隐藏层结点的数量,g(x)表示active function(激活函数?),g(x)要求无限可微。

       怎么求解这个方程就成为了ELM的训练过程,恩。

      求解方法:1. 传统的梯度下降法 (不说了,就是BP算法)

  2.  LS 最小二乘法方法

                        目标:最小化误差

elm评价机器学习模型 对elm模型的理解_权值_06

                         根据 Hß = T, 如果H 是一个方阵的话,ß可以直接求解为H-1T。

                                                如果H不是, 最小误差的ß 为 

elm评价机器学习模型 对elm模型的理解_迭代_07

,其中H+ 为H的Moore-Penrose 广义逆。

 

 

先写到这里了,基本训练过程已经搞清楚了,可是一个这么简单的算法为什么可以work,还有待研究。。。