上一期介绍了word2vec中的模型更新优化的比较“弱”的形式NEGATIVE SAMPLING。这一期将推出另一种优化方案,Hierarchical Softmax。

Hierarchical Softmax

我们的目标是加速project->output层的计算。下图描述了新的project->output层情况

回到我们的初衷,我们的目的是对于一个输入词,把周围词作为输出词,期待输出词的值是最大的。
假设我们期待的输出词(答案)是\(w_2\)(不是权值矩阵 \(w2\))。那么我们扔一个小球从root开始,有向左滚概率0.8,向右0.2,然后继续滚,最后总会滚到低,我们期望滚到\(w_2\)洞的概率最大。
图示的情况下,滚到\(w_2\)的概率为0.80.40.7,显然滚到所有洞的概率和为1。

明确每个部分的含义:
每个白色节点是一个球洞,代表了滚到这个词。
每个黑色节点是一个H维向量,替代了之前的权值矩阵 \(w2\)。给个新表示\(v_1,v_2,....\)).
再起个别名n(w, j) means the j-th unit on the path from root to the word w.

每条边为一个概率,表示球滚到父亲节点时,往这条边滚的概率。
往左边滚的概率是

$$ p(n, left) = σ(v_i^Th) $$

,往右是

$$ 1-σ(v_i^Th) $$

其中\(v_i\)是父亲节点的表示H维,h为hidden层的表示H维。σ为sigmoid函数。

再考虑下更新的逻辑
forward

$$ p=σ([*]n(w, 1)^Th)*σ([*]n(w, 2)^Th)....其中[*]表示向左走取+1,向右走取-1 $$

backward

$$ E=loss=-log p $$

可以发现这里的累乘其实是变量独立的,并不是recursive neural network那种,对p中各变量n(w, i)(写作\(v_i\))取导数后,

$$ \frac{\partial E}{\partial v_i^Th}=σ( v_i^Th)-t_j $$

其中

$$ [*]=+1时,t_j=1,[*]=-1时,t_j=0 $$

对权重变量求导

$$ \frac{\partial E}{\partial v_i}=(σ( v_i^Th)-t_j)*h $$

可以发现最终更新变量\(v_i\)时,只和它的output error有关,和其他权重变量无关。所以在实际计算时,我们可以像NEGATIVE SAMPLING一样,计算projection->output中的一列(就是只用一个\(v_i\)),然后求导更新。

代码分析

for (d = 0; d < vocab[word].codelen; d++) {
          f = 0;
          l2 = vocab[word].point[d] * layer1_size;
          // Propagate hidden -> output
          for (c = 0; c < layer1_size; c++) f += neu1e[c] * syn1[c + l2];
         g= 输出层错误 \partial E / \partial v_i^T*h
          // Learn weights hidden -> output
          for (c = 0; c < layer1_size; c++) syn1[c + l2] += g * neu1e[c];
        }

在for循环中 vocab[word].point[d] 记录了单词word在权重变量(projection->output)(上面的那棵树)中具体经过的子节点,即n(word, i)。
syn1 :在前一篇文章中也提到 是\(w2\)即现在上图中的黑色节点的集合,然后把两维拉成了一维。
l2 = vocab[word].point[d] * layer1_size 计算了这个词每个经过节点在syn1数组中的开始地址。

在上面分析中提到过,每个节点n(word, i)的更新和其他节点无关。再看次模型更新

$$ \frac{\partial E}{\partial v_i}=(σ( v_i^Th)-t_j)*h $$

我们只需要计算 \(v_i^Th\) 乘积,计算error,然后乘以h即可。这三部对应接下来的三行程序。

for (c = 0; c < layer1_size; c++) f += neu1e[c] * syn1[c + l2];

计算 \(v_i^Th\) 乘积,neu1e即h。

g= 输出层错误 \partial E / \partial v_i^T*h

计算了输出层错误*学习速率。

for (c = 0; c < layer1_size; c++) syn1[c + l2] += g*neu1e[c];

neu1e即h。符合上面公式的推导。

Hierarchical Softmax 速度分析

由于现在的\(w2\)变成了一个完全二叉树,更新的节点为树高,故为log(2,V).
如果V=30000,那现在只需要进行 大约15次。 比原来大约快2000倍。
也就是说用了以后能单机跑,不用就要分布式了。

Hierarchical Softmax 讨论

这个方法可以看成一种改进的softmax方法,原来每个节点的值都依赖于所有其他节点的值,而现在只依赖于一些节点的值。使得模型的计算变得非常高效。
但是它并不比NEGATIVE SAMPLING来得好,原因是,它对V的树状分层其实是随机的,这不像是决策树,最root的分叉是最有效的,因此这只是一种类似于人为缩减更新数量的方法,和NEGATIVE SAMPLING本质无异。只是听上去厉害好多啊!