文章目录
- 监督生成模型
半监督学习
假设有R笔train data,每一笔train data有,。假设是一张image,是class label。semi-supervised learning是在label上面,是有另外一组unlabel的data,这组data记做,这组data只有input,没有output。在做semi-superised learning时,U远远大于R(unlabel的数量远远大于label data的数量)。semi-surprised learning可以分成两种,一种是transductive learning,一种是inductive learning。这两种最简单的分法是:在做transductive的时候,你的unlabel data就是你的testing data,inductive learning 就是说:不把unlabel data考虑进来。
监督生成模型和半监督生成模型
监督生成模型
supervised generative model, 在supervised learning里面有一堆train example,分别是属于class1, class2。去估测class1, class2的probability
假设每一个class它的分布都是一个Gaussion distribution,估测说class1是从 是 , covariance是 的Gaussion估测出来的, class2是从 是 , covariance是 的Gaussion估测出来的。 那现在有了这些probability,有了这些
半监督生成模型
先初始化参数(class1,class2的几率,,这些值,用已经有label data先估测一个值,得到一组初始化的参数,这些参数统称
- Step 1 先计算每一笔unlabel data的 posterior probability,根据现有的
- Step2 算出这个几率以后呢, 就可以update你的model,是出现次数就是所有unlabel data它是posterior probability的和。所有unlabel data而是根据它的posterior probability决定它有百分之多少是属于, 有多少是属于 $\mathrm{C}_{2}, $ 把unlabel data的每一笔datax根据它的posterior probability做相乘。如果这个比较偏向class的 话, 它对class1的影响就大一点,反之就小一点。的 probability就是这样的做的
- 这里的Step1就是Estep,而Step2就是Mstep (也就是熟悉的EM算法)
unlabel data出现的几率(我不知道它是从claas1还是class2来的,所以class1,class2都有可能)就是它在的posterior probability跟这个class产生这笔unlabel data的几率加上的posterior probability乘以这个class产生这笔unlabel data的几率。把他们通通合起来,就是这笔unlabel data产生的几率。
假设一:Low-density Separation
self-training
Low-density separation最简单的方法是self-training。self-training就是说,我们有一些label data并且还有一些unlabel data。接下来从label data中去train一个model,这个model叫做,根据这个去label你的unlabel data。你就把丢进,看它吐出来的yu是什么,那就是你的label data。那这个叫做pseudo-label。那接下来你要从你的unlabel data set中拿出一些data,把它加到labeled data set里面。然后再回头去train你的
基于熵的正则化
假设二:Smoothness Assumption
聚类和标记
基于图的方法
Better Representation
最后一个方法是:Better Representation,这个方法的精神是:“去无存青,化繁为简”,等到unsupervised的时候再讲。 它的精神是这样子的:我们观察到的世界其实是很复杂的,我们在我们观察到的世界背后其实是有一些比较简单的东西在操控着我们这个复杂的世界,所以你只要能看透这个世界的假象,直指它的核心的话就可以让训练变得容易。