本人已经打算将这一系列博文做成动画趣味科普的形式来呈现,感兴趣的话可以点这里。

现实中常遇到多分类学习任务。有些二分类算法可以直接推广到多分类,但在更多情形下,我们是基于一些策略,利用二分类算法来解决多分类问题。例如:OvO、OvR。

OvO

假设现在训练数据集的分布如下图所示(其中ABC代表训练数据的类别):

uio和vfio的区别_多分类

如果想要使用逻辑回归算法来解决这种3分类问题,可以使用OvOOvO(One Vs One)是使用二分类算法来解决多分类问题的一种策略。从字面意思可以看出它的核心思想就是一对一。所谓的“一”,指的是类别。而“对”指的是从训练集中划分不同的两个类别的组合来训练出多个分类器。

划分的规则很简单,就是组合(uio和vfio的区别_机器学习_02,其中n表示训练集中类别的数量,在这个例子中为3)。如下图所示(其中每一个矩形框代表一种划分):

uio和vfio的区别_OvR_03

分别用这3种划分,划分出来的训练集训练二分类分类器,就能得到3个分类器。此时训练阶段已经完毕。如下图所示:

uio和vfio的区别_机器学习_04

在预测阶段,只需要将测试样本分别扔给训练阶段训练好的3个分类器进行预测,最后将3个分类器预测出的结果进行投票统计,票数最高的结果为预测结果。如下图所示:

uio和vfio的区别_OvR_05

OvR

假设现在训练数据集的分布如下图所示(其中ABC代表训练数据的类别):

uio和vfio的区别_uio和vfio的区别_06

如果想要使用逻辑回归算法来解决这种3分类问题,可以使用OvROvR(One Vs Rest)是使用二分类算法来解决多分类问题的一种策略。从字面意思可以看出它的核心思想就是一对剩余。一对剩余的意思是当要对n种类别的样本进行分类时,分别取一种样本作为一类,将剩余的所有类型的样本看做另一类,这样就形成了n个二分类问题。所以和OvO一样,在训练阶段需要进行划分。

划分也很简单,如下图所示:

uio和vfio的区别_OvO_07

分别用这3种划分,划分出来的训练集训练二分类分类器,就能得到3个分类器。此时训练阶段已经完毕。如下图所示:

uio和vfio的区别_机器学习_08

在预测阶段,只需要将测试样本分别扔给训练阶段训练好的3个分类器进行预测,最后选概率最高的类别作为最终结果。如下图所示:

uio和vfio的区别_OvO_09