偏差与方差分解

“偏差-方差分解”是解释学习算法泛化性能的一种重要工具。
它试图对学习算法的期望泛化错误率进行拆解。
以回归任务为例,E(f;D)泛化误差可以分解为偏差、方差、噪声之和。

偏差,度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;
方差,度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响;
噪声,表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界,即刻画了学习问题本身的难度。

偏差-方差分解说明,泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度所共同决定的。
给定学习任务,为取得好的泛化能力,则需使偏差较小,即能够充分拟合数据;并且使方差较小,即使得数据扰动产生的影响小。

然而两者是有冲突的,这称为偏差-方差窘境:
给定学习任务,控制学习算法的训练程度,

则在训练不足时,学习器的拟合能力不够强,训练数据的扰动不足以使学习器产生显著变化,此时偏差主导了泛化错误率。
随着训练程度的加深,学习器的拟合能力逐渐增强,训练数据发生的扰动渐渐能被学习器学到,方差逐渐主导了泛化错误率。
在训练程度充足后,学习器的拟合能力已非常强,训练数据发生的轻微扰动都会导致学习器发生显著变化,若训练数据自身的、非全局的特性被学习器学到了,则将发生过拟合。