python数据分析 - 数据降维


大概主成分分析(Principal components analysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。一般我们提到降维最容易想到的算法就是PCA,下面我们就对PCA的原理做一个总结。

首先考虑一个问题:对于正交属性空间中的样本点,如何用一个超平面(直线的高维推广)对所有样本进行恰当的表达?

可以想到,若存在这样的超平面,那么它大概具有这样的性质:

  • 最近重构性:样本点到这个超平面的距离足够近
  • 最大可分性:样本点在这个超平面上的投影能尽可能的分开

基于最近重构性和最大可分性能分别得到主成分分析的两种等价推到,我们这里主要考虑最大可分性,并且一步一步推到出最终PCA。

1.PCA最大可分性的思想

对于python数据分析 - 数据降维PCA_python。我们想让python数据分析 - 数据降维PCA_数据降维_02python数据分析 - 数据降维PCA_数据_03维降到 python数据分析 - 数据降维PCA_数据降维_04 维,同时希望信息损失最少。比如,从python数据分析 - 数据降维PCA_python_05维降到python数据分析 - 数据降维PCA_协方差矩阵_06

python数据分析 - 数据降维PCA_数据_07
我们既可以降维到第一主成分轴,也可以降维到第二主成分轴。那么如何找到这这些主成分轴并且选择最优成分轴呢?

直观上,第一主成分轴 优于 第二主成分轴,即具有最大可分性。
下面解决一些基本概念。

2.基变换

欲获得原始数据新的表示空间,最简单的方法是对原始数据进行线性变换(基变换):
python数据分析 - 数据降维PCA_数据降维_08
其中python数据分析 - 数据降维PCA_数据降维_02是原始样本,python数据分析 - 数据降维PCA_PCA_10是基向量,python数据分析 - 数据降维PCA_PCA_11是新表达。

我们可知选择不同的基可以对一组数据给出不同的表示,同时当基的数量少于原始样本本身的维数则可达到降维的效果,矩阵表示如下:
python数据分析 - 数据降维PCA_PCA_12
其中python数据分析 - 数据降维PCA_数据降维_13是行向量,表示第python数据分析 - 数据降维PCA_数据_14个基,python数据分析 - 数据降维PCA_数据降维_15是一个列向量,表示第python数据分析 - 数据降维PCA_PCA_16个原始数据记录.
python数据分析 - 数据降维PCA_数据降维_17时即 基的维度python数据分析 - 数据降维PCA_协方差矩阵_18数据维度时,可达到降维的目的。即:
python数据分析 - 数据降维PCA_python_19

以直角坐标系下的点(3,2)为例,欲将点(3,2)变换为新基上的坐标,就是用(3,2)与第一个基做内积运算,作为第一个新的坐标分量,然后用(3,2)与第二个基做内积运算,作为第二个新坐标的分量。
python数据分析 - 数据降维PCA_python_20
实际上,我们可以用矩阵相乘的形式简洁的表示这个变换:

可以稍微推广一下,如果我们有m个二维向量,只要将二维向量按列排成一个两行m列矩阵,然后用“基矩阵”乘以这个矩阵,就得到了所有这些向量在新基下的值。例如(1,1),(2,2),(3,3),想变换到刚才那组基上,则可以这样表示:
python数据分析 - 数据降维PCA_协方差矩阵_21

3.方差

回顾一下,我们的目的是希望在降维过程中损失最少,换言之,我们希望投影后的数据尽可能分散开。这种分散程度可以用方差来表达,方差 越大,数据越分散。

定义方差Var:对于单一随机变量a,
python数据分析 - 数据降维PCA_python_22

对数据做去中心化(方便后面操作):
python数据分析 - 数据降维PCA_python_23

随机变量a表达了a的取值与其数学期望之间的偏离程度。若python数据分析 - 数据降维PCA_数据_24较小,意味着a的取值主要集中在期望python数据分析 - 数据降维PCA_PCA_25也就是python数据分析 - 数据降维PCA_协方差矩阵_26的附近,反之,若python数据分析 - 数据降维PCA_数据_24较大,意味着python数据分析 - 数据降维PCA_PCA_28的取值比较分散。

为了避免过于抽象,我们以一个具体的例子展开。假设我们5个样本数据,分别是
python数据分析 - 数据降维PCA_数据_29
将它们表示成矩阵形式:
python数据分析 - 数据降维PCA_数据_30
为了后续处理方便,我们首先将每个字段内所有值都减去字段均值,其结果是将每个字段都变为均值为0.

我们看上面的数据,设第一个特征为python数据分析 - 数据降维PCA_PCA_28 ,第二个特征为python数据分析 - 数据降维PCA_PCA_32, 此时某一个样本可以写作:
python数据分析 - 数据降维PCA_python_33
且特征python数据分析 - 数据降维PCA_PCA_28的均值为2, 特征python数据分析 - 数据降维PCA_PCA_32的均值为3,所以变换后:
python数据分析 - 数据降维PCA_协方差矩阵_36

python数据分析 - 数据降维PCA_python_37
python数据分析 - 数据降维PCA_协方差矩阵_38

4.协方差

协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。

比如对于二维随机变量python数据分析 - 数据降维PCA_python_39,特征a,b除了自身的数学期望和方差,还需要讨论a,b之间互相关系的数学特征。

定义协方差python数据分析 - 数据降维PCA_数据降维_40
python数据分析 - 数据降维PCA_python_41
python数据分析 - 数据降维PCA_PCA_42时,变量a,b完全独立,这也是我们希望达到的优化目标。

方差是协方差的一种特殊情况,即当两个变量是相同的情况:
python数据分析 - 数据降维PCA_数据_43

5.协方差矩阵

对于二维随机变量python数据分析 - 数据降维PCA_python_33,

定义协方差矩阵C:
python数据分析 - 数据降维PCA_协方差矩阵_45
对于n维随机变量python数据分析 - 数据降维PCA_数据降维_46,

python数据分析 - 数据降维PCA_协方差矩阵_47
可见,协方差矩阵是n行n列的对称矩阵,主对角线上是方差,而协对角线上是协方差。

依然我们以一个具体的例子展开,还是这5个样本数据
python数据分析 - 数据降维PCA_数据_48

将它们去中心化后表示成矩阵形式:
python数据分析 - 数据降维PCA_协方差矩阵_36

那如果有m个样本的话,
python数据分析 - 数据降维PCA_协方差矩阵_50
对X做一些变换,用X乘以X的转置,并乘上系数python数据分析 - 数据降维PCA_协方差矩阵_51

python数据分析 - 数据降维PCA_PCA_52

这个就是协方差矩阵嘛!

设我们有m个n维数据记录,将其按列排成n乘m的矩阵X,设python数据分析 - 数据降维PCA_PCA_53,则C是一个对称矩阵,其对角线分别个各个特征的方差,而第i行j列和j行i列元素相同,表示i和j两个特征之间的协方差。

6.协方差矩阵对角化

现在我们有m个样本数据,每个样本有n个特征,那么设这些原始数据为X,X为n行m列的矩阵。
想要找到一个基P,使python数据分析 - 数据降维PCA_数据降维_54,其中r<n,达到降维的目的。
设X的协方差矩阵为C,Y的协方差矩阵为D,且Y = PX。

我们的目的变为:对原始数据X做PCA后,得到的Y的协方差矩阵D的各个方向方差最大,协方差为0。
那么C与D是什么关系呢?
python数据分析 - 数据降维PCA_协方差矩阵_55

我们要找的P不是别的,而是能让原始协方差矩阵对角化的P。

换句话说,优化目标变成了寻找一个矩阵python数据分析 - 数据降维PCA_PCA_10,满足python数据分析 - 数据降维PCA_PCA_57是一个对角矩阵,并且对角元素按从大到小依次排列,那么P的前K行就是要寻找的基,用P的前K行组成的矩阵乘以X就使得X从N维降到了K维并满足上述优化条件。
现在所有焦点都聚焦在了协方差矩阵对角化问题上。

由上文知道,协方差矩阵C是一个是对称矩阵,在线性代数上,实对称矩阵有一系列非常好的性质:

1)实对称矩阵不同特征值对应的特征向量必然正交。

2)设特征向量python数据分析 - 数据降维PCA_协方差矩阵_58重数为r,则必然存在r个线性无关的特征向量对应于python数据分析 - 数据降维PCA_协方差矩阵_58,因此可以将这r个特征向量单位正交化。

由上面两条可知,一个n行n列的实对称矩阵一定可以找到n个单位正交特征向量,设这n个特征向量为e_1,e_2,⋯,e_n,我们将其按列组成矩阵:
python数据分析 - 数据降维PCA_协方差矩阵_60

则对协方差矩阵C有如下结论:
python数据分析 - 数据降维PCA_数据_61

其中\Lambda为对角矩阵,其对角元素为各特征向量对应的特征值(可能有重复)。

结合上面的公式:
python数据分析 - 数据降维PCA_python_62
其中,D为对角矩阵,我们可以得到:
python数据分析 - 数据降维PCA_python_63
P是协方差矩阵C的特征向量单位化后按行排列出的矩阵,其中每一行都是C的一个特征向量。如果设P按照\Lambda中特征值的从大到小,将特征向量从上到下排列,则用P的前K行组成的矩阵乘以原始数据矩阵X,就得到了我们需要的降维后的数据矩阵Y。

7.PCA算法流程

总结一下PCA的算法步骤:

设有m条n维数据。

1)将原始数据按列组成n行m列矩阵X

2)将X的每一行(代表一个特征)进行零均值化,即减去这一行的均值

3)求出协方差矩阵python数据分析 - 数据降维PCA_数据_64

4)求出协方差矩阵C的特征值及对应的特征向量

5)将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵P

6)Y=PX即为降维到k维后的数据

8.PCA实例

这里以上文提到的:
python数据分析 - 数据降维PCA_python_65

我们用PCA方法将这组二维数据其降到一维。

为了后续处理方便,我们首先将每个特征内所有值都减去字段均值,其结果是将每个字段都变为均值为0.
python数据分析 - 数据降维PCA_协方差矩阵_36
因为这个矩阵的每行已经是零均值,这里我们直接求协方差矩阵:
python数据分析 - 数据降维PCA_数据降维_67
对于矩阵C:
python数据分析 - 数据降维PCA_数据降维_68
python数据分析 - 数据降维PCA_协方差矩阵_58和v分别是特征值和特征向量,
python数据分析 - 数据降维PCA_协方差矩阵_70,则:
python数据分析 - 数据降维PCA_数据降维_71
为了使这个方程式有非零解,矩阵(C - \lambda I)的行列式必须是0:
python数据分析 - 数据降维PCA_数据_72
即:
python数据分析 - 数据降维PCA_数据_73
则:
python数据分析 - 数据降维PCA_数据降维_74
分解得:
python数据分析 - 数据降维PCA_数据_75
找到2个特征值,python数据分析 - 数据降维PCA_PCA_76,

python数据分析 - 数据降维PCA_数据_77:
python数据分析 - 数据降维PCA_数据降维_71
即:
python数据分析 - 数据降维PCA_python_79
则:
python数据分析 - 数据降维PCA_协方差矩阵_80
python数据分析 - 数据降维PCA_协方差矩阵_81python数据分析 - 数据降维PCA_python_82可以取任意值,我们取归一化的python数据分析 - 数据降维PCA_协方差矩阵_81python数据分析 - 数据降维PCA_python_82,即:python数据分析 - 数据降维PCA_PCA_85,
此时python数据分析 - 数据降维PCA_PCA_86

python数据分析 - 数据降维PCA_数据降维_87:
python数据分析 - 数据降维PCA_数据降维_71
即:
python数据分析 - 数据降维PCA_python_89
则:
python数据分析 - 数据降维PCA_协方差矩阵_81 + python数据分析 - 数据降维PCA_python_82 = 0
python数据分析 - 数据降维PCA_协方差矩阵_81python数据分析 - 数据降维PCA_python_82可以取任意值,我们取归一化的python数据分析 - 数据降维PCA_协方差矩阵_81python数据分析 - 数据降维PCA_python_82,即:python数据分析 - 数据降维PCA_PCA_85
此时python数据分析 - 数据降维PCA_PCA_97

所以:
python数据分析 - 数据降维PCA_PCA_98

可以验证协方差矩阵C的对角化:
python数据分析 - 数据降维PCA_数据降维_99
最后我们用P的第一行乘以数据矩阵,就得到了降维后的表示:
python数据分析 - 数据降维PCA_协方差矩阵_100

降维投影结果如下图:

python数据分析 - 数据降维PCA_协方差矩阵_101