基于统计学的异常检测方法

  • 1. 概述
  • 2. 参数方法
  • 2.1 基于正态分布的一元异常点检测
  • 2.2 多元异常点检测
  • 2.2.1 特征之间相互独立,且符合多元高斯分布
  • 2.2.2 多个特征相关,且符合多元高斯分布
  • 2.2.3 使用混合参数分布
  • 3. 非参数方法
  • 4. HBOS(Histogram-based Outlier Score)
  • 5. COPOD(Copula-Based Outlier Detection)
  • 6. 总结
  • 7. 练习


1. 概述

基于统计学的异常检测方法是对数据的正常性做出假定,它是一种基于模型的方法。它们假定正常的数据对象由一个统计模型产生,而不遵守该模型的数据是异常点。统计学方法的有效性高度依赖于对给定数据所做的统计模型假定是否成立。

异常检测的统计学方法的一般思想是:学习一个拟合给定数据集的生成模型,然后识别该模型低概率区域中的对象,把它们作为异常点。即利用统计学方法建立一个模型,然后考虑对象有多大可能符合该模型。

根据如何指定和学习模型,异常检测的统计学方法可以划分为两个主要类型:参数方法和非参数方法。

参数方法假定正常的数据对象被一个以python自定义统计大于90的人数_数据为参数的参数分布产生。该参数分布的概率密度函数python自定义统计大于90的人数_python自定义统计大于90的人数_02给出对象python自定义统计大于90的人数_数据_03被该分布产生的概率。该值越小,python自定义统计大于90的人数_数据_03越可能是异常点。

非参数方法并不假定先验统计模型,而是试图从输入数据确定模型。非参数方法通常假定参数的个数和性质都是灵活的,不预先确定(所以非参数方法并不是说模型是完全无参的,完全无参的情况下从数据学习模型是不可能的)。

2. 参数方法

2.1 基于正态分布的一元异常点检测

仅涉及一个属性或变量的数据称为一元数据。我们假定数据由正态分布产生,然后可以由输入数据学习正态分布的参数,并把低概率的点识别为异常点。

假定输入数据集为python自定义统计大于90的人数_python_05,数据集中的样本服从正态分布,即python自定义统计大于90的人数_数据挖掘_06我们可以根据样本求出参数python自定义统计大于90的人数_数据_07python自定义统计大于90的人数_python自定义统计大于90的人数_08

python自定义统计大于90的人数_正态分布_09

python自定义统计大于90的人数_python_10

求出参数之后,我们就可以根据概率密度函数计算数据点服从该分布的概率。正态分布的概率密度函数为

python自定义统计大于90的人数_python_11

如果计算出来的概率低于阈值,就可以认为该数据点为异常点。

阈值是个经验值,可以选择在验证集上使得评估指标值最大(也就是效果最好)的阈值取值作为最终阈值。

例如常用的python自定义统计大于90的人数_正态分布_12原则中,如果数据点超过范围python自定义统计大于90的人数_数据_13,那么这些点很有可能是异常点。

这个方法还可以用于可视化。箱线图对数据分布做了一个简单的统计可视化,利用数据集的上下四分位数(Q1和Q3)、中点等形成。异常点常被定义为小于Q1-1.5IQR或大于Q3+1.5IQR的那些数据。

python自定义统计大于90的人数_正态分布_14

用Python画一个简单的箱线图:

import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
%matplotlib inline 

data = np.random.randn(50000) * 20 + 20
# np.random.randn:生成一组服从标准正态分布的样本值
sns.boxplot(data=data)

python自定义统计大于90的人数_正态分布_15

2.2 多元异常点检测

涉及两个及以上属性或变量的数据称为多元数据。许多一元异常点检测方法都可以扩充用来处理多元数据。其核心思想是把多元异常点检测任务转换成一元异常点检测问题

2.2.1 特征之间相互独立,且符合多元高斯分布

可以求出每一维度的均值和标准差。对于第python自定义统计大于90的人数_数据_16维:

python自定义统计大于90的人数_python_17

python自定义统计大于90的人数_数据挖掘_18

计算概率时的概率密度函数为

python自定义统计大于90的人数_数据_19

如果计算出的概率低于阈值,就可以认为在该特征下此类数据点为异常点。

2.2.2 多个特征相关,且符合多元高斯分布

如果特征之间有相关性,我们需要根据训练集求得python自定义统计大于90的人数_数据_07python自定义统计大于90的人数_python自定义统计大于90的人数_08,以得到一个确定的多元分正态布模型。具体来说,通过最大似然估计量可以得出下面的结论:
python自定义统计大于90的人数_数据_22

python自定义统计大于90的人数_正态分布_23

其中python自定义统计大于90的人数_正态分布_24是协方差对角矩阵,最终求得的多元正态分布模型可以写成:

python自定义统计大于90的人数_python_25

关于最大似然估计量、协方差矩阵和多元正态分布最大似然估计的具体推导过程,可参考:
概率笔记12——多维正态分布的最大似然估计概率笔记10——矩估计和最大似然 此部分参考基于概率统计的异常检测

2.2.3 使用混合参数分布

在许多情况下假定数据是由正态分布产生的。当实际数据很复杂时,这种假定过于简单,可以假定数据是被混合参数分布产生的。

3. 非参数方法

在异常检测的非参数方法中,“正常数据”的模型从输入数据学习,而不是假定一个先验。通常,非参数方法对数据做较少假定,因而在更多情况下都可以使用。

例子:使用直方图检测异常点。

直方图是一种频繁使用的非参数统计模型,可以用来检测异常点。该过程包括如下两步:

步骤1:构造直方图。使用输入数据(训练数据)构造一个直方图。该直方图可以是一元的,或者多元的(如果输入数据是多维的)。

尽管非参数方法并不假定任何先验统计模型,但是通常确实要求用户提供参数,以便由数据学习。例如,用户必须指定直方图的类型(等宽的或等深的)和其他参数(直方图中的箱数或每个箱的大小等)。与参数方法不同,这些参数并不指定数据分布的类型。

步骤2:检测异常点。为了确定一个对象是否是异常点,可以对照直方图检查它。在最简单的方法中,如果该对象落入直方图的一个箱中,则该对象被看作正常的,否则被认为是异常点。

对于更复杂的方法,可以使用直方图赋予每个对象一个异常点得分。例如令对象的异常点得分为该对象落入的箱的容积的倒数。

使用直方图作为异常点检测的非参数模型的一个缺点是,很难选择一个合适的箱尺寸。一方面,如果箱尺寸太小,则许多正常对象都会落入空的或稀疏的箱中,因而被误识别为异常点。另一方面,如果箱尺寸太大,则异常点对象可能渗入某些频繁的箱中,因而“假扮”成正常的。

4. HBOS(Histogram-based Outlier Score)

思路:假设每个维度间都是独立的,分别计算一个样本在不同维度上所处的密度空间,并叠加结果,区间的密度越高,异常评分越低。
调用方法:from pyod.models.hbosimport HBOS
优点:简单、开销小,可并行式计算,适用于大量数据。
缺点:无法考虑不同特征间的关系(dependency)。

HBOS算法流程:

1.为每个数据维度做出数据直方图。对分类数据统计每个值的频数并计算相对频率。对数值数据根据分布的不同采用以下两种方法:

  • 静态宽度直方图:标准的直方图构建方法,在值范围内使用k个等宽箱。样本落入每个桶的频率(相对数量)作为密度(箱子高度)的估计。时间复杂度:python自定义统计大于90的人数_正态分布_26
  • 动态宽度直方图:首先对所有值进行排序,然后固定数量的python自定义统计大于90的人数_数据挖掘_27个连续值装进一个箱里,其 中N是总实例数,k是箱个数;直方图中的箱面积表示实例数。因为箱的宽度是由箱中第一个值和最后一个值决定的,所有箱的面积都一样,因此每一个箱的高度都是可计算的。这意味着跨度大的箱的高度低,即密度小,只有一种情况例外,超过k个数相等,此时允许在同一个箱里超过python自定义统计大于90的人数_数据挖掘_27值。时间复杂度:python自定义统计大于90的人数_数据_29

2.对每个维度都计算了一个独立的直方图,其中每个箱子的高度表示密度的估计。然后为了使得最大高度为1(确保了每个特征与异常值得分的权重相等),对直方图进行归一化处理。最后,每一个实例的HBOS值由以下公式计算:

python自定义统计大于90的人数_正态分布_30

推导过程:

假设样本python自定义统计大于90的人数_数据挖掘_31python自定义统计大于90的人数_python_32个特征的概率密度为python自定义统计大于90的人数_数据_33,则p的概率密度可以计算为: python自定义统计大于90的人数_正态分布_34 两边取对数: python自定义统计大于90的人数_数据挖掘_35 概率密度越大,异常评分越小,为了方便评分,两边乘以“-1”: python自定义统计大于90的人数_数据挖掘_36 最后可得: python自定义统计大于90的人数_python_37

5. COPOD(Copula-Based Outlier Detection)

核心思路:传统的统计方法会把特征空间上的每个维度单独建模,然后估算一个样本在这个维度上的“异常程度”(比如是否在2个python自定义统计大于90的人数_python自定义统计大于90的人数_08以外),但这种思想忽略了不同维度之间并不独立(特征点并非是完全独立的)。因此通过python自定义统计大于90的人数_数据挖掘_39函数(一种概率模型),我们可以对所有的特征一并联合建模,估算出“经验累积分布函数”(empirical CDF),并用它来估计每个样本在不同维度上有多么“异常”。大致思路可以表述为:计算一个(多维)样本在每个维度上是异常点的可能性,再合并所有的维度上的结果。
调用方法:from pyod.models.copodimport COPOD
优点:运行快、无需调参、有一定的解释性(比如哪个特征更有解释性)
缺点:决策边界比较复杂

6. 总结

1.异常检测的统计学方法由数据学习模型,以区别正常的数据对象和异常点。使用统计学方法的一个优点是,异常检测可以是统计上无可非议的。当然,仅当对数据所做的统计假定满足实际约束时才为真。

2.HBOS在全局异常检测问题上表现良好,但不能检测局部异常值。但是HBOS比标准算法快得多,尤其是在大数据集上。

3.COPOD解决了HBOS无法考虑特征间相关关系的问题,同样适用于大数据集。

7. 练习

from __future__ import division
from __future__ import print_function

import os
import sys

from pyod.models.hbos import HBOS
from pyod.utils.data import generate_data
from pyod.utils.data import evaluate_print
from pyod.utils.example import visualize
if __name__ == "__main__":
    contamination = 0.1  # 离群值百分比
    n_train = 200  
    n_test = 100  

    # 生成样本数据
    X_train, y_train, X_test, y_test = \
        generate_data(n_train=n_train,
                      n_test=n_test,
                      n_features=2,
                      contamination=contamination,
                      random_state=42)

    # 训练
    clf_name = 'HBOS'
    clf = HBOS()
    clf.fit(X_train)

    # 得到训练数据的预测标签和离群值
    y_train_pred = clf.labels_  # 二元标签 (0: inliers, 1: outliers)
    y_train_scores = clf.decision_scores_  

    # 获取测试数据的预测值
    y_test_pred = clf.predict(X_test)  # outlier labels (0 or 1)
    y_test_scores = clf.decision_function(X_test)  # 异常分数

    # 评估并输出结果
    print("\nOn Training Data:")
    evaluate_print(clf_name, y_train, y_train_scores)
    print("\nOn Test Data:")
    evaluate_print(clf_name, y_test, y_test_scores)

    # 可视化结果
    visualize(clf_name, X_train, y_train, X_test, y_test, y_train_pred,
              y_test_pred, show_figure=True, save_figure=False)

python自定义统计大于90的人数_正态分布_40