1、概述

统计学方法对数据的正常性做出假定。它们假定正常的数据对象由一个统计模型产生,而不遵守该模型
的数据是异常点。统计学方法的有效性高度依赖于对给定数据所做的统计模型假定是否成立。比如正太分布中二、基于统计学的方法 - 图1 的所有点就判定为异常点。根据如何指定和学习模型,异常检测的统计学方法可以划分为两个主要类型:参数方法和非参数方法。

  • 参数方法假定正常的数据对象被一个以为参数的参数分布产生。该参数分布的概率密度函数给出对象被该分布产生的概率。该值越小, 越可能是异常点。
  • 非参数方法并不假定先验统计模型,而是试图从输入数据确定模型。非参数方法通常假定参数的个数和性质都是灵活的,不预先确定(所以非参数方法并不是说模型是完全无参的,完全无参的情况下从数据学习模型是不可能的)。

    2.参数方法

    2.1基于正太分布的一元异常检测

    仅涉及一个属性或变量的数据称为一元数据。我们假定数据由正态分布产生,然后可以由输入数据学习正态分布的参数,并把低概率的点识别为异常点。
    假定输入数据集为二、基于统计学的方法 - 图2%7D%2C%20x%5E%7B(2)%7D%2C%20…%2C%20x%5E%7B(m)%7D%5C%7D#card=math&code=%5C%7Bx%5E%7B%281%29%7D%2C%20x%5E%7B%282%29%7D%2C%20…%2C%20x%5E%7B%28m%29%7D%5C%7D),数据集中的样本服从正态分布,即二、基于统计学的方法 - 图3%7D%5Csim%20N(%5Cmu%2C%20%5Csigma%5E2)#card=math&code=x%5E%7B%28i%29%7D%5Csim%20N%28%5Cmu%2C%20%5Csigma%5E2%29&height=24&width=110),我们可以根据样本求出参数二、基于统计学的方法 - 图4二、基于统计学的方法 - 图5
    二、基于统计学的方法 - 图6%7D#card=math&code=%5Cmu%3D%5Cfrac%201m%5Csum_%7Bi%3D1%7D%5Em%20x%5E%7B%28i%29%7D&height=49&width=107)

二、基于统计学的方法 - 图7%7D-%5Cmu)%5E2#card=math&code=%5Csigma%5E2%3D%5Cfrac%201m%5Csum_%7Bi%3D1%7D%5Em%20%28x%5E%7B%28i%29%7D-%5Cmu%29%5E2)
求出参数之后,我们就可以根据概率密度函数计算数据点服从该分布的概率。正态分布的概率密度函数为
二、基于统计学的方法 - 图8%3D%5Cfrac%201%7B%5Csqrt%7B2%5Cpi%7D%5Csigma%7Dexp(-%5Cfrac%7B(x-%5Cmu)%5E2%7D%7B2%5Csigma%5E2%7D)#card=math&code=p%28x%29%3D%5Cfrac%201%7B%5Csqrt%7B2%5Cpi%7D%5Csigma%7Dexp%28-%5Cfrac%7B%28x-%5Cmu%29%5E2%7D%7B2%5Csigma%5E2%7D%29)
例如常用的3sigma原则中,如果数据点超过范围二、基于统计学的方法 - 图9,那么这些点很有可能是异常点。
这个方法还可以用于可视化。箱线图对数据分布做了一个简单的统计可视化,利用数据集的上下四分位数(Q1和Q3)、中点等形成。异常点常被定义为小于Q1-1.5IQR或大于Q3+1.5IQR的那些数据。

用Python画一个简单的箱线图

  1. import numpy as np
  2. import seaborn as sns
  3. import matplotlib.pyplot as plt
  4. data = np.random.randn(50000) * 20 + 20
  5. sns.boxplot(data=data)

image.png

2.2多元异常点检测

涉及两个或多个属性或变量的数据称为多元数据。核心思想是把多元异常点检测任务转换成一元异常点检测问题。
二、基于统计学的方法 - 图11%7D#card=math&code=%5Cmuj%3D%5Cfrac%201m%5Csum%7Bi%3D1%7D%5Em%20x_j%5E%7B%28i%29%7D)

二、基于统计学的方法 - 图12%7D-%5Cmuj)%5E2#card=math&code=%5Csigma_j%5E2%3D%5Cfrac%201m%5Csum%7Bi%3D1%7D%5Em%20%28x_j%5E%7B%28i%29%7D-%5Cmu_j%29%5E2)

计算概率时的概率密度函数为

二、基于统计学的方法 - 图13
这是在各个维度的特征之间相互独立的情况下。如果特征之间有相关性,就要用到多元高斯分布了。

2.3多个特征相关,且符合多元高斯分布

二、基于统计学的方法 - 图14%7D#card=math&code=%5Cmu%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Em_%7Bi%3D1%7Dx%5E%7B%28i%29%7D)

二、基于统计学的方法 - 图15%7D-%5Cmu)(x%5E%7B(i)%7D-%5Cmu)%5ET#card=math&code=%5Csum%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Em_%7Bi%3D1%7D%28x%5E%7B%28i%29%7D-%5Cmu%29%28x%5E%7B%28i%29%7D-%5Cmu%29%5ET)

二、基于统计学的方法 - 图16%3D%5Cfrac%7B1%7D%7B(2%20%5Cpi)%5E%7B%5Cfrac%7Bn%7D%7B2%7D%7D%7C%5CSigma%7C%5E%7B%5Cfrac%7B1%7D%7B2%7D%7D%7D%20%5Cexp%20%5Cleft(-%5Cfrac%7B1%7D%7B2%7D(x-%5Cmu)%5E%7BT%7D%20%5CSigma%5E%7B-1%7D(x-%5Cmu)%5Cright)#card=math&code=p%28x%29%3D%5Cfrac%7B1%7D%7B%282%20%5Cpi%29%5E%7B%5Cfrac%7Bn%7D%7B2%7D%7D%7C%5CSigma%7C%5E%7B%5Cfrac%7B1%7D%7B2%7D%7D%7D%20%5Cexp%20%5Cleft%28-%5Cfrac%7B1%7D%7B2%7D%28x-%5Cmu%29%5E%7BT%7D%20%5CSigma%5E%7B-1%7D%28x-%5Cmu%29%5Cright%29)

2.4使用混合参数分布

在许多情况下假定数据是由正态分布产生的。当实际数据很复杂时,这种假定过于简单,可以假定数据
是被混合参数分布产生的。

3.非参数的方法

在异常检测的非参数方法中,“正常数据”的模型从输入数据学习,而不是假定一个先验。通常,非参数方法对数据做较少假定,因而在更多情况下都可以使用。
例子:使用直方图检测异常点。
直方图是一种频繁使用的非参数统计模型,可以用来检测异常点。该过程包括如下两步:
步骤1:构造直方图。使用输入数据(训练数据)构造一个直方图。该直方图可以是一元的,或者多元的(如果输入数据是多维的)。

尽管非参数方法并不假定任何先验统计模型,但是通常确实要求用户提供参数,以便由数据学习。例如,用户必须指定直方图的类型(等宽的或等深的)和其他参数(直方图中的箱数或每个箱的大小等)。与参数方法不同,这些参数并不指定数据分布的类型。

步骤2:检测异常点。为了确定一个对象是否是异常点,可以对照直方图检查它。在最简单的方法中,如果该对象落入直方图的一个箱中,则该对象被看作正常的,否则被认为是异常点。

对于更复杂的方法,可以使用直方图赋予每个对象一个异常点得分。例如令对象的异常点得分为该对象落入的箱的容积的倒数。

使用直方图作为异常点检测的非参数模型的一个缺点是,很难选择一个合适的箱尺寸。一方面,如果箱尺寸太小,则许多正常对象都会落入空的或稀疏的箱中,因而被误识别为异常点。另一方面,如果箱尺寸太大,则异常点对象可能渗入某些频繁的箱中,因而“假扮”成正常的。
二、基于统计学的方法 - 图17是不是一眼就看出来了异常的那些点

4、HBOS

HBOS全名为:Histogram-based Outlier Score。它是一种单变量方法的组合,不能对特征之间的依赖关系进行建模,但是计算速度较快,对大数据集友好。其基本假设是数据集的每个维度相互独立。然后对每个维度进行区间(bin)划分,区间的密度越高,异常评分越低。
HBOS算法流程:

  1. 为每个数据维度做出数据直方图。对分类数据统计每个值的频数并计算相对频率。对数值数据根据分布的不同采用以下两种方法:
    • 静态宽度直方图:标准的直方图构建方法,在值范围内使用k个等宽箱。样本落入每个桶的频率(相对数量)作为密度(箱子高度)的估计。时间复杂度:二、基于统计学的方法 - 图18#card=math&code=O%28n%29)

(在二、基于统计学的方法 - 图19轴设置等份点,然后把样本数据填入其中)

  • 动态宽度直方图:首先对所有值进行排序,然后固定数量的二、基于统计学的方法 - 图20个连续值装进一个箱里,其 中N是总实例数,k是箱个数;直方图中的箱面积表示实例数。因为箱的宽度是由箱中第一个值和最后一个值决定的,所有箱的面积都一样,因此每一个箱的高度都是可计算的。这意味着跨度大的箱的高度低,即密度小,只有一种情况例外,超过k个数相等,此时允许在同一个箱里超过二、基于统计学的方法 - 图21值。时间复杂度:二、基于统计学的方法 - 图22)#card=math&code=O%28n%5Ctimes%20log%28n%29%29)

(先排序,把样本数量进行等份分割)

  1. 对每个维度都计算了一个独立的直方图,其中每个箱子的高度表示密度的估计。然后为了使得最大高度为1(确保了每个特征与异常值得分的权重相等),对直方图进行归一化处理。最后,每一个实例的HBOS值由以下公式计算

image.png
推导过程
(首先…其次…加点细节就完成了)
假设样本pi 个特征的概率密度为二、基于统计学的方法 - 图24#card=math&code=pi%28p%29) ,则_p的概率密度可以计算为:

二、基于统计学的方法 - 图25%3DP%7B1%7D(p)%20P%7B2%7D(p)%20%5Ccdots%20P%7Bd%7D(p)%0A#card=math&code=P%28p%29%3DP%7B1%7D%28p%29%20P%7B2%7D%28p%29%20%5Ccdots%20P%7Bd%7D%28p%29%0A)

两边取对数:

二、基于统计学的方法 - 图26)%20%26%3D%5Clog%20%5Cleft(P%7B1%7D(p)%20P%7B2%7D(p)%20%5Ccdots%20P%7Bd%7D(p)%5Cright)%20%3D%5Csum%7Bi%3D1%7D%5E%7Bd%7D%20%5Clog%20%5Cleft(P%7Bi%7D(p)%5Cright)%0A%5Cend%7Baligned%7D%0A#card=math&code=%5Cbegin%7Baligned%7D%0A%5Clog%20%28P%28p%29%29%20%26%3D%5Clog%20%5Cleft%28P%7B1%7D%28p%29%20P%7B2%7D%28p%29%20%5Ccdots%20P%7Bd%7D%28p%29%5Cright%29%20%3D%5Csum%7Bi%3D1%7D%5E%7Bd%7D%20%5Clog%20%5Cleft%28P%7Bi%7D%28p%29%5Cright%29%0A%5Cend%7Baligned%7D%0A)

概率密度越大,异常评分越小,为了方便评分,两边乘以“-1”:

二、基于统计学的方法 - 图27)%3D-1%20%5Csum%7Bi%3D1%7D%5E%7Bd%7D%20%5Clog%20%5Cleft(P%7Bt%7D(p)%5Cright)%3D%5Csum%7Bi%3D1%7D%5E%7Bd%7D%20%5Cfrac%7B1%7D%7B%5Clog%20%5Cleft(P%7Bi%7D(p)%5Cright)%7D%0A#card=math&code=-%5Clog%20%28P%28p%29%29%3D-1%20%5Csum%7Bi%3D1%7D%5E%7Bd%7D%20%5Clog%20%5Cleft%28P%7Bt%7D%28p%29%5Cright%29%3D%5Csum%7Bi%3D1%7D%5E%7Bd%7D%20%5Cfrac%7B1%7D%7B%5Clog%20%5Cleft%28P%7Bi%7D%28p%29%5Cright%29%7D%0A)

最后可得:

二、基于统计学的方法 - 图28%3D-%5Clog%20(P(p))%3D%5Csum%7Bi%3D1%7D%5E%7Bd%7D%20%5Cfrac%7B1%7D%7B%5Clog%20%5Cleft(P%7Bi%7D(p)%5Cright)%7D%0A#card=math&code=H%20B%20O%20S%28p%29%3D-%5Clog%20%28P%28p%29%29%3D%5Csum%7Bi%3D1%7D%5E%7Bd%7D%20%5Cfrac%7B1%7D%7B%5Clog%20%5Cleft%28P%7Bi%7D%28p%29%5Cright%29%7D%0A)

5、总结

1.异常检测的统计学方法由数据学习模型,以区别正常的数据对象和异常点。使用统计学方法的一个优
点是,异常检测可以是统计上无可非议的。当然,仅当对数据所做的统计假定满足实际约束时才为真。
2.HBOS在全局异常检测问题上表现良好,但不能检测局部异常值。但是HBOS比标准算法快得多,尤其
是在大数据集上。

练习

使用PyOD库生成toy example并调用HBOS

  1. from pyod.models.hbos import HBOS
  2. from pyod.utils.data import generate_data
  3. from pyod.utils.data import evaluate_print
  4. from pyod.utils.example import visualize
  5. # Generate sample data
  6. X_train, y_train, X_test, y_test = \
  7. generate_data(n_train=1000, # number of training points
  8. n_test=300, # number of testing points
  9. n_features=2,
  10. contamination=0.01, # percentage of outliers
  11. random_state=123)
  12. # train one_class_svm detector
  13. clf_name = 'HBOS'
  14. clf = HBOS()
  15. clf.fit(X_train)
  16. # get the prediction labels and outlier scores of the training data
  17. y_train_pred = clf.labels_ # binary labels (0: inliers, 1: outliers)
  18. y_train_scores = clf.decision_scores_ # raw outlier scores
  19. # get the prediction on the test data
  20. y_test_pred = clf.predict(X_test) # outlier labels (0 or 1)
  21. y_test_scores = clf.decision_function(X_test) # outlier scores
  22. # evaluate and print the results
  23. print("\nOn Training Data:")
  24. evaluate_print(clf_name, y_train, y_train_scores)
  25. print("\nOn Test Data:")
  26. evaluate_print(clf_name, y_test, y_test_scores)
  27. visualize(clf_name, X_train, y_train, X_test, y_test, y_train_pred,y_test_pred, show_figure=True, save_figure=False)

image.png
那么…咋优化呢