参考资料:
常用聚类度量指标
sklearn聚类性能度量:main
轮廓系数及可视化中心点

聚类算法内部度量:

1. 轮廓系数(Silhouette Coefficient)

函数:
def silhouette_score(X, labels, metric=‘euclidean’, sample_size=None,
random_state=None, **kwds):

函数值说明:
所有样本的s i 的均值称为聚类结果的轮廓系数,定义为S,是该聚类是否合理、有效的度量。聚类结果的轮廓系数的取值在【-1,1】之间,值越大,说明同类样本相距约近,不同样本相距越远,则聚类效果越好

2. CH分数(Calinski Harabasz Score )

函数:
def calinski_harabasz_score(X, labels):
函数值说明:
类别内部数据的协方差越小越好,类别之间的协方差越大越好,这样的Calinski-Harabasz分数会高。 总结起来一句话:CH index的数值越大越好

3. 戴维森堡丁指数(DBI)——davies_bouldin_score

函数:
def davies_bouldin_score(X, labels):
函数值说明:
注意:DBI的值最小是0值越小,代表聚类效果越好。

  1. import pandas as pd
  2. from numpy import unique
  3. from numpy import where
  4. from matplotlib import pyplot
  5. from sklearn import metrics
  6. from sklearn.cluster import DBSCAN
  7. import matplotlib.pyplot as plt
  8. data = pd.read_excel('cluster_data.xlsx')
  9. eps_list = []
  10. si_list = []
  11. ch_list = []
  12. dbi_list = []
  13. """
  14. 聚类-内部度量
  15. Calinski-Harabaz Index:
  16. 在scikit-learn中, Calinski-Harabasz Index对应的方法是metrics.calinski_harabaz_score.
  17. CH指标通过计算类中各点与类中心的距离平方和来度量类内的紧密度,通过计算各类中心点与数据集中心点距离平方和来度量数据集的分离度,CH指标由分离度与紧密度的比值得到。从而,CH越大代表着类自身越紧密,类与类之间越分散,即更优的聚类结果。
  18. sklearn.metrics.silhouette_score:轮廓系数
  19. silhouette_sample
  20. 对于一个样本点(b - a)/max(a, b)
  21. a平均类内距离,b样本点到与其最近的非此类的距离。
  22. silihouette_score返回的是所有样本的该值,取值范围为[-1,1]。
  23. 这些度量均是越大越好
  24. """
  25. # 初始参数聚类
  26. model = DBSCAN(min_samples=2)
  27. # 模型拟合与聚类预测
  28. X = data[['x', 'y']].values
  29. yhat = model.fit_predict(X)
  30. # 检索唯一群集
  31. clusters = unique(yhat)
  32. # 为每个群集的样本创建散点图
  33. for cluster in clusters:
  34. # 获取此群集的示例的行索引
  35. row_ix = where(yhat == cluster)
  36. # 创建这些样本的散布
  37. pyplot.scatter(X[row_ix, 0], X[row_ix, 1], label=cluster)
  38. # 绘制散点图
  39. pyplot.xlabel('x')
  40. pyplot.ylabel('y')
  41. plt.legend()
  42. pyplot.show()
  43. eps_cal = 1
  44. while eps_cal < 30:
  45. model = DBSCAN(eps=eps_cal, min_samples=2)
  46. label_list = model.fit_predict(data)
  47. # 轮廓系数
  48. cluster_score_si = metrics.silhouette_score(data, label_list)
  49. cluster_score_ch = metrics.calinski_harabasz_score(data, label_list)
  50. # DBI的值最小是0,值越小,代表聚类效果越好。
  51. cluster_score_DBI = metrics.davies_bouldin_score(data, label_list)
  52. eps_list.append(eps_cal)
  53. si_list.append(cluster_score_si)
  54. ch_list.append(cluster_score_ch)
  55. dbi_list.append(cluster_score_DBI)
  56. eps_cal += 1
  57. plt.figure()
  58. plt.plot(eps_list, si_list)
  59. plt.xlabel("dbscan-eps")
  60. plt.ylabel("silhouette_score")
  61. plt.title("dbscan-eps-si")
  62. plt.show()
  63. plt.figure()
  64. plt.plot(eps_list, ch_list)
  65. plt.xlabel("dbscan-eps")
  66. plt.ylabel("calinski_harabasz_score")
  67. plt.title("dbscan-eps-ch")
  68. plt.show()
  69. plt.figure()
  70. plt.plot(eps_list, dbi_list)
  71. plt.xlabel("dbscan-eps")
  72. plt.ylabel("davies_bouldin_score")
  73. plt.title("dbscan-eps-dbi")
  74. plt.show()
  75. # eps经过参数调优,选择22为合适值
  76. model = DBSCAN(eps=22, min_samples=2)
  77. # 模型拟合与聚类预测
  78. X = data[['x', 'y']].values
  79. yhat = model.fit_predict(X)
  80. # 检索唯一群集
  81. clusters = unique(yhat)
  82. # 为每个群集的样本创建散点图
  83. for cluster in clusters:
  84. # 获取此群集的示例的行索引
  85. row_ix = where(yhat == cluster)
  86. # 创建这些样本的散布
  87. pyplot.scatter(X[row_ix, 0], X[row_ix, 1], label=cluster)
  88. # 绘制散点图
  89. pyplot.xlabel('x')
  90. pyplot.ylabel('y')
  91. plt.legend()
  92. pyplot.show()

image.pngimage.pngimage.pngimage.pngimage.png

数据及代码

https://github.com/SeafyLiang/machine_learning_study/blob/master/cluster/cluster_measure.py