1.使用的有监督分类算法
    RandomForest:使用默认参数分类器的精度能够能达到100%(十折交叉验证的精度在99%左右),但选出的模型和原模型的差异都很小!

    其余的传统机器学习算法没有统计featureimportances这个属性,一般不用来做特征选择

    2.neuronshapley
    只针对卷积层中的filter进行筛选,较深的层几乎都是全连接层,影响较大,无法找到关键的神经元

    3.lrp
    对于每一类数据 对倒数第二层或者倒数第三层的神经元的relevance score进行排序
    利用变异算子进行扰动的时候按照relevance score的优先级进行扰动

    之前变异部分的问题:
    1.NAI和NEB实际上只对一层进行了扰动,没有注意到代码中的break
    2.原来的代码中有随机种子,分别在mutation_utils.py和utils.py中,所以之前涉及到random的操作应该都是不随机的,麻了