1.使用的有监督分类算法
RandomForest:使用默认参数分类器的精度能够能达到100%(十折交叉验证的精度在99%左右),但选出的模型和原模型的差异都很小!
其余的传统机器学习算法没有统计featureimportances这个属性,一般不用来做特征选择
2.neuronshapley
只针对卷积层中的filter进行筛选,较深的层几乎都是全连接层,影响较大,无法找到关键的神经元
3.lrp
对于每一类数据 对倒数第二层或者倒数第三层的神经元的relevance score进行排序
利用变异算子进行扰动的时候按照relevance score的优先级进行扰动
之前变异部分的问题:
1.NAI和NEB实际上只对一层进行了扰动,没有注意到代码中的break
2.原来的代码中有随机种子,分别在mutation_utils.py和utils.py中,所以之前涉及到random的操作应该都是不随机的,麻了
�