local explanation:
global explanation:
why we need Explainable ML?
李宏毅老师的观点
解释性机器学习的目标,完全了解一个模型未必是必要的;因为人类大脑也是个黑盒。
因此ML Explanation的目标是让技术的被服务者comfortable(爽)即可,让人觉得学出来的东西很有道理即可。
可能针对不同的人可能提供不同的解释(个性化解释)
有些模型本质上是很容易解释的,如Linear,但没有那么powerful。
深度网络很难解释,但更powerful,因此我们希望增加它的解释性。
可解释的且powerful
decision tree,但tree也可以是很不可解释的,且我们使用时往往是随机森林和xgboost,并非完全可解释的。