local explanation:
global explanation:

why we need Explainable ML?

能帮助更好地优化模型,而不是爆调参数。

李宏毅老师的观点

解释性机器学习的目标,完全了解一个模型未必是必要的;因为人类大脑也是个黑盒。
因此ML Explanation的目标是让技术的被服务者comfortable(爽)即可,让人觉得学出来的东西很有道理即可。

可能针对不同的人可能提供不同的解释(个性化解释)

有些模型本质上是很容易解释的,如Linear,但没有那么powerful。
深度网络很难解释,但更powerful,因此我们希望增加它的解释性。

可解释的且powerful
decision tree,但tree也可以是很不可解释的,且我们使用时往往是随机森林和xgboost,并非完全可解释的。