模型可解释性并不是你使用哪种机器学习方法(哪种模型基底,例如神经网络与图形模型或符号代码)的问题。任何基底在模型足够小的时候都可以是可解释的。这纯粹是一个模型大小/复杂性的问题。 复杂代码库或复杂图形模型的行为是不可解释的,尽管你可以在局部读取它所做的任何部分。它在特定情况下可能是*可调试的*,但这同样适用于神经网络。 在我看来,"我们必须使用可解释的方法"这一说法是不可行的,这意味着你希望将自己限制在玩具模型上。
43.87K