A interpretabilidade do modelo não é uma questão de qual método de ML você está usando (qual substrato de modelo, por exemplo, NNs vs modelos gráficos vs código simbólico). Qualquer substrato pode ser interpretável quando o modelo é pequeno o suficiente. É puramente uma questão de tamanho / complexidade do modelo. O comportamento de uma base de código complexa ou de um modelo gráfico complexo não é interpretável, apesar do fato de que você pode ler localmente qualquer parte do que ele faz. Talvez seja * depurável * em casos específicos com grande esforço - mas o mesmo seria verdade para NNs também. IMO, a afirmação "devemos usar métodos interpretáveis" é um fracasso, significa que você gostaria de se restringir a modelos de brinquedos.
60,12K