A interpretabilidade do modelo não é uma questão de qual método de ML você está usando (qual substrato do modelo, por exemplo, NNs vs modelos gráficos vs código simbólico). Qualquer substrato pode ser interpretável quando o modelo é pequeno o suficiente. É puramente uma questão de tamanho/complexidade do modelo. O comportamento de uma base de código complexa ou de um modelo gráfico complexo não é interpretável, apesar do fato de que você pode ler localmente qualquer parte do que ele faz. É talvez *depurável* em casos específicos com grande esforço -- mas o mesmo seria verdade para NNs também. Na minha opinião, a afirmação "devemos usar métodos interpretáveis" é um não-iniciador, significa que você gostaria de se restringir a modelos de brinquedo.
43,88K