Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A interpretabilidade do modelo não é uma questão de qual método de ML você está usando (qual substrato do modelo, por exemplo, NNs vs modelos gráficos vs código simbólico). Qualquer substrato pode ser interpretável quando o modelo é pequeno o suficiente. É puramente uma questão de tamanho/complexidade do modelo.
O comportamento de uma base de código complexa ou de um modelo gráfico complexo não é interpretável, apesar do fato de que você pode ler localmente qualquer parte do que ele faz. É talvez *depurável* em casos específicos com grande esforço -- mas o mesmo seria verdade para NNs também.
Na minha opinião, a afirmação "devemos usar métodos interpretáveis" é um não-iniciador, significa que você gostaria de se restringir a modelos de brinquedo.
43,88K
Top
Classificação
Favoritos