Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A interpretabilidade do modelo não é uma questão de qual método de ML você está usando (qual substrato de modelo, por exemplo, NNs vs modelos gráficos vs código simbólico). Qualquer substrato pode ser interpretável quando o modelo é pequeno o suficiente. É puramente uma questão de tamanho / complexidade do modelo.
O comportamento de uma base de código complexa ou de um modelo gráfico complexo não é interpretável, apesar do fato de que você pode ler localmente qualquer parte do que ele faz. Talvez seja * depurável * em casos específicos com grande esforço - mas o mesmo seria verdade para NNs também.
IMO, a afirmação "devemos usar métodos interpretáveis" é um fracasso, significa que você gostaria de se restringir a modelos de brinquedos.
60,12K
Melhores
Classificação
Favoritos