Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La interpretabilidad del modelo no es una cuestión de qué método de ML está utilizando (qué sustrato del modelo, por ejemplo, NN frente a modelos gráficos frente a código simbólico). Cualquier sustrato puede ser interpretable cuando el modelo es lo suficientemente pequeño. Es puramente una cuestión de tamaño / complejidad del modelo.
El comportamiento de una base de código compleja o un modelo gráfico complejo no es interpretable a pesar de que puede leer localmente cualquier parte de lo que hace. Quizás sea *depurable* en casos específicos con gran esfuerzo, pero lo mismo sería cierto para las NN también.
En mi opinión, la afirmación "debemos usar métodos interpretables" es un fracaso, significa que le gustaría restringirse a modelos de juguete.
43.87K
Populares
Ranking
Favoritas