Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La interpretabilidad del modelo no es una cuestión de qué método de ML estás utilizando (qué sustrato de modelo, por ejemplo, redes neuronales frente a modelos gráficos frente a código simbólico). Cualquier sustrato puede ser interpretable cuando el modelo es lo suficientemente pequeño. Es puramente una cuestión de tamaño/complexidad del modelo.
El comportamiento de una base de código compleja o de un modelo gráfico complejo no es interpretable a pesar de que puedes leer localmente cualquier parte de lo que hace. Quizás sea *depurable* en casos específicos con gran esfuerzo, pero lo mismo sería cierto para las redes neuronales también.
En mi opinión, la afirmación "debemos usar métodos interpretables" es un punto de partida no viable, significa que te gustaría restringirte a modelos de juguete.
60,13K
Parte superior
Clasificación
Favoritos