La interpretabilidad del modelo no es una cuestión de qué método de ML estás utilizando (qué sustrato de modelo, por ejemplo, redes neuronales frente a modelos gráficos frente a código simbólico). Cualquier sustrato puede ser interpretable cuando el modelo es lo suficientemente pequeño. Es puramente una cuestión de tamaño/complexidad del modelo. El comportamiento de una base de código compleja o de un modelo gráfico complejo no es interpretable a pesar de que puedes leer localmente cualquier parte de lo que hace. Quizás sea *depurable* en casos específicos con gran esfuerzo, pero lo mismo sería cierto para las redes neuronales también. En mi opinión, la afirmación "debemos usar métodos interpretables" es un punto de partida no viable, significa que te gustaría restringirte a modelos de juguete.
60,13K