La interpretabilidad del modelo no es una cuestión de qué método de ML está utilizando (qué sustrato del modelo, por ejemplo, NN frente a modelos gráficos frente a código simbólico). Cualquier sustrato puede ser interpretable cuando el modelo es lo suficientemente pequeño. Es puramente una cuestión de tamaño / complejidad del modelo. El comportamiento de una base de código compleja o un modelo gráfico complejo no es interpretable a pesar de que puede leer localmente cualquier parte de lo que hace. Quizás sea *depurable* en casos específicos con gran esfuerzo, pero lo mismo sería cierto para las NN también. En mi opinión, la afirmación "debemos usar métodos interpretables" es un fracaso, significa que le gustaría restringirse a modelos de juguete.
43.87K