Interpretowalność modeli nie jest kwestią tego, jaką metodę ML stosujesz (jakiego podłoża modelu, np. NNs vs modele graficzne vs kod symboliczny). Każde podłoże może być interpretowalne, gdy model jest wystarczająco mały. To czysto kwestia rozmiaru/kompleksowości modelu. Zachowanie złożonej bazy kodu lub złożonego modelu graficznego nie jest interpretowalne, mimo że lokalnie możesz odczytać każdy fragment tego, co robi. Może być *debugowalne* w specyficznych przypadkach przy dużym wysiłku -- ale to samo dotyczyłoby również NNs. Moim zdaniem stwierdzenie "musimy używać metod interpretowalnych" jest nie do przyjęcia, oznacza to, że chciałbyś ograniczyć się do modeli zabawkowych.
52,52K