Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Interpretowalność modeli nie jest kwestią tego, jaką metodę ML stosujesz (jakiego podłoża modelu, np. NNs vs modele graficzne vs kod symboliczny). Każde podłoże może być interpretowalne, gdy model jest wystarczająco mały. To czysto kwestia rozmiaru/kompleksowości modelu.
Zachowanie złożonej bazy kodu lub złożonego modelu graficznego nie jest interpretowalne, mimo że lokalnie możesz odczytać każdy fragment tego, co robi. Może być *debugowalne* w specyficznych przypadkach przy dużym wysiłku -- ale to samo dotyczyłoby również NNs.
Moim zdaniem stwierdzenie "musimy używać metod interpretowalnych" jest nie do przyjęcia, oznacza to, że chciałbyś ograniczyć się do modeli zabawkowych.
52,52K
Najlepsze
Ranking
Ulubione