Interpretabilitatea modelului nu este o chestiune de metoda ML pe care o utilizați (ce substrat de model, de exemplu, NN vs modele grafice vs cod simbolic). Orice substrat poate fi interpretat atunci când modelul este suficient de mic. Este pur și simplu o chestiune de dimensiune/complexitate a modelului. Comportamentul unei baze de cod complexe sau al unui model grafic complex nu este interpretabil, în ciuda faptului că puteți citi local orice parte din ceea ce face. Poate că este *depanabil* în cazuri specifice cu mare efort - dar același lucru ar fi valabil și pentru NN-uri. În opinia mea, afirmația "trebuie să folosim metode interpretabile" este un non-starter, înseamnă că ați dori să vă limitați la modele de jucării.
58,18K