Modelltolkning er ikke et spørsmål om hvilken ML-metode du bruker (hvilket modellsubstrat, f.eks. NN-er vs grafiske modeller vs symbolsk kode). Ethvert substrat kan tolkes når modellen er liten nok. Det er utelukkende et spørsmål om modellstørrelse/kompleksitet. Oppførselen til en kompleks kodebase eller en kompleks grafisk modell kan ikke tolkes til tross for at du lokalt kan lese noe av det den gjør. Det er kanskje *feilsøkbart* i spesifikke tilfeller med stor innsats -- men det samme vil gjelde for NN-er også. IMO utsagnet "vi må bruke tolkbare metoder" er en nonstarter, det betyr at du vil begrense deg til leketøysmodeller.
43,83K