Mallin tulkinnassa ei ole kyse siitä, mitä koneoppimismenetelmää käytät (mitä mallisubstraattia, esim. NN:t vs. graafiset mallit vs. symbolinen koodi). Mikä tahansa substraatti voi olla tulkittavissa, kun malli on riittävän pieni. Kyse on puhtaasti mallin koosta/monimutkaisuudesta. Monimutkaisen koodikannan tai monimutkaisen graafisen mallin käyttäytyminen ei ole tulkittavissa huolimatta siitä, että voit lukea paikallisesti mitä tahansa sen toimintaa. Se on ehkä *virheenkorjattavissa* tietyissä tapauksissa suurella vaivalla -- mutta sama pätee myös NN:iin. IMO:n väite "meidän on käytettävä tulkittavia menetelmiä" on epäonnistunut, se tarkoittaa, että haluat rajoittua lelumalleihin.
52,53K