Інтерпретованість моделі не залежить від того, який метод машинного навчання ви використовуєте (який підкладку моделі, наприклад, NNs vs графічні моделі vs символьний код). Будь-яка підкладка може бути інтерпретована, коли модель досить маленька. Це суто питання розміру/складності моделі. Поведінка складної кодової бази або складної графічної моделі не піддається інтерпретації, незважаючи на те, що ви можете локально прочитати будь-який біт того, що вона робить. Можливо, його можна налагоджувати* в конкретних випадках з великими зусиллями, але те ж саме можна сказати і про NN. IMO твердження «ми повинні використовувати інтерпретаційні методи» не є початковим, це означає, що ви хотіли б обмежитися моделями іграшок.
43,86K