Interpretovatelnost modelu není otázkou toho, jakou metodu ML používáte (jaký substrát modelu, např. NN vs grafické modely vs symbolický kód). Jakýkoli substrát může být interpretovatelný, když je model dostatečně malý. Je to čistě otázka velikosti/složitosti modelu. Chování složitého základu kódu nebo složitého grafického modelu není interpretovatelné navzdory skutečnosti, že můžete lokálně číst jakýkoli bit toho, co dělá. Je to možná *laditelné* v konkrétních případech s velkým úsilím -- ale to samé by platilo i pro NN. IMO tvrzení "musíme použít interpretovatelné metody" je nesmyslné, znamená to, že byste se chtěli omezit na modely hraček.
52,53K