モデルの解釈可能性は、どのML手法を使用しているか(どのモデルの基盤、例えばNNとグラフィカルモデルとシンボリックコード)の問題ではありません。モデルが十分に小さい場合、どの基板も解釈可能です。これは純粋にモデルのサイズ/複雑さの問題です。 複雑なコードベースまたは複雑なグラフィカル モデルの動作は、その動作をローカルで読み取ることができるにもかかわらず、解釈できません。それはおそらく、多大な努力を払って特定のケースで*デバッグ可能*ですが、同じことがNNにも当てはまります。 IMO 「解釈可能な方法を使用しなければならない」という声明はスターターではなく、おもちゃのモデルに限定したいことを意味します。
43.87K