Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Интерпретируемость модели не зависит от того, какой метод машинного обучения вы используете (какой модельный субстрат, например, нейронные сети против графических моделей против символического кода). Любой субстрат может быть интерпретируемым, если модель достаточно мала. Это чисто вопрос размера/сложности модели.
Поведение сложной кодовой базы или сложной графической модели не интерпретируемо, несмотря на то, что вы можете локально прочитать любой фрагмент того, что она делает. Возможно, она *отлаживаема* в конкретных случаях с большими усилиями — но то же самое справедливо и для нейронных сетей.
На мой взгляд, утверждение "мы должны использовать интерпретируемые методы" является неуместным, это означает, что вы хотите ограничить себя игрушечными моделями.
52,52K
Топ
Рейтинг
Избранное