لا تتعلق قابلية تفسير النموذج بأسلوب التعلم الآلي الذي تستخدمه (أي ركيزة نموذجية ، على سبيل المثال NNs مقابل النماذج الرسومية مقابل التعليمات البرمجية الرمزية). يمكن تفسير أي ركيزة عندما يكون النموذج صغيرا بما يكفي. إنها مسألة حجم / تعقيد النموذج بحتة. لا يمكن تفسير سلوك قاعدة التعليمات البرمجية المعقدة أو النموذج الرسومي المعقد على الرغم من حقيقة أنه يمكنك قراءة أي جزء مما يفعله محليا. ربما يكون * قابلا للتصحيح * في حالات محددة بجهد كبير - ولكن الشيء نفسه ينطبق على NNs أيضا. IMO عبارة "يجب أن نستخدم طرقا قابلة للتفسير" هي عبارة غير متوقعة ، فهذا يعني أنك ترغب في قصر نفسك على نماذج الألعاب.
‏‎43.87‏K