Évaluation des modèles supervisés

L’évaluation des modèles supervisés permet de quantifier la qualité des prédictions réalisées par un algorithme, en fonction de la tâche (régression ou classification). Elle repose sur des métriques adaptées et sur des procédures rigoureuses de validation.

  • Pour la régression, on utilise des indicateurs d’erreur entre les valeurs prédites et les valeurs réelles comme :

    • MAE (Mean Absolute Error) : moyenne des écarts absolus.

    • MSE (Mean Squared Error) / RMSE (Root MSE) : sensible aux grandes erreurs.

    • R² (coefficient de détermination) : proportion de variance expliquée.

  • Pour la classification, on s’intéresse à la justesse des classes prédites :

    • Précision (precision), rappel (recall), F1-score : utiles en cas de déséquilibre de classes.

    • AUC – ROC : mesure de performance globale d’un classifieur.

    • Matrice de confusion : visualise les erreurs de classification.