AUC-ROC

L’AUC-ROC (Area Under the Curve – Receiver Operating Characteristic) est une métrique avancée utilisée pour évaluer la performance globale d’un modèle de classification binaire, en particulier lorsqu’on travaille avec des probabilités de classe et des données déséquilibrées.


Pourquoi utiliser l’AUC-ROC ?

Contrairement à des métriques comme l’accuracy ou la précision, l’AUC-ROC ne se limite pas à un seuil de classification (comme 0.5). Elle évalue la capacité du modèle à séparer correctement les classes, quel que soit le seuil.

Plus l’AUC est proche de 1, meilleure est la capacité du modèle à distinguer les classes positives et négatives.


Définition


📊 Interprétation

AUC Interprétation
0.90–1 Excellente séparation des classes
0.80–0.90 Bonne performance
0.70–0.80 Moyenne
0.50 Pas mieux que le hasard (modèle inutile)
< 0.50 Inversion des classes (erreur systématique)

Fonctions :

  • roc_auc_score()