Matrice de confusion
La matrice de confusion est un outil fondamental en apprentissage automatique supervisé pour évaluer les performances d’un modèle de classification.
Elle permet de visualiser comment le modèle se trompe, en décomposant les prédictions en 4 catégories principales. Contrairement à des métriques globales comme l’accuracy, elle donne un aperçu détaillé des erreurs.
Structure d’une matrice de confusion binaire
Prédit : Positif | Prédit : Négatif | |
---|---|---|
Réel : Positif | Vrai Positif (VP) | Faux Négatif (FN) |
Réel : Négatif | Faux Positif (FP) | Vrai Négatif (VN) |
-
VP (True Positive) : le modèle a correctement prédit la classe positive.
-
VN (True Negative) : le modèle a correctement prédit la classe négative.
-
FP (False Positive) : le modèle a prédit positif alors que c’était faux.
-
FN (False Negative) : le modèle a prédit négatif alors que c’était vrai.
-
🧠 Pourquoi c’est utile ?
La matrice de confusion permet de calculer toutes les métriques de performance :
-
Précision =
-
Rappel =
-
F1-score
-
Accuracy
Elle t’aide aussi à répondre à des questions importantes :
-
Est-ce que mon modèle fait beaucoup de faux positifs ?
-
Est-ce qu’il rate des cas positifs importants (faux négatifs) ?
-
Fonctions :
-
confusion_matrix()