SHAP (SHapley Additive exPlanations)
SHAP est une méthode puissante et mathématiquement fondée pour expliquer les prédictions individuelles des modèles de machine learning, en s’appuyant sur les valeurs de Shapley issues de la théorie des jeux coopératifs.
L’idée centrale est de répondre à cette question :
👉 Quelle est la contribution réelle de chaque variable à une prédiction donnée ?
Objectif de SHAP
SHAP vise à :
-
Interpréter les décisions des modèles complexes, comme les forêts aléatoires, les réseaux de neurones ou les gradient boosting.
-
Rendre les modèles plus transparents et justifiables pour les utilisateurs finaux, les scientifiques de données et les régulateurs.
-
Fournir des explications locales (prédiction par prédiction) et globales (importance moyenne des variables).
Comment ça fonctionne ?
-
SHAP attribue à chaque variable une valeur d’impact (valeur SHAP) représentant sa contribution marginale à la prédiction.
-
Ces valeurs respectent plusieurs propriétés souhaitables : consistance, local accuracy, et additivité.
-
Le modèle est interprété comme une somme de contributions individuelles, ce qui permet une lecture simple et précise des prédictions.
Initialisation de l’environnement SHAP
Avant d’afficher des visualisations interactives avec SHAP (notamment force_plot, decision_plot ou d’autres graphiques dynamiques), il est nécessaire d’initialiser l’environnement JavaScript dans l’environnement d’exécution (comme Jupyter Notebook ou Google Colab).
Interprétation des modèles arborescents avec SHAP TreeExplainer
Le SHAP TreeExplainer est une méthode rapide et précise pour interpréter les prédictions des modèles basés sur des arbres de décision, comme ceux entraînés avec XGBoost, LightGBM, CatBoost ou encore le RandomForestClassifier de scikit-learn.
SHAP KernelExplainer : Interprétation des modèles agnostiques
Le SHAP KernelExplainer est une méthode d’explicabilité universelle, conçue pour expliquer les prédictions de tout type de modèle de machine learning, y compris ceux qui ne fournissent pas directement d’informations sur l’importance des variables (comme les SVM, les réseaux de neurones, ou les modèles empiriques).
SHAP Summary Plot : Visualisation globale de l’importance des variables
Le SHAP Summary Plot est une visualisation essentielle pour interpréter de manière globale un modèle de machine learning. Il permet de comprendre quelles variables influencent le plus les prédictions du modèle et comment elles les influencent.
SHAP Force Plot : Explication locale et intuitive des prédictions
Le SHAP Force Plot est une visualisation puissante et interactive qui permet de comprendre les décisions individuelles d’un modèle de machine learning.