SHAP (SHapley Additive exPlanations)

SHAP est une méthode puissante et mathématiquement fondée pour expliquer les prédictions individuelles des modèles de machine learning, en s’appuyant sur les valeurs de Shapley issues de la théorie des jeux coopératifs.

L’idée centrale est de répondre à cette question :
👉 Quelle est la contribution réelle de chaque variable à une prédiction donnée ?


Objectif de SHAP

SHAP vise à :


Comment ça fonctionne ?

Initialisation de l’environnement SHAP

Avant d’afficher des visualisations interactives avec SHAP (notamment force_plot, decision_plot ou d’autres graphiques dynamiques), il est nécessaire d’initialiser l’environnement JavaScript dans l’environnement d’exécution (comme Jupyter Notebook ou Google Colab).

Interprétation des modèles arborescents avec SHAP TreeExplainer

Le SHAP TreeExplainer est une méthode rapide et précise pour interpréter les prédictions des modèles basés sur des arbres de décision, comme ceux entraînés avec XGBoost, LightGBM, CatBoost ou encore le RandomForestClassifier de scikit-learn.

SHAP KernelExplainer : Interprétation des modèles agnostiques

Le SHAP KernelExplainer est une méthode d’explicabilité universelle, conçue pour expliquer les prédictions de tout type de modèle de machine learning, y compris ceux qui ne fournissent pas directement d’informations sur l’importance des variables (comme les SVM, les réseaux de neurones, ou les modèles empiriques).

SHAP Summary Plot : Visualisation globale de l’importance des variables

Le SHAP Summary Plot est une visualisation essentielle pour interpréter de manière globale un modèle de machine learning. Il permet de comprendre quelles variables influencent le plus les prédictions du modèle et comment elles les influencent.

SHAP Force Plot : Explication locale et intuitive des prédictions

Le SHAP Force Plot est une visualisation puissante et interactive qui permet de comprendre les décisions individuelles d’un modèle de machine learning.