Machine Learning
Le Machine Learning (ou apprentissage automatique) est un sous-domaine de l’intelligence artificielle qui permet aux machines d’apprendre à partir de données, sans être explicitement programmées pour chaque tâche. Ce chapitre présente les différentes approches du machine learning, les étapes de conception d’un modèle, ainsi que les bonnes pratiques pour l’évaluer et l’optimiser. C’est une base essentielle pour comprendre comment fonctionnent les systèmes intelligents dans des domaines variés comme la finance, la santé ou la recommandation.
Apprentissage supervisé
L’apprentissage supervisé repose sur des données étiquetées : pour chaque entrée, on connaît la sortie attendue. Cette section détaille les deux principales tâches :
-
Classification : prédire une catégorie (ex : spam / non-spam)
-
Régression : prédire une valeur continue (ex : prix d’un bien immobilier)
On y présente les algorithmes classiques (régression linéaire, k-NN, arbres de décision, SVM, forêts aléatoires) et les critères de performance associés (accuracy, MAE, F1-score…).
Apprentissage non supervisé
Dans ce cadre, les données ne sont pas étiquetées. L’objectif est alors de découvrir des structures cachées, des regroupements ou des relations entre les données. On aborde :
-
Le clustering (K-means, DBSCAN…)
-
La réduction de dimension (PCA, t-SNE)
-
L’analyse de regroupement hiérarchique
Ces méthodes sont très utiles pour l’exploration de données, la compression, ou la détection d’anomalies.
Apprentissage semi-supervisé
L’apprentissage semi-supervisé se situe entre le supervisé et le non supervisé : il utilise une petite quantité de données étiquetées combinée à une grande quantité de données non étiquetées. Cela permet d’améliorer les performances des modèles tout en réduisant les coûts d’annotation.
On y présente :
-
Les techniques d’auto-étiquetage
-
L’utilisation de graphes ou de propagation de labels
-
Des approches modernes comme les méthodes de consistance ou pseudo-labels
Apprentissage par renforcement
L’apprentissage par renforcement (Reinforcement Learning) s’inspire du comportement d’un agent qui apprend par essais/erreurs en interagissant avec un environnement. L’agent prend des décisions (actions) pour maximiser une récompense cumulée.
Les concepts clés incluent :
-
État, action, politique, récompense, valeur
-
Exploration vs exploitation
-
Processus de décision de Markov (MDP)
Exemples d’applications : jeux (Go, échecs), robots autonomes, gestion d’énergie, etc.
Construction d’un pipeline ML
Cette section décrit les étapes clés pour passer des données brutes à un modèle fonctionnel :
-
Nettoyage et prétraitement des données
-
Séparation en ensembles d’entraînement et de test
-
Entraînement du modèle
-
Évaluation et interprétation
-
Déploiement (API, batch processing, etc.)
On y aborde aussi les outils comme scikit-learn et les notions de pipeline reproductible.
Validation et tuning des modèles
La validation permet de mesurer la performance d’un modèle sur des données non vues. On présente :
-
Validation croisée (cross-validation)
-
Grille de recherche (grid search) et recherche bayésienne
-
Gestion du surapprentissage (overfitting)
On introduit également des techniques comme le dropout, early stopping, et l’importance du choix des hyperparamètres.
🔍 Objectif du chapitre : fournir une vision globale des approches du machine learning, avec un focus sur la pratique et la rigueur méthodologique nécessaires pour développer des modèles fiables et robustes.