Deep Learning

Ce chapitre explore le cœur battant de l’intelligence artificielle moderne : le deep learning (ou apprentissage profond). Reposant sur des réseaux de neurones à plusieurs couches, cette approche permet de traiter des données complexes et massives, et alimente les progrès spectaculaires dans la vision par ordinateur, la traduction automatique, ou encore la génération de contenus. Le chapitre introduit les fondements théoriques des réseaux de neurones, puis détaille les principales architectures utilisées dans les applications actuelles.

CNN – Réseaux Convolutifs

  • Structure : Un réseau de neurones convolutifs (CNN) est composé de différentes couches :
    • Convolutions : Ces couches appliquent des filtres ou noyaux à l’image d’entrée pour extraire des caractéristiques importantes (par exemple, les bords, textures, etc.).
    • Pooling : Une opération de réduction de la taille de l’image (ou des caractéristiques extraites), généralement par un sous-échantillonnage de type Max Pooling ou Average Pooling, afin de réduire la dimensionnalité et le risque de surapprentissage.
    • Fully connected : Après les couches convolutives et de pooling, les caractéristiques extraites sont généralement connectées à une ou plusieurs couches entièrement connectées pour effectuer la classification ou la régression.
  • Applications : Les CNN sont principalement utilisés pour des tâches de traitement d’images, telles que :
    • Vision par ordinateur : Détection d’objets, segmentation d’images, analyse de scènes, etc.
    • Reconnaissance d’images : Identification d’objets ou de personnes dans des images ou des vidéos.
  • Architectures célèbres : Parmi les architectures CNN les plus connues, on trouve :
    • VGG : Un modèle célèbre pour sa simplicité, basé sur une pile de couches convolutives suivies de couches entièrement connectées. Il est connu pour sa profondeur (16 ou 19 couches).
    • ResNet : Introduit le concept de « résidus » (skip connections) qui permet de former des réseaux beaucoup plus profonds sans que les gradients ne disparaissent pendant l’entraînement.
    • EfficientNet : Une architecture conçue pour être plus efficace en termes de performance et de calcul en utilisant un scaling des dimensions du modèle (largeur, profondeur et résolution) de manière optimale.

En savoir plus

RNN – Réseaux Récurrents

En savoir plus

Architectures modernes

En savoir plus


💡 Objectif du chapitre : permettre au lecteur de comprendre comment les réseaux de neurones profonds fonctionnent, pourquoi ils sont si puissants, et comment choisir la bonne architecture selon le type de données et la tâche visée.