Type de couches de neurones

Dans les réseaux de neurones artificiels, chaque couche a un rôle spécifique qui contribue à l’apprentissage et à la représentation des données. En fonction de leur fonction, de leur type et de leur structure, les couches peuvent être classées en plusieurs catégories. Chacune de ces couches joue un rôle essentiel dans le traitement de l’information à travers les différents types de réseaux neuronaux.

Couches d’entrée (Input Layer)

La couche d’entrée est le point de départ du réseau. Elle reçoit les données brutes sous forme de vecteurs numériques, sans transformation préalable.

Couches de base (fully connected)

Les couches pleinement connectées sont les blocs fondamentaux des réseaux de neurones, où chaque neurone est connecté à tous les neurones de la couche précédente.

Couches récurrentes (Recurrent Layers)

Ces couches permettent au réseau de traiter des séquences de données (texte, audio, séries temporelles) en conservant un état entre les étapes temporelles.

Couches d’embedding

Les embeddings convertissent des indices (comme des mots ou catégories) en vecteurs continus denses représentant leur signification dans un espace de caractéristiques.

Couches normalisatrices (Normalization Layers)

La normalisation stabilise et accélère l’entraînement en garantissant que les données gardent une distribution contrôlée à travers le réseau.

Couches de reshaping / manipulation

Ces couches modifient la structure ou la forme des tenseurs sans en changer les données, ce qui est utile pour l’adaptation entre différentes architectures.

Couches d’attention

Les couches d’attention permettent au modèle de se concentrer sur certaines parties des données d’entrée en apprenant où porter son attention, très utilisées dans les architectures modernes comme les Transformers.