Couches récurrentes (SimpleRNN)
Fonctions :
-
SimpleRNN()
SimpleRNN est une couche de réseau de neurones récurrent (RNN) basique qui traite des séquences de données en tenant compte de la dépendance temporelle. Elle possède un état caché mis à jour à chaque pas temporel, ce qui lui permet de mémoriser une partie de l'information des séquences précédentes. Elle est souvent utilisée pour des tâches de traitement de séries temporelles, texte ou séquences.
Importation :
from tensorflow.keras.models import Sequential from tensorflow.keras.layers import SimpleRNN, Dense import numpy as npAttributs :
Paramètre Type Description Valeur par défaut unitsint Nombre de neurones dans la couche RNN, définissant la taille de la sortie. — activationstr / callable Fonction d'activation utilisée dans la couche. 'tanh'return_sequencesbool Si True, retourne la sortie à chaque pas de temps (séquence complète).Falsereturn_statebool Si True, retourne également l’état final en plus de la sortie.Falsego_backwardsbool Si True, traite la séquence en ordre inverse.Falsestatefulbool Si True, conserve l’état entre les lots d’entraînement.FalseExemple de code :
from tensorflow.keras.models import Sequential from tensorflow.keras.layers import SimpleRNN, Dense import numpy as np # Données simulées : 100 séquences, chaque séquence de longueur 10, avec 8 features par pas de temps X = np.random.rand(100, 10, 8) y = np.random.randint(0, 2, size=(100, 1)) # Modèle simple avec SimpleRNN model = Sequential() model.add(SimpleRNN(16, activation='relu', input_shape=(10, 8))) model.add(Dense(1, activation='sigmoid')) model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) model.summary()
Explication du code :
Importation des bibliothèques
On importe les couches `SimpleRNN` et `Dense` ainsi que `Sequential` de Keras pour construire le modèle.Création des données
Les données simulées représentent 100 séquences. Chaque séquence contient 10 pas de temps, et chaque pas possède 8 caractéristiques.Définition du modèle
La couche `SimpleRNN` contient 16 neurones et traite les séquences d’entrée. La couche dense finale à un neurone avec activation sigmoïde sert à la classification binaire.Compilation
Le modèle est compilé avec la fonction de perte binaire et l’optimiseur Adam pour une tâche de classification binaire.