Couches de base (fully connected)
Fonctions :
-
Dense()
La couche Dense est une couche de réseau de neurones entièrement connectée (fully connected layer). Chaque neurone de cette couche reçoit en entrée toutes les sorties de la couche précédente. Elle est utilisée pour apprendre des combinaisons linéaires suivies d’une fonction d’activation, souvent en fin de réseau pour la classification ou la régression.
Importation :
from tensorflow.keras.models import Sequential from tensorflow.keras.layers import DenseAttributs :
Paramètre Type Description Valeur par défaut unitsint Nombre de neurones dans la couche. Obligatoire activationstr ou callable Fonction d'activation à appliquer (ex: 'relu', 'sigmoid'). None(activation linéaire)use_biasbool Indique si un biais doit être ajouté. Truekernel_initializerstr ou Initializer Initialisation des poids. 'glorot_uniform'bias_initializerstr ou Initializer Initialisation des biais. 'zeros'Exemple de code :
from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense # Création d'un modèle séquentiel simple model = Sequential() # Ajout d'une couche Dense avec 10 neurones et activation ReLU model.add(Dense(units=10, activation='relu', input_shape=(5,))) # Ajout d'une couche Dense de sortie avec 1 neurone (ex: régression) model.add(Dense(units=1)) # Résumé du modèle model.summary()
Explication du code :
importe les modules nécessaires de Keras pour construire un modèle séquentiel et ajouter une couche Dense.
Création du modèle
`model = Sequential()` initialise un modèle séquentiel simple.Ajout d'une couche Dense cachée
`model.add(Dense(units=10, activation='relu', input_shape=(5,)))` ajoute une couche complètement connectée avec 10 neurones, fonction d’activation ReLU, et une entrée de dimension 5.Ajout de la couche de sortie
`model.add(Dense(units=1))` ajoute une couche de sortie avec 1 neurone, sans activation (linéaire), adaptée à une tâche de régression.Résumé
`model.summary()` affiche la structure et le nombre de paramètres du modèle.