Sigmoid
La fonction Sigmoid est une fonction d’activation classique, souvent utilisée dans les réseaux neuronaux, notamment dans les couches de sortie des réseaux pour des problèmes de classification binaire. Elle transforme une entrée numérique en une sortie comprise entre 0 et 1. C’est une fonction logistique qui est souvent utilisée pour modéliser des probabilités dans des modèles de classification.
La fonction Sigmoid est définie par la formule suivante :
Cela signifie que pour des entrées positives, la sortie sera proche de 1, et pour des entrées négatives, la sortie sera proche de 0.
Fonctions :
-
Sigmoid()
La fonction sigmoïde est une fonction d’activation qui transforme une valeur réelle en une probabilité entre 0 et 1. Elle est particulièrement utilisée pour la classification binaire et dans les couches de sortie des réseaux de neurones.
Importation :
from tensorflow.keras.layers import Activation import numpy as np import tensorflow as tf
Attributs :
Paramètre Type Description Valeur par défaut La couche Sigmoid() ne possède pas de paramètre configurable — elle est entièrement déterministe. Exemple de code :
from tensorflow.keras.layers import Activation import numpy as np import tensorflow as tf # Données d'entrée inputs = tf.constant([[-3.0, 0.0, 2.0, 5.0]]) # Couche Sigmoid sigmoid = Activation('sigmoid') # Application outputs = sigmoid(inputs) print(outputs.numpy()) # [[0.047 0.5 0.88 0.993]]
Explication du code :
Importation de la fonction
La fonction `Activation('sigmoid')` permet d’utiliser la sigmoïde comme couche.Comportement
Chaque valeur est transformée selon la formule : \[ \sigma(x) = \frac{1}{1 + e^{-x}} \] Les valeurs très négatives s’approchent de 0, les très positives de 1.Utilisation typique
- En sortie d’un modèle de classification binaire (`units=1`) - Pour encoder des probabilités