Sigmoid

La fonction Sigmoid est une fonction d’activation classique, souvent utilisée dans les réseaux neuronaux, notamment dans les couches de sortie des réseaux pour des problèmes de classification binaire. Elle transforme une entrée numérique en une sortie comprise entre 0 et 1. C’est une fonction logistique qui est souvent utilisée pour modéliser des probabilités dans des modèles de classification.

La fonction Sigmoid est définie par la formule suivante :

 

f(x)=11+exf(x) = \frac{1}{1 + e^{-x}}

Cela signifie que pour des entrées positives, la sortie sera proche de 1, et pour des entrées négatives, la sortie sera proche de 0.

Fonctions :

  • Sigmoid()

    La fonction sigmoïde est une fonction d’activation qui transforme une valeur réelle en une probabilité entre 0 et 1. Elle est particulièrement utilisée pour la classification binaire et dans les couches de sortie des réseaux de neurones.

    Importation :

    from tensorflow.keras.layers import Activation
    import numpy as np
    import tensorflow as tf

    Attributs :

    Paramètre Type Description Valeur par défaut
    La couche Sigmoid() ne possède pas de paramètre configurable — elle est entièrement déterministe.

    Exemple de code :

    from tensorflow.keras.layers import Activation
    import numpy as np
    import tensorflow as tf
    
    # Données d'entrée
    inputs = tf.constant([[-3.0, 0.0, 2.0, 5.0]])
    
    # Couche Sigmoid
    sigmoid = Activation('sigmoid')
    
    # Application
    outputs = sigmoid(inputs)
    
    print(outputs.numpy())  # [[0.047 0.5 0.88 0.993]]

    Explication du code :

    Importation de la fonction
    La fonction `Activation('sigmoid')` permet d’utiliser la sigmoïde comme couche.
    Comportement
    Chaque valeur est transformée selon la formule : \[ \sigma(x) = \frac{1}{1 + e^{-x}} \] Les valeurs très négatives s’approchent de 0, les très positives de 1.
    Utilisation typique
    - En sortie d’un modèle de classification binaire (`units=1`) - Pour encoder des probabilités