Recherche d’hyperparamètres (GridSearch, RandomSearch, Bayesian Optimization)
La recherche d’hyperparamètres consiste à trouver la meilleure combinaison de paramètres d’un modèle afin d’optimiser ses performances. Ces hyperparamètres sont définis avant l’entraînement et peuvent influencer grandement les résultats du modèle.
On distingue plusieurs approches pour cette recherche :
🔹 GridSearch
Recherche exhaustive sur un espace défini de paramètres. Teste toutes les combinaisons possibles. Très précis mais coûteux en temps de calcul, surtout quand les grilles sont grandes.
🔹 RandomSearch
Tire aléatoirement des combinaisons d’hyperparamètres dans un espace défini. Moins coûteux que GridSearch et souvent aussi performant.
🔹 Bayesian Optimization
Méthode plus avancée qui modélise la fonction de score comme une fonction probabiliste (ex. avec Gaussian Process) et choisit intelligemment les combinaisons à tester, pour maximiser le score avec moins d’itérations.