Méthodes par consistance
Les méthodes par consistance sont des techniques d’apprentissage semi-supervisé qui exploitent la notion de cohérence ou consistance des étiquettes des données. L’idée sous-jacente est que les modèles doivent prédire de manière cohérente les étiquettes des données sous diverses transformations (comme des perturbations de données ou des ajouts de bruit). Ces méthodes cherchent à faire en sorte que les prédictions du modèle restent stables (ou consistantes) lorsque les données sont modifiées d’une manière qui n’affecte pas leur classe réelle.
Les méthodes par consistance peuvent être appliquées sur des données étiquetées et non étiquetées, en forçant le modèle à se comporter de manière cohérente vis-à-vis de ces deux types de données.
Exemples de techniques :
-
Consistency Regularization (régularisation par consistance) : Utilisée dans des modèles comme
MixMatch
,FixMatch
, où un modèle prédit la même étiquette pour les données bruyantes ou légèrement modifiées. -
Pseudo-labelling : Cette approche consiste à générer des pseudo-étiquettes pour les exemples non étiquetés à partir des prédictions du modèle.