Un Réseau antagoniste génératif (GAN) est une architecture d'apprentissage automatique composée de deux réseaux de neurones, un générateur et un discriminateur, entraînés l'un contre l'autre. Le générateur crée des données synthétiques en essayant d'imiter les données réelles, tandis que le discriminateur tente de distinguer les échantillons réels des générés. Par ce processus antagoniste, les deux réseaux s'améliorent jusqu'à ce que le générateur produise des sorties assez convaincantes pour tromper le discriminateur.
Les GAN ont été introduits en 2014 et sont devenus l'approche dominante pour la génération d'images IA jusqu'à la fin des années 2010, avec des avancées majeures en synthèse photoréaliste, transfert de style et traduction image-vers-image. Des architectures GAN notables incluent StyleGAN pour la génération de visages de haute qualité, CycleGAN pour la traduction d'images non appariées et Pix2Pix pour la transformation d'images appariées. Les GAN ont toutefois été difficiles à entraîner, sujets au mode collapse (variété limitée) et demandent un équilibrage soigneux pour éviter l'instabilité.
Bien que les modèles de diffusion aient largement remplacé les GAN comme architecture privilégiée pour la génération d'images moderne en raison de leur stabilité et qualité supérieures, les GAN restent importants dans l'histoire de l'IA et sont encore utilisés dans des applications spécialisées. Comprendre les GAN donne le contexte de l'évolution de l'IA générative et explique pourquoi les modèles à diffusion actuels représentent un tournant architectural majeur.