Modèles Transformer
Les modèles Transformer sont une classe d'architectures de réseaux de neurones qui traitent des séquences en utilisant l'auto-attention (self-attention). Les architectures de type Transformer sous-tendent la plupart des modèles de génération IA de pointe. Comprendre les Transformers aide à expliquer pourquoi les modèles modernes sont si réactifs au langage nuancé des prompts.