L’IA générative désigne les modèles capables de créer de nouvelles données (texte, images, son, vidéo) à partir d’exemples d’entraînement : on y retrouve notamment les réseaux antagonistes génératifs (GAN), les autoencodeurs variationnels (VAE) et, plus récemment, les architectures à base de transformeurs (GPT, DALL·E, Stable Diffusion). Ces systèmes sont entraînés sur d’immenses corpus pour apprendre la distribution statistique des données, puis génèrent du contenu original en prédisant la suite la plus probable ou en échantillonnant des espaces latents. Ils sont utilisés pour la rédaction automatisée, la création artistique, la synthèse vocale, la conception de molécules ou de designs, et même pour la simulation de scénarios. Pour déployer l’IA générative en production, on met en place des pipelines d’inférence optimisés (quantification, accélérateurs GPU/TPU), des garde-fous éthiques (filtrage de contenu, détection de biais) et des processus de fine-tuning ou de RLHF (Reinforcement Learning from Human Feedback) afin de garantir pertinence, sécurité et contrôle des résultats.