DIA-M1 : Le Transformeur Génératif Pré-entraîné (GPT)
Série : Découvrons l'intelligence artificielle (IA).
Qu'est-ce qu'un Transformeur Génératif Pré-entraîné (GPT) ?
Un Transformeur Génératif Pré-entraîné (GPT), de l'anglais Generative Pre-trained Transformer, est un grand modèle de langage (LLM) qui s'appuie sur une architecture de réseau de neurones spécifique pour générer du contenu semblable à celui produit par des humains. Dans le contexte de l'intelligence artificielle (IA) générative, les GPTs marquent une rupture conceptuelle par rapport aux anciens modèles « discriminatifs » (qui se contentaient de classer ou prédire des étiquettes) en permettant de créer de nouvelles données et de faire le pont entre plusieurs domaines, comme passer d'un texte à une image.
Pour bien appréhender ce concept, il convient de décomposer son acronyme :
Génératif (Generative) : Le modèle a la capacité de générer du contenu nouveau et inédit (des phrases, des paragraphes, du code informatique) à partir d'une simple consigne ou requête, plutôt que de restituer une information pré-existante.



