Generative Pre-trained Transformer (GPT) ist ein automatisches Sprachmodell, das auf maschinellem Lernen basiert. Es wurde von OpenAI entwickelt und verwendet eine Methode namens unsupervised learning – das heißt, es lernt und verbessert seine Fähigkeiten durch das Studium großer Mengen von Text, ohne dass ihm gesagt wird, was „richtig“ oder „falsch“ ist.

GPT ist ein Transformator-basiertes Modell, das heißt, es verwendet Transformator-Architekturen, um Muster in den Daten zu erkennen. Transformator-Architekturen sind Modelle, die auf Selbst-Attention-Mechanismen basieren, und sie sind besonders effektiv in NLP (Natural Language Processing) Anwendungen.

Die Bezeichnung „generativ“ bezieht sich auf die Fähigkeit des Modells, neue Inhalte zu erstellen, basierend auf dem, was es gelernt hat. Im Kontext von GPT bedeutet das, dass das Modell dazu in der Lage ist, menschenähnliche Texte zu generieren, nachdem es trainiert wurde.