TRANSFORMATOR-ARCHITEKTUREN (TRANSFORMER MODELS)

Ein Modell für maschinelles Lernen, insbesondere für Aufgaben im Bereich des Natural Language Processing (NLP). Es verwendet Mechanismen der „Selbst-Attention“ oder „Self-Attention“, um die relevanten Kontextinformationen eines Eingabetextes zu gewichten und so eine bessere Textverarbeitung und -verständigung zu ermöglichen.