SELBST-ATTENTION-MECHANISMEN (SELF-ATTENTION-MECHANISMS)
Ein Konzept in maschinellem Lernen, bei dem ein Modell lernt, welche Teile seiner Eingabe es für wichtig hält und diesen Teilen beim Lernen mehr Gewicht verleiht.
Du hast eine Frage?
Ein Konzept in maschinellem Lernen, bei dem ein Modell lernt, welche Teile seiner Eingabe es für wichtig hält und diesen Teilen beim Lernen mehr Gewicht verleiht.