OUTER ALIGNMENT

Das Outer Alignment Problem fragt in einem KI-Zusammenhang, worauf ein KI-Model ausgerichtet wird, was also das Ziel der KI sein soll. Es geht also um die Frage, ob die KI auf das richtige Ziel trainiert wird.