„Gradientenabstieg ist mehr als ein Optimierungsalgorithmus; er ist das grundlegende Muster, nach dem künstliche Modelle aus Fehlern lernen. Schritt für Schritt folgt er der Richtung, in der der Verlust am schnellsten fällt — mal zögerlich mit kleiner Lernrate, mal kühner mit großen Schritten — und misst dabei beständig das Verhältnis von Stabilität zu Tempo. In…
Tagestipp