Optischer Fluss
Die Berechnung von Bewegungsvektoren zwischen aufeinanderfolgenden Video-Frames, die zeigen wohin sich jedes Pixel bewegt.
Optical Flow berechnet Pixel-Bewegungen zwischen Video-Frames – Basis für Slow-Motion, Video-Stabilisierung, Action Recognition und autonomes Fahren.
Erklärung
Optical Flow erfasst die scheinbare Bewegung in einer Bildsequenz. Methoden reichen von klassisch (Lucas-Kanade, Farnebäck) bis Deep Learning (RAFT, FlowNet).
Relevanz für Marketing
Optical Flow ist fundamental für Video-Analyse, Action Recognition, Video-Stabilisierung und autonomes Fahren.
Beispiel
Ein Video-Editor nutzt Optical Flow für Slow-Motion-Interpolation – fehlende Frames werden aus Bewegungsvektoren synthetisiert.
Häufige Fallstricke
Fehler bei Verdeckungen und großen Bewegungen. Hoher Compute-Aufwand für Dense Flow. Beleuchtungswechsel stören klassische Methoden.
Entstehung & Geschichte
Horn-Schunck (1981) und Lucas-Kanade (1981) legten die mathematischen Grundlagen. FlowNet (2015) brachte Deep Learning. RAFT (2020) setzte neue State-of-the-Art-Genauigkeit mit recurrent Architecture.
Abgrenzung & Vergleiche
Optischer Fluss vs. Object Tracking
Optical Flow berechnet dichte Pixelbewegungen. Object Tracking verfolgt spezifische Objekte über Frames (sparser, aber semantisch).
Optischer Fluss vs. Depth Estimation
Optical Flow erfasst 2D-Bewegung über Zeit. Depth Estimation schätzt 3D-Entfernung in einem einzelnen Frame.