Pose Estimation
Die Erkennung und Lokalisierung von Körpergelenken und Skelett-Keypoints in Bildern oder Videos.
Pose Estimation erkennt Körpergelenke und Skelette in Bildern – Basis für Fitness-Apps, Sportanalyse, AR/VR und Gestenerkennung.
Erklärung
Pose Estimation erkennt typischerweise 17-25 Keypoints (Augen, Schultern, Ellbogen, Knie etc.) und verbindet sie zu einem Skelett. Top-Down-Ansätze erkennen erst Personen, dann Posen; Bottom-Up erkennt alle Keypoints gleichzeitig.
Relevanz für Marketing
Pose Estimation ist zentral für Fitness-Apps, AR/VR, Sportanalyse, Physiotherapie und Gestenerkennung.
Beispiel
Eine Fitness-App erkennt die Körperhaltung beim Training und gibt Echtzeit-Feedback zur korrekten Übungsausführung.
Häufige Fallstricke
Verdeckungen durch andere Personen oder Objekte. Schwächen bei ungewöhnlichen Posen. Hoher Compute für Multi-Person Echtzeit.
Entstehung & Geschichte
DeepPose (Google, 2014) brachte Deep Learning in Pose Estimation. OpenPose (CMU, 2017) ermöglichte Multi-Person Echtzeit-Erkennung. MediaPipe (Google, 2019) machte Pose Estimation auf Mobilgeräten verfügbar. ViTPose (2022) nutzt Vision Transformer.
Abgrenzung & Vergleiche
Pose Estimation vs. Object Detection
Object Detection findet Bounding Boxes. Pose Estimation findet feinere Skelett-Keypoints innerhalb erkannter Personen.
Pose Estimation vs. Action Recognition
Pose Estimation erkennt die Körperhaltung in einem Frame. Action Recognition klassifiziert Aktivitäten über Zeit-Sequenzen.