Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Technologie
    (SLAM (Simultaneous Localization and Mapping))

    SLAM

    Auch bekannt als:
    Simultane Lokalisierung und Kartierung
    Visual SLAM
    VSLAM
    Aktualisiert: 10.2.2026

    Ein Algorithmus, der es einem Roboter oder Fahrzeug ermöglicht, gleichzeitig seine Position zu bestimmen und eine Karte der Umgebung zu erstellen.

    Kurz erklärt

    SLAM ermöglicht Robotern, sich gleichzeitig zu lokalisieren und ihre Umgebung zu kartieren – die Grundlage für AR, autonome Fahrzeuge und Drohnen.

    Erklärung

    SLAM löst das Henne-Ei-Problem: Lokalisierung braucht eine Karte, Kartierung braucht eine Position. Visual SLAM nutzt Kameras, LiDAR-SLAM nutzt Laserscanner. Moderne Ansätze kombinieren beides mit Deep Learning.

    Relevanz für Marketing

    Grundlegende Technologie für autonome Roboter, selbstfahrende Autos, AR (ARKit/ARCore) und Drohnen. Jedes autonome System braucht eine Form von SLAM.

    Häufige Fallstricke

    Loop Closure bei großen Umgebungen, Drift über lange Strecken, dynamische Objekte stören Kartierung, Rechenintensität in Echtzeit.

    Entstehung & Geschichte

    Smith, Self & Cheeseman formulierten SLAM 1986. MonoSLAM (2007) zeigte Echtzeit-Visual-SLAM. ORB-SLAM (2015) wurde zum Standard. Apple ARKit und Google ARCore (2017) brachten SLAM auf jedes Smartphone.

    Abgrenzung & Vergleiche

    SLAM vs. GPS/GNSS

    GPS liefert absolute Position mit Meter-Genauigkeit im Freien; SLAM arbeitet relativ und funktioniert auch indoor ohne Satellitenempfang.

    SLAM vs. Odometry

    Odometrie schätzt Bewegung aus Sensorik, driftet aber über Zeit; SLAM korrigiert Drift durch Umgebungserkennung und Loop Closure.

    Weiterführende Ressourcen

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!