Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    SAM (Segment Anything Model)

    Auch bekannt als:
    Segment Anything
    SAM 2
    Meta SAM
    Foundation Model für Segmentierung
    Aktualisiert: 10.2.2026

    Ein Foundation Model von Meta für universelle Bildsegmentierung, das jedes Objekt in einem Bild mit Zero-Shot-Fähigkeit segmentieren kann.

    Kurz erklärt

    SAM (Segment Anything) ist Metas Foundation Model für universelle Segmentierung – segmentiert jedes Objekt Zero-Shot per Klick, Box oder Text-Prompt.

    Erklärung

    SAM wurde auf über 1 Milliarde Masken trainiert und kann über Punkte, Boxes oder Text als Prompt gesteuert werden. SAM 2 (2024) erweitert dies auf Video.

    Relevanz für Marketing

    SAM demokratisiert Segmentierung – keine domänenspezifischen Trainingsdaten nötig. Nützlich für kreative Tools, medizinische Bildgebung und Daten-Annotation.

    Beispiel

    Ein Design-Tool nutzt SAM, um Objekte in Fotos freizustellen – der Nutzer klickt einfach auf das gewünschte Objekt.

    Häufige Fallstricke

    Hoher Compute-Bedarf für Echtzeit. Schwächen bei abstrakten/texturlosen Regionen. Feinste Kanten manchmal ungenau.

    Entstehung & Geschichte

    Meta veröffentlichte SAM April 2023 mit dem SA-1B Dataset (1 Milliarde Masken). Es war das erste "Foundation Model" für Segmentierung. SAM 2 (Juli 2024) erweiterte auf Video-Segmentierung mit Memory und Tracking.

    Abgrenzung & Vergleiche

    SAM (Segment Anything Model) vs. U-Net

    U-Net braucht domänenspezifisches Training. SAM ist ein Foundation Model und funktioniert Zero-Shot auf beliebigen Bildern.

    SAM (Segment Anything Model) vs. Mask R-CNN

    Mask R-CNN erkennt und segmentiert vordefinierte Klassen. SAM segmentiert klassen-agnostisch jedes Objekt.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!