SAM (Segment Anything Model)
Ein Foundation Model von Meta für universelle Bildsegmentierung, das jedes Objekt in einem Bild mit Zero-Shot-Fähigkeit segmentieren kann.
SAM (Segment Anything) ist Metas Foundation Model für universelle Segmentierung – segmentiert jedes Objekt Zero-Shot per Klick, Box oder Text-Prompt.
Erklärung
SAM wurde auf über 1 Milliarde Masken trainiert und kann über Punkte, Boxes oder Text als Prompt gesteuert werden. SAM 2 (2024) erweitert dies auf Video.
Relevanz für Marketing
SAM demokratisiert Segmentierung – keine domänenspezifischen Trainingsdaten nötig. Nützlich für kreative Tools, medizinische Bildgebung und Daten-Annotation.
Beispiel
Ein Design-Tool nutzt SAM, um Objekte in Fotos freizustellen – der Nutzer klickt einfach auf das gewünschte Objekt.
Häufige Fallstricke
Hoher Compute-Bedarf für Echtzeit. Schwächen bei abstrakten/texturlosen Regionen. Feinste Kanten manchmal ungenau.
Entstehung & Geschichte
Meta veröffentlichte SAM April 2023 mit dem SA-1B Dataset (1 Milliarde Masken). Es war das erste "Foundation Model" für Segmentierung. SAM 2 (Juli 2024) erweiterte auf Video-Segmentierung mit Memory und Tracking.
Abgrenzung & Vergleiche
SAM (Segment Anything Model) vs. U-Net
U-Net braucht domänenspezifisches Training. SAM ist ein Foundation Model und funktioniert Zero-Shot auf beliebigen Bildern.
SAM (Segment Anything Model) vs. Mask R-CNN
Mask R-CNN erkennt und segmentiert vordefinierte Klassen. SAM segmentiert klassen-agnostisch jedes Objekt.