Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz
    (Surrogate Model)

    Surrogatmodell

    Aktualisiert: 10.2.2026

    Ein einfaches, interpretierbares Modell, das ein komplexes Black-Box-Modell approximiert um dessen Entscheidungen zu erklären.

    Kurz erklärt

    Surrogatmodelle erklären Black-Box-KI durch Training eines einfachen, interpretierbaren Modells auf den Vorhersagen des komplexen Modells.

    Erklärung

    Surrogatmodelle trainieren ein interpretables Modell (z.B. Entscheidungsbaum) auf den Vorhersagen des Black-Box-Modells. LIME nutzt lokale Surrogate, globale Surrogate approximieren das gesamte Modell.

    Relevanz für Marketing

    Surrogatmodelle sind die Basis von LIME und ermöglichen Erklärbarkeit ohne Zugang zu Modell-Internals.

    Häufige Fallstricke

    Surrogat approximiert nur – kann das Black-Box-Modell nicht perfekt abbilden. Treue (Fidelity) muss gemessen werden.

    Entstehung & Geschichte

    Das Konzept stammt aus der Simulationsoptimierung der 1970er. Ribeiro et al. nutzten 2016 lokale Surrogatmodelle in LIME. Globale Surrogate wurden in der XAI-Forschung als Alternative zu SHAP populär.

    Abgrenzung & Vergleiche

    Surrogatmodell vs. SHAP

    SHAP berechnet exakte Feature-Beiträge mit Shapley-Werten; Surrogatmodelle approximieren das Verhalten mit einem einfachen Modell.

    Surrogatmodell vs. Distillation

    Knowledge Distillation trainiert ein Modell zur Vorhersage; Surrogatmodelle werden zur Erklärung trainiert.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!