Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    Model Extraction

    Auch bekannt als:
    Modell-Extraktion
    Model Stealing
    Model Theft
    Model Cloning
    Aktualisiert: 9.2.2026

    Angriffe, die versuchen, ein proprietäres ML-Modell durch systematische Queries zu rekonstruieren oder zu klonen.

    Kurz erklärt

    Model Extraction klont proprietäre AI-Modelle durch systematische API-Queries. Milliarden Dollar R&D können gestohlen werden. Rate-Limiting und Query-Monitoring sind essentiell.

    Erklärung

    Angreifer sendet viele Queries an API, sammelt Input-Output-Paare, trainiert "Surrogate Model". Funktioniert bei MLaaS, kann Milliarden Dollar R&D-Investment stehlen. Defenses: Rate-Limiting, Query-Monitoring, Output-Perturbation.

    Relevanz für Marketing

    Wer Custom-AI-Modelle über APIs anbietet, riskiert Model Extraction. Kompetitoren könnten proprietäre Insights stehlen.

    Beispiel

    Ein Wettbewerber sendet 1 Million Queries an ein Produkt-Empfehlungs-API, trainiert damit eigenes Modell – spart Jahre Entwicklung und Datensammlung.

    Häufige Fallstricke

    Schwer zu erkennen vs. legitime Nutzung. Rate-Limiting kann echte Kunden behindern. Rechtliche Lage unklar.

    Entstehung & Geschichte

    Tramèr et al. zeigten 2016 Model Extraction gegen Cloud-ML-APIs. Mit der LLM-Ära wurde es relevant für API-Dienste wie OpenAI. API-Zugangskosten machen Angriffe teurer, aber nicht unmöglich.

    Abgrenzung & Vergleiche

    Model Extraction vs. Data Poisoning

    Model Extraction will Modell stehlen; Data Poisoning will Modell-Verhalten manipulieren.

    Model Extraction vs. Prompt Leaking

    Prompt Leaking extrahiert System-Prompts; Model Extraction will das gesamte Modell-Wissen klonen.

    Verwandte Services

    Verwandte Begriffe

    ai-securityapi-securityintellectual-propertyMLOpsAdversarial Attacks
    👋Fragen? Chatte mit uns!