Model Extraction
Angriffe, die versuchen, ein proprietäres ML-Modell durch systematische Queries zu rekonstruieren oder zu klonen.
Model Extraction klont proprietäre AI-Modelle durch systematische API-Queries. Milliarden Dollar R&D können gestohlen werden. Rate-Limiting und Query-Monitoring sind essentiell.
Erklärung
Angreifer sendet viele Queries an API, sammelt Input-Output-Paare, trainiert "Surrogate Model". Funktioniert bei MLaaS, kann Milliarden Dollar R&D-Investment stehlen. Defenses: Rate-Limiting, Query-Monitoring, Output-Perturbation.
Relevanz für Marketing
Wer Custom-AI-Modelle über APIs anbietet, riskiert Model Extraction. Kompetitoren könnten proprietäre Insights stehlen.
Beispiel
Ein Wettbewerber sendet 1 Million Queries an ein Produkt-Empfehlungs-API, trainiert damit eigenes Modell – spart Jahre Entwicklung und Datensammlung.
Häufige Fallstricke
Schwer zu erkennen vs. legitime Nutzung. Rate-Limiting kann echte Kunden behindern. Rechtliche Lage unklar.
Entstehung & Geschichte
Tramèr et al. zeigten 2016 Model Extraction gegen Cloud-ML-APIs. Mit der LLM-Ära wurde es relevant für API-Dienste wie OpenAI. API-Zugangskosten machen Angriffe teurer, aber nicht unmöglich.
Abgrenzung & Vergleiche
Model Extraction vs. Data Poisoning
Model Extraction will Modell stehlen; Data Poisoning will Modell-Verhalten manipulieren.
Model Extraction vs. Prompt Leaking
Prompt Leaking extrahiert System-Prompts; Model Extraction will das gesamte Modell-Wissen klonen.