Machine Unlearning
Techniken, um den Einfluss spezifischer Trainingsdaten aus einem ML-Modell zu entfernen, ohne das gesamte Modell neu zu trainieren.
Machine Unlearning entfernt den Einfluss spezifischer Daten aus trainierten Modellen – essentiell für DSGVO-Compliance (Recht auf Löschung).
Erklärung
Exaktes Unlearning trainiert von Grund auf neu (teuer). Approximatives Unlearning nutzt Gradient-basierte Methoden, SISA Training oder Influence Functions, um den Einfluss einzelner Datenpunkte effizient zu entfernen.
Relevanz für Marketing
DSGVO Art. 17 (Recht auf Löschung) erfordert nicht nur Daten-Löschung, sondern auch Entfernung aus trainierten Modellen – Machine Unlearning macht das praktikabel.
Beispiel
Ein Nutzer fordert Datenlöschung nach DSGVO. Das Unternehmen löscht seine Daten UND entfernt deren Einfluss aus dem Empfehlungsmodell mittels SISA Training.
Häufige Fallstricke
Verifizierung von Unlearning ist schwierig. Approximatives Unlearning bietet keine perfekten Garantien. Bei LLMs ist Unlearning besonders herausfordernd.
Entstehung & Geschichte
Cao & Yang (2015) formalisierten Machine Unlearning. SISA Training (Bourtoule et al., 2021) machte es praktikabel. Google's Machine Unlearning Challenge (2023) trieb die Forschung voran. LLM-Unlearning ist aktives Forschungsfeld.
Abgrenzung & Vergleiche
Machine Unlearning vs. Differential Privacy
DP verhindert von Anfang an, dass individuelle Daten identifizierbar sind; Unlearning entfernt Daten nachträglich aus dem Modell.
Machine Unlearning vs. Data Deletion
Data Deletion löscht Rohdaten; Unlearning entfernt zusätzlich den gelernten Einfluss dieser Daten aus dem Modell.