LLM Security
Das Feld der Sicherheitsforschung und -praktiken speziell für Large Language Models und generative KI.
LLM Security behandelt Sicherheitsrisiken für Sprachmodelle: Prompt Injection, Jailbreaking, Data Leakage, Model Extraction. OWASP LLM Top 10 ist der Referenz-Standard.
Erklärung
LLM Security umfasst: Prompt Injection, Jailbreaking, Data Leakage, Model Extraction, Training Data Poisoning. Unterscheidet sich von klassischer Software-Security durch natürliche Sprache als Angriffsfläche.
Relevanz für Marketing
Jede Production-AI braucht Security-Konzept: Welche Daten sind im Context? Welche Aktionen kann die AI ausführen? Was passiert bei Manipulation?
Beispiel
OWASP LLM Top 10 dokumentiert: Prompt Injection (#1), Insecure Output Handling (#2), Training Data Poisoning (#3), Model Denial of Service (#4)...
Häufige Fallstricke
Klassische Security-Teams verstehen LLM-Risiken oft nicht. Neue Angriffsvektoren entstehen schneller als Defenses. Balance zwischen Sicherheit und Usability.
Entstehung & Geschichte
LLM Security entstand als Feld 2022 mit ChatGPT. Simon Willison prägte "Prompt Injection". OWASP veröffentlichte LLM Top 10 (2023). Security-Konferenzen haben nun dedizierte AI-Tracks.
Abgrenzung & Vergleiche
LLM Security vs. AI Safety
AI Safety fokussiert auf Alignment und langfristige Risiken; LLM Security auf konkrete Angriffe und Defenses heute.
LLM Security vs. Application Security
AppSec behandelt Code-Vulnerabilities; LLM Security behandelt natürliche Sprache als Angriffsfläche.