KI-Begriffe A-Z
Entdecken Sie die wichtigsten Begriffe der Künstlichen Intelligenz – von Machine Learning über Deep Learning bis hin zu Large Language Models. Jeder Begriff wird verständlich erklärt und mit praktischen Beispielen aus dem Marketing illustriert.
A
A*-Suche (A-Star Search)
A* (sprich: "A-Stern") ist ein klassischer Suchalgorithmus, der den kürzesten Pfad zwischen einem Start- und Zielknoten in einem Graphen findet, indem er pro Knoten die Gesamtkosten f(n) = g(n) + h(n) minimiert — die Summe aus tatsächlichen Pfadkosten und einer geschätzten Restdistanz (Heuristik).
Abductive Logic Programming (ALP)
Ein Framework in der logischen Programmierung, das bestimmte Prämissen unspezifiziert lässt und plausible Erklärungen für Beobachtungen ableitet.
Abduktives Schlussfolgern
Eine Form der logischen Schlussfolgerung, die von einer Beobachtung ausgeht und die einfachste und wahrscheinlichste Erklärung dafür sucht.
Ablation
In der KI-Forschung bezeichnet Ablation das Entfernen oder Deaktivieren einer Komponente eines Systems, um deren Auswirkung auf die Gesamtleistung zu bewerten.
Active Learning
ML-Strategie, bei der das Modell die informativsten Samples zum Labeln auswählt.
Adam Optimizer
Adaptiver Optimierungsalgorithmus mit Momentum und adaptiven Lernraten.
Adaptiver Algorithmus
Ein Algorithmus, der sein Verhalten oder seine Parameter als Reaktion auf die Probleminstanz oder Umgebung während der Ausführung ändert.
Adaptives Lernen
Eine Bildungsmethodik (oft mit KI implementiert), die Lerninhalte und -tempo an die individuellen Bedürfnisse und Leistungen jedes Lernenden anpasst.
Adaptives Neuro-Fuzzy-Inferenzsystem (ANFIS)
Ein hybrides System, das neuronale Netze und Fuzzy-Logik kombiniert, um aus Daten zu lernen und dabei menschenähnliches Reasoning anzuwenden.
Admissible Heuristik (Admissible Heuristic)
Eine Heuristik h(n) heißt admissible (zulässig), wenn sie die tatsächlichen Restkosten vom Knoten n bis zum Ziel niemals überschätzt — sie liefert also stets eine optimistische untere Schranke. Diese Eigenschaft garantiert, dass Suchalgorithmen wie A* einen optimalen Pfad finden.
AgentBench
Ein Benchmark zur Bewertung von LLM-Agenten in 8 verschiedenen interaktiven Umgebungen wie Webseiten, Datenbanken, Spielen und Operating Systems.
Agenten-Architektur
Die zugrunde liegende Struktur und Komponenten eines intelligenten Agentensystems, die beschreibt, wie der Agent intern organisiert ist.
Agentic AI
KI-Systeme, die autonom Ziele verfolgen, Entscheidungen treffen und Aktionen in der realen Welt ausführen können.
Agentic RAG
Agentic RAG ist eine Weiterentwicklung von Retrieval-Augmented Generation, bei der ein KI-Agent dynamisch entscheidet, wann, welche und wie viele Quellen er abfragt — anstatt einer starren Retrieval-Pipeline mit fester Top-k-Vektorsuche zu folgen.
AI Agent (KI-Agent)
Ein autonomes Software-System, das KI nutzt, um Aufgaben selbstständig zu planen und auszuführen.
AI Slop
Abwertender Begriff für minderwertige, massenhaft produzierte KI-generierte Inhalte, die das Internet überschwemmen und keinen echten Mehrwert bieten.
AI Watermarking
Techniken zum Einbetten unsichtbarer Markierungen in KI-generierte Inhalte, um deren Herkunft nachweisen und Deepfakes erkennen zu können.
Aider Polyglot Benchmark
Coding-Benchmark, der LLMs auf realen Multi-File-Edits in mehreren Programmiersprachen testet.
Aktionsauswahl
Der Prozess, durch den ein intelligenter Agent entscheidet, welche Aktion als nächstes ausgeführt werden soll.
Aktionsmodell-Lernen
Ein Machine-Learning-Ansatz, der einem KI-Agenten ermöglicht, die Ergebnisse und Anforderungen seiner Aktionen in einer Umgebung zu lernen.
Aktionssprache
Eine formale Sprache zur Beschreibung von Zustandsänderungen in einem System – wie Aktionen den Zustand der Welt über die Zeit beeinflussen.
Aktivierungsfunktion
Eine mathematische Funktion in neuronalen Netzen, die den Output eines Neurons basierend auf seinen Inputs bestimmt.
Algorithmische Effizienz (Algorithmic Efficiency)
Algorithmische Effizienz misst, wie sparsam ein Algorithmus mit Rechenzeit, Speicher und Energie umgeht – typischerweise ausgedrückt in Big-O-Notation für Skalierungsverhalten.
Algorithmische Wahrscheinlichkeit
Ein theoretisches Maß, das einer Beobachtung eine Wahrscheinlichkeit zuweist, basierend auf allen möglichen Algorithmen, die diese Beobachtung erzeugen könnten.
Alpha-Beta Pruning
Eine Optimierungstechnik für den Minimax-Algorithmus, die Teile des Spielbaums abschneidet, ohne das Ergebnis zu ändern.
Ameisenkolonie-Optimierung
Eine probabilistische Optimierungstechnik, inspiriert vom Verhalten von Ameisen bei der Futtersuche und ihrer Nutzung von Pheromonspuren.
Anytime-Algorithmus (Anytime Algorithm)
Ein Anytime-Algorithmus ist ein Algorithmus, der nach jeder Zwischenstufe eine valide, wenn auch noch nicht optimale, Lösung zurückliefern kann — und mit zusätzlicher Rechenzeit die Lösungsqualität monoton verbessert.
Approximationsfehler
Die Differenz zwischen einem exakten, wahren Wert und einem approximativen Wert, der von einem Algorithmus oder Modell verwendet oder erhalten wird.
ARC (AI2 Reasoning Challenge)
Ein Multiple-Choice-Benchmark mit Naturwissenschafts-Fragen auf Grundschul- und Mittelstufenniveau in Easy und Challenge Sets.
ARC-AGI-2
Benchmark der ARC Prize Foundation, der die generelle Reasoning-Fähigkeit von KI-Systemen anhand abstrakter Muster misst.
Assessment
Assessment ist die Messung von Wissen, Skills oder Performance – verwendet um aktuelle Fähigkeiten zu diagnostizieren, Feedback zu geben und Lernergebnisse zu zertifizieren.
Attention Mechanism
Neuronales Netzwerk-Modul, das relevante Teile der Eingabe gewichtet.
Attributioneller Kalkül
Ein logisches Framework, das Prädikatenlogik mit mehrwertiger (Fuzzy-)Logik kombiniert, um Attribute von Entitäten lesbar darzustellen.
Audio Generation
Die Erzeugung von Audio-Inhalten durch KI-Modelle – von Musik über Soundeffekte bis hin zu Sprache und Ambient-Sounds.
Autoencoder
Ein neuronales Netzwerk, das eine komprimierte Repräsentation (Encoding) von Eingabedaten lernt und die Originaldaten daraus rekonstruiert.
Automatisiertes Machine Learning (AutoML)
Der Prozess der Automatisierung des End-to-End-Prozesses der Anwendung von Machine Learning, einschließlich Datenvorverarbeitung, Modellauswahl und Hyperparameter-Tuning.
Automatisiertes Planen (Automated Planning)
Automatisiertes Planen ist das KI-Teilgebiet, das Algorithmen entwickelt, um aus einem Startzustand, einem Zielzustand und einer Menge möglicher Aktionen automatisch eine Sequenz von Aktionen (einen Plan) zu finden, die das Ziel erreicht.
AutoML
AutoML automatisiert Teile des Machine-Learning-Lifecycles wie Modellselektion, Feature-Preprocessing, Hyperparameter-Tuning und Validierung.
B
Backpropagation
Ein Algorithmus zur Berechnung von Gradienten in neuronalen Netzen, der die Fehler rückwärts durch das Netz propagiert, um Gewichte anzupassen.
Backtracking
Eine algorithmische Technik, die systematisch alle möglichen Lösungen durchsucht und bei Sackgassen zum letzten Entscheidungspunkt zurückkehrt.
Bagging
Ein Ensemble-Lernverfahren, das mehrere Modelle auf Bootstrap-Samples trainiert und deren Vorhersagen aggregiert.
Batch Size
Anzahl der Trainingsbeispiele pro Gradient-Update.
Batch-Normalisierung
Eine Technik zur Normalisierung der Eingaben jeder Schicht eines neuronalen Netzes über einen Mini-Batch, um das Training zu stabilisieren.
Bayessche Optimierung
Bayessche Optimierung ist ein Ansatz zur Optimierung teurer Black-Box-Funktionen (z.B. Modell-Hyperparameter) mittels eines probabilistischen Surrogatmodells und einer Acquisition-Funktion.
Beam Search
Beam Search ist ein heuristischer Suchalgorithmus, der pro Suchschritt nur die k besten Teil-Lösungen ("Beam Width") weiterverfolgt — ein Kompromiss zwischen erschöpfender Breitensuche (hohe Qualität, hoher Aufwand) und Greedy-Suche (niedrige Qualität, niedriger Aufwand).
BERT
BERT (Bidirectional Encoder Representations from Transformers) ist ein von Google entwickeltes Sprachmodell, das Text bidirektional verarbeitet und tiefes Kontextverständnis ermöglicht.
BERT (Google)
Googles Transformer-Modell für bidirektionales Sprachverständnis.
BERTScore
Eine semantische Evaluationsmetrik, die BERT-Embeddings nutzt, um Ähnlichkeit zwischen generiertem und Referenztext zu messen.
BGE Embedding
BGE (BAAI General Embedding) ist eine Familie von Open-Source-Embedding-Modellen der Beijing Academy of AI, die Top-Ergebnisse auf MTEB erreichen.
Bi-Encoder
Eine Encoder-Architektur, die Query und Dokument unabhängig voneinander in Embeddings transformiert – ermöglicht schnelle Ähnlichkeitssuche über vorberechnete Vektoren.
Bias (KI-Bias)
Systematische Verzerrungen in KI-Systemen, die zu unfairen oder ungenauen Ergebnissen für bestimmte Gruppen führen können.
Bias-Varianz-Tradeoff
Fundamentales ML-Dilemma zwischen Underfitting (High Bias) und Overfitting (High Variance).
BIG-Bench
Ein kollaborativer Benchmark mit 200+ Tasks, erstellt von 400+ Forschern, um LLM-Fähigkeiten jenseits existierender Benchmarks zu testen.
Bildgenerierung
Image Generation ist die automatische Erstellung von Bildern durch KI-Modelle basierend auf Text-Prompts, anderen Bildern oder anderen Inputs.
Bildsegmentierung
Die Aufteilung eines Bildes in bedeutungsvolle Regionen oder Objekte auf Pixelebene.
BLEU Score
Metrik zur automatischen Bewertung von Übersetzungsqualität.
Boosting
Ein Ensemble-Lernverfahren, das schwache Lerner sequenziell kombiniert, um einen starken Klassifikator zu erstellen.
Breitensuche (BFS)
Breitensuche (BFS) durchläuft einen Graphen Ebene für Ebene und erkundet alle Nachbarn eines Knotens, bevor sie tiefer geht.
C
Chatbot
Ein Softwareprogramm, das Konversationen mit Menschen simuliert, typischerweise über Text- oder Sprachschnittstellen.
Chatbot Arena
Ein öffentliches Elo-basiertes Leaderboard, bei dem User blind zwischen zwei LLMs wählen – der wichtigste Benchmark für LLM-Ranking.
ChatGPT
Ein konversationelles KI-System, das auf großen Sprachmodellen basiert und menschenähnliche Antworten auf Benutzeranfragen generiert.
ChatGPT Agent
Autonomer Modus von ChatGPT, der mehrstufige Aufgaben im Browser, in Apps und in Dateien selbstständig ausführt.
Chinchilla Optimal
Die Erkenntnis, dass für compute-optimales LLM-Training die Anzahl der Trainings-Tokens proportional zur Parameterzahl skalieren sollte.
Claude Computer Use
Fähigkeit von Claude, einen Desktop-Computer zu bedienen: Maus, Tastatur, Screenshots und Anwendungen wie ein menschlicher Nutzer.
Claude Cowork
Kollaborativer Multi-User-Modus von Claude für gemeinsame Projektarbeit mit geteiltem Kontext und Rollenverteilung.
Claude Design
Visueller Design-Modus von Claude für UI-Mockups, Brand-Asset-Generierung und Layout-Iteration über natürliche Sprache.
Claude Opus 4.6
Anthropics Flaggschiff-LLM 2026 mit erweitertem Reasoning, 1M-Token-Kontext und nativen Computer-Use-Fähigkeiten.
Claude Skills
Modulares System von Anthropic, das wiederverwendbare Fähigkeiten (Prompt + Tools + Daten) für Claude bündelt.
CLIP (Contrastive Language–Image Pretraining)
Ein multimodaler Modellansatz, der abgestimmte Repräsentationen von Bildern und Text lernt durch Training auf passenden Bild-Text-Paaren.
Clustering
Eine unüberwachte Lerntechnik, die Datenpunkte so in Gruppen (Cluster) einteilt, dass Elemente im selben Cluster ähnlicher zueinander sind.
Codex 5.3
OpenAIs spezialisiertes Coding-Modell 2026 für agentische Software-Entwicklung und Long-Running-Tasks in Repositories.
Cohere Embed
Coheres kommerzielle Embedding-API mit spezieller Optimierung für Retrieval und Unterscheidung zwischen Query- und Document-Embeddings.
ColBERT
ColBERT ist eine Late-Interaction-Retrieval-Architektur, die Token-Level-Embeddings für Query und Dokument erstellt und erst bei der Suche durch MaxSim aggregiert.
Cold-Start-Problem
Das Problem, wenn ein System unzureichende Daten über einen neuen Nutzer, ein neues Item oder einen neuen Kontext hat.
Computer Vision
Das KI-Teilgebiet, das Computern das Verstehen und Interpretieren visueller Informationen ermöglicht.
Content-Based Filtering
Empfehlungen basierend auf Eigenschaften von Items, die ein Nutzer mochte.
Context Engineering
Die Praxis des Designs, der Auswahl und Strukturierung der Informationen, die ein LLM erhält, um zuverlässigere und relevantere Outputs zu erzeugen.
Context Window
Der Teil des Textes (Tokens), den ein LLM nutzt, um seinen nächsten Output zu generieren, typischerweise bestehend aus Anweisungen und Konversationshistorie.
Contextual Bandit
Ein Entscheidungsalgorithmus, der unter Nutzung aktueller Kontextmerkmale zwischen Aktionen wählt, während er aus Feedback lernt.
Contrastive Learning
Ein Ansatz zum Repräsentationslernen, der Modelle trainiert, ähnliche Paare näher zusammen und unähnliche Paare weiter auseinander im Embedding-Raum zu platzieren.
Convolutional Neural Network (CNN)
Eine neuronale Netzwerkarchitektur, die Faltungsoperationen nutzt, um hierarchische Feature-Repräsentationen aus Bildern zu lernen.
Cross-Encoder
Eine Encoder-Architektur, die Query und Dokument gemeinsam verarbeitet und einen Relevanz-Score ausgibt – präziser als Bi-Encoder, aber langsamer.
Cross-Entropy Loss
Verlustfunktion für Klassifikationsaufgaben basierend auf Informationstheorie.
Curriculum Learning
Trainingsstrategie, bei der Samples in einer sinnvollen Reihenfolge präsentiert werden – von einfach zu schwer, ähnlich wie ein Lehrplan.
Custom GPT
Auf einen spezifischen Use Case zugeschnittener GPT mit eigenem Prompt, Wissensbasis und Tool-Set, gehostet bei OpenAI.
D
Datenerweiterung
Techniken zur künstlichen Erweiterung von Trainingsdaten durch Transformationen.
Decoder
Der Teil eines Modells, der eine komprimierte Repräsentation zurück in das ursprüngliche Format transformiert.
Decoding-Strategie
Die Methode, die verwendet wird, um die Token-Wahrscheinlichkeitsverteilung eines Modells in eine tatsächliche Ausgabesequenz umzuwandeln.
Deduktives Schlussfolgern
Eine Form der logischen Schlussfolgerung, bei der aus allgemeinen Prämissen spezifische Schlüsse gezogen werden – wenn die Prämissen wahr sind, ist die Konklusion garantiert wahr.
Deep Learning
Ein Teilgebiet des maschinellen Lernens, das tiefe neuronale Netze mit vielen Schichten nutzt, um komplexe Muster aus Daten zu lernen.
Deep Reinforcement Learning
Reinforcement Learning, das tiefe neuronale Netze verwendet, um Policies zu lernen, die Aktionen zur Maximierung langfristiger Belohnungen wählen.
DeepSeek
Chinesisches KI-Startup, das leistungsstarke Open-Source Sprachmodelle entwickelt und mit deutlich geringeren Kosten mit westlichen Anbietern konkurriert.
DeepSeek R1
Ein Open-Source Reasoning-Modell von DeepSeek, das bei komplexen Denk- und Coding-Aufgaben mit GPT-4 und Claude konkurriert.
DeepSeek V4
Open-Weight-Flaggschiff von DeepSeek, das mit 1/10 der Trainingskosten westlicher Modelle vergleichbare Benchmarks erreicht.
DeepWalk
Ein Graph-Embedding-Algorithmus, der Random Walks auf Graphen mit Word2Vec kombiniert, um Knotenrepräsentationen zu lernen.
Default Reasoning
Default Reasoning zieht Schlüsse unter Verwendung von 'Defaults', die in typischen Fällen gelten, während Ausnahmen bei neuen Informationen erlaubt sind.
Dekodierung
Der Prozess der Umwandlung kodierter Daten oder Signale zurück in ihre ursprüngliche oder nutzbare Form, in ML speziell die Token-für-Token-Generierung von Ausgaben.
Denoising
Denoising ist der Prozess der Rauschentfernung aus einem Signal; in Diffusions-Modellen ist es die iterative Transformation von verrauschten Latents zu einem sauberen Sample.
Dense Passage Retrieval (DPR)
Ein Retrieval-Ansatz, der Bi-Encoder-Embeddings für Query und Passagen nutzt – die Grundlage moderner semantischer Suche.
Dense Retrieval
Retrieval-Methode, die dichte Vektorrepräsentationen (Embeddings) nutzt, um semantisch ähnliche Dokumente zu finden.
Dialogue Management
Komponente eines Conversational AI-Systems, die den Gesprächsfluss steuert.
Diffusion Model
Diffusion Models sind generative KI-Modelle, die lernen, Rauschen schrittweise aus Daten zu entfernen, um hochwertige Samples (Bilder, Audio, Video) zu erzeugen.
Disclosure UX
Disclosure UX ist die Menge an Interface-Patterns, die wichtige Systemfakten transparent an Benutzer kommunizieren (z.B. KI-Beteiligung, Limitationen, Datennutzung, Konfidenz und Provenance).
Diskriminierung in KI (Algorithmic Discrimination)
Diskriminierung in KI bezeichnet die systematische Benachteiligung bestimmter Personengruppen durch algorithmische Entscheidungssysteme – häufig als Folge verzerrter Trainingsdaten oder unausgewogener Modellarchitekturen.
DPO (Direct Preference Optimization)
Eine vereinfachte Alternative zu RLHF, die Modelle direkt auf Präferenz-Daten optimiert, ohne separates Reward Model oder RL-Training.
DROP
Ein Reading-Comprehension-Benchmark, der numerisches Reasoning über Textpassagen erfordert (Zählen, Sortieren, Arithmetik).
Dropout
Eine Regularisierungstechnik, die zufällig Neuronen während des Trainings deaktiviert.
E
E5 Embedding
E5 ist eine Familie von Embedding-Modellen von Microsoft Research, die durch Text-to-Text-Contrastive-Training erstellt werden.
Early Stopping
Regularisierungstechnik, die Training beendet wenn Validation-Loss steigt.
Elo Rating
Ein Bewertungssystem zur Messung relativer Fähigkeiten, ursprünglich aus dem Schach – jetzt Standard für LLM-Leaderboards.
Embedding
Ein Embedding ist eine dichte Vektor-Repräsentation diskreter Daten (Wörter, Bilder, Nutzer, Produkte), bei der semantisch ähnliche Objekte im Vektorraum nahe beieinander liegen.
Embeddings
Vektorrepräsentationen von Daten (Wörter, Sätze, Bilder) in einem niedrigdimensionalen Raum, die semantische Ähnlichkeit erfassen.
Emergent Abilities
Fähigkeiten, die bei LLMs erst ab einer bestimmten Modellgröße plötzlich erscheinen, ohne bei kleineren Modellen beobachtbar zu sein.
Encoder
Der Teil eines Modells, der Eingabedaten in eine komprimierte Repräsentation transformiert.
Encoder-Decoder
Architektur, die Eingabe in eine Repräsentation kodiert und daraus Ausgabe dekodiert.
Ensemble Learning
Die Kombination mehrerer Modelle, um bessere Vorhersagen zu erzielen als jedes einzelne Modell allein.
Entity Extraction
Die automatische Identifizierung und Klassifizierung benannter Entitäten in Text.
Entscheidungsbaum
Ein ML-Modell, das Entscheidungen als Baumstruktur mit Verzweigungen basierend auf Feature-Werten darstellt.
Entscheidungsfindung
Entscheidungsfindung ist der Prozess der Auswahl einer Aktion (oder Nicht-Aktion) unter Alternativen basierend auf Zielen, Evidenz, Einschränkungen und Unsicherheit.
Entscheidungstheorie
Die Entscheidungstheorie untersucht, wie Agenten unter Unsicherheit Entscheidungen treffen sollten, oft durch Maximierung des erwarteten Nutzens unter Constraints.
Epoche (Epoch) im Machine Learning
Eine Epoche bezeichnet im Machine Learning einen vollständigen Durchlauf eines Lernalgorithmus durch den gesamten Trainingsdatensatz — also die Situation, in der jedes Trainingsbeispiel genau einmal verwendet wurde, um die Modellgewichte zu aktualisieren.
Erklärbare KI (XAI)
Erklärbare KI (XAI) umfasst Methoden und Produktpraktiken, die KI-Outputs verständlich, nachvollziehbar und auditierbar machen.
Erklärbarkeit
Die Fähigkeit, die Entscheidungen oder Vorhersagen eines KI-Modells für Menschen verständlich zu machen.
Evaluation Harness
Ein Framework zur systematischen Bewertung von Modell-Performance über verschiedene Metriken und Testfälle.
Explainability UX Patterns
Explainability UX Patterns sind Interface-Muster, die Benutzern helfen zu verstehen, warum ein KI-System ein Ergebnis erzeugt hat, welche Evidenz es verwendet hat und welche Aktionen es durchgeführt (oder verweigert) hat.
Explainable AI (XAI)
KI-Systeme, deren Entscheidungsprozesse für Menschen nachvollziehbar und interpretierbar sind.
F
Faithfulness
Wie genau ein LLM-Output den bereitgestellten Quellen und Instruktionen entspricht.
Feature Extraction
Der Prozess der automatischen Ableitung relevanter Merkmale aus Rohdaten.
Federated Learning
Ein ML-Ansatz, bei dem Modelle dezentral auf lokalen Daten trainiert werden, ohne Rohdaten zu teilen.
Feedback-Loop
Ein System, in dem Outputs zurückgeführt werden, um zukünftige Inputs oder Entscheidungen zu beeinflussen.
Fehleranalyse
Systematische Untersuchung von Modellfehlern zur Identifizierung von Mustern und Verbesserungsmöglichkeiten.
Few-Shot Learning
Die Fähigkeit eines Modells, aus sehr wenigen Beispielen zu lernen und zu generalisieren.
Fine-Tuning
Das Anpassen eines vortrainierten Modells an eine spezifische Aufgabe durch weiteres Training auf aufgabenspezifischen Daten.
Flash Attention
Eine speichereffiziente Implementierung des Attention-Mechanismus für Transformer.
Forward Pass
Die Berechnung des Modell-Outputs durch Vorwärtspropagation durch alle Schichten.
Foundation Model
Ein großes, auf breiten Daten vortrainiertes Modell, das für viele nachgelagerte Aufgaben angepasst werden kann.
Function Calling
Die Fähigkeit eines LLM, strukturierte Aufrufe an externe Tools oder APIs zu generieren.
Fuzzy Inferenz System
Ein Fuzzy Inferenz System verwendet Fuzzy-Logik-Regeln, um Eingaben auf Ausgaben abzubilden, wenn Konzepte unscharf sind (z.B. "hohes Risiko", "mittlere Nachfrage").
G
G-Eval
Ein LLM-Evaluation-Framework, das Chain-of-Thought-Reasoning und gewichtete Wahrscheinlichkeiten für nuanciertere Bewertungen nutzt.
Gaussian Mixture Model (GMM)
Ein probabilistisches Modell, das Daten als Mischung von Gauß-Verteilungen darstellt.
Gemeinsame Verteilung
Die Wahrscheinlichkeitsverteilung, die die Wahrscheinlichkeit von Kombinationen mehrerer Zufallsvariablen beschreibt.
Gemini 3.1 Pro
Googles Flaggschiff-LLM 2026 mit nativ multimodaler Architektur und 2M-Token-Kontext.
Gemma 4
Open-Weight-Modellfamilie von Google für On-Device- und Edge-Inferenz mit Größen von 2B bis 27B Parametern.
Generalisierung
Die Fähigkeit eines Modells, auf neuen, ungesehenen Daten gut zu performen.
Generative Adversarial Network (GAN)
Architektur mit zwei konkurrierenden Netzwerken zur Generierung realistischer Daten.
Generative AI
KI-Modelle, die neue Inhalte erstellen – Text, Bilder, Audio, Code oder strukturierte Daten.
GloVe
GloVe (Global Vectors for Word Representation) ist ein Worteinbettungsverfahren, das globale Kookkurrenz-Statistiken eines Textkorpus nutzt, um semantische Wortvektoren zu erzeugen.
Governance
Governance ist die Menge an Rollen, Regeln, Prozessen und Kontrollen, die sicherstellen, dass ein System verantwortungsvoll und vorhersehbar genutzt wird – ausgerichtet auf Risiko, Compliance und Geschäftsziele.
GPQA
Ein Benchmark mit 448 Experten-Level-Fragen aus Physik, Biologie und Chemie, die so schwer sind, dass auch PhDs ohne Expertise nur 30% erreichen.
GPQA Diamond
Hochanspruchsvoller Wissenschafts-Benchmark mit Fragen auf Promotionsniveau in Biologie, Physik und Chemie.
GPT (Generative Pre-trained Transformer)
Eine Familie von großen Sprachmodellen von OpenAI, die auf der Transformer-Architektur basieren.
GPT-5.4
OpenAIs Flaggschiff-LLM 2026 mit Thinking-Mode, multimodaler Verarbeitung und Agent-Native-Architektur.
Gradientenabstieg
Ein Optimierungsalgorithmus, der iterativ Parameter in Richtung des steilsten Abstiegs der Verlustfunktion anpasst.
Graph Attention Network
Eine GNN-Architektur, die Attention-Mechanismen nutzt, um die Wichtigkeit von Nachbarknoten adaptiv zu gewichten.
Graph Classification
Die Aufgabe, einen gesamten Graphen einer Klasse zuzuordnen, basierend auf seiner Struktur und Knoteneigenschaften.
Graph Convolutional Network
Eine GNN-Variante, die Faltungsoperationen auf Graphen verallgemeinert, um Knotenrepräsentationen zu lernen.
Graph Isomorphism Network
Ein GNN mit maximaler Diskriminierungskraft unter Message-Passing-Architekturen, theoretisch fundiert durch den Weisfeiler-Leman-Test.
Graph Neural Network
Eine Klasse neuronaler Netze, die direkt auf Graphstrukturen operieren und Knoten-, Kanten- und Grapheigenschaften lernen.
Graph Transformer
Eine Architektur, die Transformer-Attention auf Graphstrukturen anwendet und globale Knoten-Interaktionen ermöglicht.
GraphSAGE
Ein induktives GNN-Framework, das durch Sampling und Aggregation von Nachbarschaften skalierbare Knotenrepräsentationen lernt.
Graphsuche
Graphsuche ist der Prozess des Erkundens eines Graphen, um einen Zielknoten, einen Pfad oder eine optimale Lösung unter einem definierten Ziel (z.B. kürzester Pfad, niedrigste Kosten) zu finden.
Greedy Best-First Search
Eine Suchstrategie, die den Knoten erweitert, der dem Ziel am nächsten erscheint, basierend nur auf einem heuristischen Score h(n), ohne die bisherigen Kosten zu berücksichtigen.
Greedy Decoding
Eine Decoding-Strategie, die immer das Token mit der höchsten Wahrscheinlichkeit wählt – deterministisch, aber oft repetitiv.
Greedy-Algorithmus
Ein Algorithmus, der in jedem Schritt die lokal optimale Wahl trifft.
Ground Truth
Die tatsächlichen, korrekten Daten oder Labels, die als Referenz für Modelltraining und -evaluation dienen.
Grounding
Die Verknüpfung von KI-Outputs mit realen, verifizierbaren Fakten und Quellen.
GRU (Gated Recurrent Unit)
Eine vereinfachte RNN-Architektur mit Gates zur Kontrolle des Informationsflusses.
GSM8K
Ein Benchmark mit 8.500 Grundschul-Matheaufgaben, die mehrstufiges Reasoning erfordern.
Guardrails
Sicherheitsmechanismen, die KI-Systeme daran hindern, schädliche, unangemessene oder fehlerhafte Outputs zu produzieren.
Guidance Scale
Guidance Scale ist ein Parameter (häufig in Classifier-Free Guidance), der kontrolliert, wie stark ein Diffusions-Modell dem Text-Prompt folgt versus diversere Outputs generiert.
H
Halluzination
Wenn ein LLM Informationen generiert, die nicht durch den Input-Kontext oder verlässliche Quellen gestützt sind.
Halluzinationsrate
Der Prozentsatz der KI-generierten Ausgaben, die nicht durch Fakten oder Quellen gestützte Informationen enthalten.
HellaSwag
Ein Benchmark für Common-Sense-Reasoning, bei dem LLMs die plausibelste Fortsetzung eines Szenarios wählen müssen.
HELM
Ein umfassendes Evaluations-Framework von Stanford, das LLMs auf Dutzenden von Dimensionen wie Accuracy, Fairness, Robustness und Efficiency gleichzeitig bewertet.
Heterogener Graph
Ein Graph mit verschiedenen Typen von Knoten und/oder Kanten, der unterschiedliche Entitätsarten und Beziehungen modelliert.
Heuristik
Eine praktische Bewertungsregel oder Schätzung, die Suche oder Entscheidungsfindung zu vielversprechenden Optionen leitet, ohne Optimalität zu garantieren.
Heuristische Suche
Heuristische Suche ist eine Familie von Suchalgorithmen, die eine Heuristik (eine leitende Schätzung) nutzen, um einen Problemraum effizienter zu erkunden als uninformierte Suche.
High-Level Representation
Eine High-Level Representation abstrahiert Rohdaten in bedeutungsvollere Strukturen (Symbole, Konzepte, latente Variablen oder Zusammenfassungen).
HNSW
Hierarchical Navigable Small World – ein Graph-basierter Algorithmus für effiziente Approximate Nearest Neighbor Search.
Human Evaluation
Die Bewertung von KI-Outputs durch menschliche Annotatoren – der Gold-Standard für Qualitätsmessung, aber teuer und langsam.
Human-in-the-Loop
Ein KI-Design-Ansatz, bei dem Menschen aktiv in den Entscheidungs- oder Trainingsprozess eines KI-Systems eingebunden werden.
HumanEval
Ein Benchmark für Code-Generierung mit 164 Python-Programmieraufgaben, evaluiert durch Pass@k (Code muss Tests bestehen).
Hybrid Search
Kombination von Keyword-Retrieval (BM25) mit Vector-Retrieval (Embeddings) für bessere Suchergebnisse.
Hybrides KI-System
Ein hybrides KI-System kombiniert mehrere KI-Paradigmen—typischerweise symbolische/regelbasierte Methoden mit statistischen/ML-Modellen (einschließlich LLMs).
Hyperparameter
Konfigurationseinstellungen, die vor dem Training gewählt werden und beeinflussen, wie ein Modell lernt.
Hyperparameter-Optimierung
Der systematische Prozess der Suche nach den besten Hyperparameter-Einstellungen für ein ML-Modell.
Hypothesengenerierung
Hypothesengenerierung ist das Produzieren von Kandidaten-Erklärungen (oder Kandidaten-Lösungen), die beobachtete Evidenz plausibel erklären könnten.
I
IFEval
Ein Benchmark, der testet, wie gut LLMs explizite Format-Anweisungen befolgen (z.B. "Antworte in genau 3 Absätzen", "Beginne jeden Satz mit einem Großbuchstaben").
Image Captioning
Automatische Generierung von Textbeschreibungen für Bilder.
Image-to-Image
Modelle, die ein Eingabebild in ein modifiziertes oder transformiertes Ausgabebild umwandeln.
ImageBind
Metas multimodales Embedding-Modell, das sechs Modalitäten (Bild, Text, Audio, Video, Tiefe, Thermal) in einem gemeinsamen Vektorraum vereint.
Imitationslernen
Ein ML-Ansatz, bei dem ein Agent lernt, indem er Expertenverhalten beobachtet und nachahmt.
In-Context Learning
Die Fähigkeit von LLMs, aus Beispielen im Prompt zu lernen, ohne die Modellgewichte zu ändern.
Induktives Schlussfolgern
Eine Form der logischen Schlussfolgerung, bei der aus spezifischen Beobachtungen allgemeine Regeln oder Muster abgeleitet werden – die Konklusion ist wahrscheinlich, aber nicht garantiert.
Inferenz
Die Nutzung eines trainierten Modells, um Vorhersagen auf neuen, ungesehenen Daten zu machen.
Inferenzmaschine
Die Kernkomponente eines Expertensystems, die logische Regeln auf eine Wissensbasis anwendet, um neue Fakten abzuleiten oder Entscheidungen zu treffen.
Information Retrieval
Das Finden relevanter Dokumente oder Informationen aus einer großen Sammlung.
Inpainting
Das Auffüllen fehlender oder maskierter Bereiche in einem Bild mit plausiblem Inhalt.
Instruction Tuning
Fine-Tuning eines LLM auf Instruction-Response-Paaren, um Anweisungen besser zu befolgen.
Instructor Embedding
Ein Embedding-Modell, das task-spezifische Instruktionen im Prompt nutzt, um Embeddings für verschiedene Aufgaben zu optimieren.
Intelligentes Tutorsystem
Ein Intelligentes Tutorsystem (ITS) ist ein KI-gesteuertes Lernsystem, das Unterricht, Feedback und Übungen auf die Bedürfnisse des Lernenden personalisiert.
Intent Recognition
KI-Fähigkeit, die Absicht hinter einer Nutzeräußerung zu erkennen.
Intent-Klassifikation
Die Bestimmung der Absicht oder des Ziels hinter einer Benutzeranfrage.
Interpretierbarkeit
Der Grad, zu dem Menschen verstehen können, wie ein Modell zu seinen Entscheidungen kommt.
Inverses Reinforcement Learning
Das Ableiten der Reward-Funktion aus beobachtetem Expertenverhalten.
IPO
Eine Alignment-Methode, die DPO erweitert, um stabileres Training zu ermöglichen.
Iterative Vertiefung
Iterative Vertiefung ist eine Suchstrategie, die wiederholt tiefenbeschränkte Suche mit steigenden Tiefenlimits ausführt, bis eine Lösung gefunden oder ein Budget erschöpft ist.
Iteratives Prompting
Ein Prompt-Ansatz, bei dem Ergebnisse verfeinert werden durch mehrere aufeinanderfolgende Prompts.
J
Jaccard-Ähnlichkeit
Ein Ähnlichkeitsmaß zwischen zwei Mengen, definiert als Größe der Schnittmenge geteilt durch die Größe der Vereinigungsmenge.
Jailbreak
Techniken, die LLM-Sicherheitsvorkehrungen umgehen, um unerwünschte oder schädliche Outputs zu erzeugen.
Jevons-Paradoxon
Das Jevons-Paradoxon besagt, dass technologischer Fortschritt, der die Effizienz einer Ressource steigert, oft zu einem höheren statt niedrigeren Gesamtverbrauch dieser Ressource führt – weil sinkende Kosten die Nachfrage überproportional erhöhen.
JSON Mode
Ein Modell-Modus, der garantiert, dass die Ausgabe valides JSON ist.
Judge LLM
Ein LLM, das verwendet wird, um Outputs anderer LLMs zu bewerten und zu ranken.
K
K-Armed Bandit
Das K-Armed Bandit Problem modelliert die Auswahl zwischen k Optionen, um Reward zu maximieren und Exploration vs Exploitation zu balancieren.
K-Fold Cross-Validation
K-Fold Cross-Validation ist eine Evaluationsmethode, bei der Daten in k Teile geteilt werden; das Modell trainiert auf k−1 Folds und wird auf dem verbleibenden getestet.
K-Means Clustering
K-Means ist ein unüberwachter Algorithmus, der Daten in k Cluster partitioniert, indem Within-Cluster-Distanz zu Zentroiden minimiert wird.
K-Means++
K-Means++ ist eine Initialisierungsmethode für K-Means, die Startcentroide wählt, um Konvergenz und Cluster-Qualität zu verbessern.
K-Shot Prompting
K-Shot Prompting stellt k Beispiele im Prompt bereit, um das Modellverhalten zu steuern (Format, Reasoning-Pattern, Ton).
Kalibrierung
Der Prozess, die Vorhersagewahrscheinlichkeiten eines Modells so anzupassen, dass sie tatsächliche Ereigniswahrscheinlichkeiten widerspiegeln.
Kernel (ML)
In ML ist ein Kernel eine Funktion, die Ähnlichkeit zwischen Datenpunkten misst und Algorithmen in implizit hochdimensionalen Feature-Räumen operieren lässt.
Kernel Trick
Der Kernel-Trick erlaubt Algorithmen, Dot-Products in einem implizit höherdimensionalen Raum zu berechnen, ohne die Daten explizit zu transformieren.
KI-Ethik
Das Feld und die Praxis, die sich damit befasst, dass KI-Systeme moralisch verantwortungsvoll, fair und sicher entwickelt und eingesetzt werden.
KI-vollständig
Ein Problem wird als KI-vollständig bezeichnet, wenn dessen maschinelle Lösung im Wesentlichen allgemeine menschliche Intelligenz erfordern würde.
Klassifikation
Ein überwachter ML-Algorithmus, der Daten in vordefinierte Kategorien oder Klassen einteilt.
KNN (k-Nearest Neighbors)
KNN ist eine Methode, die Outcomes basierend auf den k ähnlichsten Beispielen in einem Datensatz vorhersagt.
KNN Search
KNN Search retrievet die k nächsten Vektoren zu einem Query-Vektor unter einer Distanz-Metrik.
Knowledge Base (KB)
Eine Knowledge Base ist ein kuratiertes Repository von Informationen (Artikel, FAQs, Policies), designed für Retrieval und Wiederverwendung.
Knowledge Cutoff
Knowledge Cutoff ist der Zeitpunkt, nach dem die Trainingsdaten eines Modells keine neuen Informationen mehr enthalten.
Knowledge Distillation
Training eines kleineren Modells (Student) durch ein größeres Modell (Teacher).
Knowledge Graph Embedding
Methoden, die Entitäten und Relationen eines Knowledge Graphs in einen niedrigdimensionalen Vektorraum einbetten.
Kollaboratives Filtern
Ein Empfehlungsansatz, der die Präferenzen eines Nutzers basierend auf dem Verhalten ähnlicher Nutzer oder Ähnlichkeiten zwischen Items vorhersagt.
Kreuzvalidierung
Eine Technik zur Bewertung der Modell-Performance durch Training und Test auf verschiedenen Datenteilmengen.
KTO (Kahneman-Tversky Optimization)
Eine Alignment-Methode, die nur binäres Feedback (gut/schlecht) statt paarweiser Präferenzen benötigt, inspiriert von Prospect Theory.
Künstliche Allgemeine Intelligenz
Eine hypothetische Form von KI, die menschenähnliche kognitive Fähigkeiten über alle Domänen hinweg besitzt und selbstständig lernen und sich anpassen kann.
Künstliches Neuronales Netz (Artificial Neural Network)
Ein Künstliches Neuronales Netz (ANN) ist ein vom biologischen Gehirn inspiriertes Rechenmodell aus Schichten verbundener Neuronen, das durch Anpassung von Gewichten lernen kann, komplexe Muster aus Daten zu extrahieren.
KV Cache (Key-Value Cache)
KV Cache speichert Attention Key/Value Tensoren von vorherigen Tokens während Transformer Inference, um Neuberechnung zu vermeiden.
L
L1 Regularization (Lasso)
L1-Regularisierung fügt eine Strafe hinzu, die proportional zum absoluten Wert der Modellgewichte ist und Sparsität fördert (viele Gewichte werden genau null).
L2 Regularization (Ridge)
L2-Regularisierung fügt eine Strafe hinzu, die proportional zum Quadrat der Modellgewichte ist und kleinere Gewichte fördert.
Label Leakage (Datenleck der Zielvariable)
Label Leakage beschreibt den Fall, dass im Trainingsdatensatz eines Machine-Learning-Modells Features enthalten sind, die direkte oder indirekte Information über die zu vorhersagende Zielvariable (das Label) enthalten — und in der Produktion zum Vorhersagezeitpunkt gar nicht verfügbar wären.
Label Smoothing
Label Smoothing ist eine Trainingstechnik, die harte Labels (0 oder 1) durch leicht abgeschwächte Ziele ersetzt (z.B. 0.9 und 0.1).
Längenstrafe
Eine Decoding-Anpassung, die verhindert, dass Generierungsalgorithmen (insbesondere Beam Search) übermäßig kurze Sequenzen unfair bevorzugen.
Language Model (LM)
Ein Language Model ist ein Modell, das die Wahrscheinlichkeit von Token-Sequenzen schätzt und Tasks wie Prediction, Generation und Classification ermöglicht.
Large Language Model (LLM)
Ein großes neuronales Netzwerk, das auf riesigen Textmengen trainiert wurde, um menschenähnlichen Text zu verstehen und zu generieren.
Large Language Model (LLM)
Ein großes neuronales Netzwerk, das auf massiven Textmengen trainiert wurde und menschenähnlichen Text verstehen und generieren kann.
Late Interaction
Ein Retrieval-Paradigma, bei dem Query- und Dokument-Tokens unabhängig encodiert werden, aber erst bei der Suche über Token-Level-Ähnlichkeit interagieren.
Latent Variable
Eine latente Variable ist eine unbeobachtete Variable, die aus beobachteten Daten abgeleitet wird, um verborgene Strukturen zu erklären.
Latenter Raum
Ein komprimierter, niedrigdimensionaler Raum, in dem ein Modell interne Repräsentationen von Daten speichert.
Layer Normalization
Layer Normalization ist eine Technik, die Aktivierungen innerhalb eines Layers normalisiert, um Training in tiefen Netzwerken zu stabilisieren.
Learning Rate Schedule
Ein Learning Rate Schedule ändert die Lernrate während des Trainings (Warmup, Decay, Cosine, Step, Exponential).
Learning-to-Rank (LTR)
Learning-to-Rank trainiert Modelle, Ergebnisse (Dokumente, Produkte, Antworten) nach Relevanz für eine Anfrage zu ordnen.
Lernrate
Ein Hyperparameter, der bestimmt, wie stark die Modellgewichte bei jedem Trainingsschritt angepasst werden.
Lernziele
Lernziele sind klare, messbare Aussagen darüber, was ein Lernender nach der Instruktion können sollte.
LIME
LIME (Local Interpretable Model-agnostic Explanations) erklärt eine einzelne Modellvorhersage, indem ein einfaches, interpretierbares Surrogat-Modell um diesen spezifischen Input herum angepasst wird.
Link Prediction
Die Aufgabe, fehlende oder zukünftige Kanten in einem Graphen vorherzusagen.
LiveCodeBench
Kontaminationsfreier Coding-Benchmark, der laufend neue Programmieraufgaben aus Wettbewerben einbindet.
LLM-as-a-Judge
LLM-as-a-Judge nutzt ein Modell, um andere Modell-Outputs gegen Rubrics wie Correctness, Groundedness, Style und Safety zu evaluieren.
LLM-as-Judge
Eine Evaluationsmethode, bei der ein LLM die Qualität von Outputs eines anderen (oder desselben) Modells bewertet.
LLMOps
Die operative Disziplin des End-to-End-Aufbaus, Deployments und Governings LLM-basierter Systeme – Prompts, Retrieval, Tools, Evaluation, Safety und Kosten.
LMSYS
LMSYS (Large Model Systems Organization) ist eine Forschungsorganisation, die das bekannte Chatbot Arena Benchmark betreibt und LLM-Leistungsvergleiche durch menschliche Bewertungen ermöglicht.
Log-Likelihood
Log-Likelihood ist der Logarithmus der Likelihood, die ein probabilistisches Modell beobachteten Daten zuweist.
Log-Sum-Exp
Log-Sum-Exp ist ein numerischer Trick, um log(∑ᵢ eˣⁱ) stabil ohne Overflow/Underflow zu berechnen.
Logit
Ein Logit ist der rohe, unnormalisierte Score, den ein Modell vor der Konvertierung zu Wahrscheinlichkeiten (z.B. via Softmax) ausgibt.
Logit Bias
Logit Bias ist eine Technik, um die Wahrscheinlichkeit bestimmter Tokens während der Generierung zu erhöhen oder zu verringern.
Long Context
Long Context bezieht sich auf die Fähigkeit eines LLM, eine große Anzahl von Input-Tokens (längeres Context Window) in einer einzelnen Anfrage zu akzeptieren und zu nutzen.
LoRA vs Full Fine-Tuning
Ein Vergleich zwischen der Anpassung eines Modells via LoRA-Adapter versus dem Update aller Parameter (Full Fine-Tuning).
M
Mamba
Mamba ist eine neuronale Netzwerkarchitektur, die auf selektiven State Space Models (SSMs) basiert und für effizientes Modellieren langer Sequenzen mit linearer Skalierung konzipiert ist.
Manus AI
Ein autonomer General-Purpose AI-Agent, der komplexe Aufgaben wie Recherche, Coding und Datenanalyse selbstständig ausführen kann.
Maschinelles Lernen
Ein Teilgebiet der KI, bei dem Systeme aus Daten lernen, um Vorhersagen oder Entscheidungen zu treffen, ohne explizit programmiert zu werden.
Masked Language Modeling (MLM)
MLM ist ein Trainings-Objective, bei dem ein Modell maskierte Tokens in einer Textsequenz vorhersagt (z.B. Wörter durch ein spezielles [MASK]-Token ersetzen).
Mastery Learning
Mastery Learning ist ein Instruktionsansatz, bei dem Lernende erst fortschreiten, nachdem sie Beherrschung eines Skills oder Objectives demonstriert haben, mit gezielter Remediation bei Bedarf.
MATH Benchmark
Ein Benchmark mit 12.500 Wettbewerbs-Mathematikproblemen (von Algebra bis Zahlentheorie), der fortgeschrittenes mathematisches Reasoning testet.
Matrixfaktorisierung
Eine Technik zur Zerlegung einer Matrix in das Produkt kleinerer Matrizen.
Matryoshka Embedding
Ein Embedding-Training-Ansatz, bei dem die ersten N Dimensionen eines Vektors bereits nutzbar sind – ermöglicht flexible Kompression ohne Qualitätsverlust.
Matryoshka Representation Learning (MRL)
Matryoshka Representation Learning (MRL) ist ein Embedding-Ansatz, der Informationen auf mehreren Granularitäten kodiert, sodass ein einzelnes Embedding auf kleinere Dimensionen gekürzt werden kann, während es für nachgelagerte Aufgaben nützlich bleibt.
Max Tokens
Ein API-Parameter, der die maximale Anzahl der Tokens begrenzt, die ein LLM in einer Antwort generieren kann.
MBPP
Ein Benchmark mit 974 einfachen Python-Programmieraufgaben, die grundlegende Programmierfähigkeiten von LLMs testen.
Mechanistic Interpretability
Mechanistic Interpretability ist der Versuch, neuronale Netzwerke durch Identifizierung interner Mechanismen (Features, Circuits, Algorithmen) zu reverse-engineeren, die Outputs produzieren.
Message Passing Neural Network
Ein vereinheitlichendes Framework für GNNs, bei dem Knoten Nachrichten von Nachbarn empfangen, aggregieren und ihre Repräsentation aktualisieren.
Meta-Learning
Meta-Learning ("Lernen zu lernen") zielt darauf ab, Modelle oder Systeme zu trainieren, die sich schnell an neue Tasks mit begrenzten Daten oder wenigen Beispielen anpassen.
Metaprompt
Ein Metaprompt ist ein höherstufiger Prompt, der die Regeln, Struktur und Constraints für die Generierung anderer Prompts oder einer ganzen Klasse von Outputs definiert.
METEOR
Eine Evaluationsmetrik für maschinelle Übersetzung, die unigram-Matching mit Stemming, Synonymen und Wortstellung kombiniert.
Metric Learning
Metric Learning trainiert Modelle, eine Distanzfunktion (Embedding-Raum) zu erlernen, bei der "ähnliche Elemente nah beieinander" und "unähnliche Elemente weit voneinander entfernt" sind.
Minimale Beschreibungslänge
Minimale Beschreibungslänge (MDL) ist ein Prinzip für Modellauswahl, das das Modell bevorzugt, das die kürzeste Gesamtbeschreibung von Modell plus den unter ihm kodierten Daten liefert.
Mixed Precision Training
Mixed Precision Training verwendet eine Mischung aus niedrigerer Präzision (z.B. FP16/BF16) und Single-Precision (FP32) Repräsentationen, um das Training zu beschleunigen und dabei Genauigkeit zu erhalten.
Mixture of Experts (MoE)
MoE ist eine Modell-Architektur, bei der verschiedene "Expert"-Sub-Netzwerke spezialisiert sind und ein Router auswählt, welche Experten jedes Token/jeden Input behandeln.
MLCommons
Industrie-Konsortium, das offene Benchmarks (MLPerf), Datensätze und Best Practices für ML-Performance entwickelt.
MMLU (Massive Multitask Language Understanding)
Ein Multi-Choice-Benchmark mit 57 Fachgebieten (STEM, Humanities, Social Sciences) zur Messung von LLM-Weltwissen.
MMLU-Pro
Erweiterter MMLU-Benchmark mit anspruchsvolleren Multiple-Choice-Fragen und reduziertem Rate-Vorteil.
MMR (Maximal Marginal Relevance)
MMR ist eine Retrieval-Diversifizierungsmethode, die Items auswählt, die sowohl relevant zur Query als auch nicht-redundant zueinander sind.
Model Card
Eine Model Card ist ein standardisiertes Dokumentationsartefakt, das die beabsichtigte Verwendung, Limitierungen, Training Data Context, Evaluationsergebnisse und ethische/Safety-Erwägungen eines Modells beschreibt.
Model Collapse
Model Collapse ist ein Degradations-Phänomen, bei dem Training auf synthetischen/modell-generierten Daten (besonders wiederholt) Diversity und Qualität reduzieren kann, wodurch das Modell zu engeren Outputs "kollabiert".
Model Compression
Techniken zur Reduzierung der Größe von ML-Modellen bei erhaltener Leistung.
Model Drift
Model Drift ist Performance-Degradation über die Zeit durch Änderungen in Datenverteilungen, Nutzerverhalten, Umgebung oder Upstream-Systemen.
Model Monitoring
Kontinuierliche Überwachung der Performance und des Verhaltens von ML-Modellen in Produktion.
Model Simplification
Model Simplification reduziert Komplexität um Interpretierbarkeit, Effizienz, Robustheit oder Deployment-Machbarkeit zu verbessern.
Model Spec
Ein Model Spec ist eine schriftliche Spezifikation, die beschreibt, wie sich ein Modell verhalten soll – einschließlich beabsichtigtem Verhalten, Constraints und Prinzipien – oft zur Steuerung von Training, Alignment und Deployment-Policy verwendet.
Model-Based Learning
Model-Based Learning lernt ein Modell der Umgebung (Dynamiken) und nutzt es für Planung, Vorhersage oder Kontrolle.
Monte Carlo Dropout (MC Dropout)
Monte Carlo Dropout schätzt Modell-Unsicherheit, indem Dropout zur Inferenz-Zeit aktiv gehalten und mehrere stochastische Forward Passes durchgeführt werden, deren Ergebnisse dann aggregiert werden.
MT-Bench
Ein Multi-Turn-Konversations-Benchmark für LLMs mit 80 Fragen in 8 Kategorien, bewertet durch GPT-4-as-Judge.
MTEB
Der Massive Text Embedding Benchmark – ein umfassender Benchmark für Text-Embedding-Modelle über 56+ Datensätze in 8 Aufgaben.
Multi-Armed Bandit
Ein Algorithmus für sequenzielle Entscheidungsfindung, der Exploration und Exploitation balanciert.
Multi-Objective Optimization
Multi-Objective Optimization (Pareto Optimization) ist Optimierung mit mehreren Zielen, die oft konfligieren, wobei Sie typischerweise Pareto-optimale Lösungen statt eines einzelnen Optimums suchen.
Multi-Turn Conversation
Eine Multi-Turn Conversation ist eine Interaktion, bei der Kontext und Intent sich über mehrere Austausche entwickeln statt einer einzelnen Query-Response.
Multimodal
KI-Systeme, die mehrere Datentypen (Text, Bild, Audio, Video) gleichzeitig verarbeiten und verstehen können.
Multimodal AI
KI-Systeme, die mehrere Modalitäten (Text, Bild, Audio, Video) verarbeiten können.
Multimodal Model
Ein Multimodal Model kann über mehrere Datentypen (z.B. Text, Bilder, Audio, Video) hinweg verarbeiten und/oder generieren.
Multimodale KI
KI-Systeme, die Text, Bild, Audio und Video gemeinsam verarbeiten und in beliebigen Modalitäten antworten können.
N
N-gram Blocking
N-gram Blocking ist ein Decoding Constraint, der verhindert, dass ein Modell ein N-gram (Sequenz von N Tokens) generiert, das bereits im generierten Text erschienen ist.
N-Shot Prompting
N-Shot Prompting stellt N Beispiele im Prompt bereit, um dem Modell das gewünschte Muster beizubringen (0-shot = nur Anweisungen; few-shot = kleines N).
N+1 Tool Call Problem
Das N+1 Tool Call Problem tritt auf, wenn ein KI-Workflow einen initialen Tool Call macht und dann N zusätzliche Tool Calls (oft einen pro Retrieved Item), was unnötige Latenz und Kosten verursacht.
Named Entity Canonicalization
Entity Canonicalization ist die Standardisierung verschiedener Surface Forms derselben Entity in eine kanonische Repräsentation (z.B. "OpenAI Inc.", "OpenAI", "Open AI").
Named Entity Linking (NEL)
Named Entity Linking verbindet eine Entity-Mention in Text (z.B. "OpenAI", "Apple", "Paris") mit einer spezifischen kanonischen Entity ID in einer Knowledge Base.
Named Entity Recognition (NER)
Die Identifikation und Klassifikation von benannten Entitäten in Text (Personen, Orte, Organisationen).
Named Entity Recognition (NER)
NLP-Aufgabe zur Identifikation und Klassifikation benannter Entitäten in Text.
Nano Banana
Codename für Googles Bildbearbeitungs-Modell (Gemini 2.5 Flash Image), das pixelgenaue Edits per Prompt ermöglicht.
Nano Banana 2
Googles KI-Bildgenerierungsmodell der zweiten Generation, basierend auf Gemini 3.1 Flash Image, das Pro-Qualität mit Flash-Geschwindigkeit kombiniert.
Narrow AI
Narrow AI (auch "Weak AI") ist KI, die entwickelt wurde, um eine spezifische Aufgabe oder einen begrenzten Satz von Aufgaben auszuführen, anstatt allgemeines Reasoning über Domains.
Natural Gradient
Natural Gradient ist ein Optimierungsansatz, der die Geometrie des Parameterraums berücksichtigt und oft zu effizienteren Schritten als Standard Gradient Descent in einigen probabilistischen Modellen führt.
Natural Language Generation
Natural Language Generation (NLG) ist der Prozess, menschlich lesbaren Text aus Daten, Intention oder internen Repräsentationen (Regeln, Templates oder neuronale Modelle) zu produzieren.
Natural Language Processing (NLP)
Der Bereich der KI, der sich mit der Interaktion zwischen Computern und menschlicher Sprache befasst.
Natural Questions
Ein Question-Answering-Benchmark von Google mit echten Suchanfragen und Wikipedia-Artikeln als Antwortquellen.
Negative Gewichte
Negative Gewichte sind negative Kantenkosten in einem gewichteten Graphen (d.h. eine Aktion/Transition reduziert die Gesamtkosten).
Negative Prompting
Negative Prompting ist das explizite Sagen an ein generatives Modell, was vermieden werden soll (Content, Stil, Formatierung, Claims) während der Generierung.
Negative Transfer
Negative Transfer tritt auf, wenn Wissenstransfer von einem vortrainierten Modell oder Source Task die Performance auf dem Target Task verschlechtert.
Negativer Zyklus
Ein negativer Zyklus ist ein Zyklus in einem gewichteten Graphen, dessen Gesamtgewicht negativ ist, was es ermöglicht, Pfadkosten durch Schleifen unbegrenzt zu reduzieren.
NeRF (Neural Radiance Fields)
NeRFs sind neuronale Methoden zur Repräsentation von 3D-Szenen, die eine Funktion lernen, die räumliche Koordinaten und Blickrichtung auf Farbe und Dichte mappt, um Novel View Synthesis zu ermöglichen.
Neural Architecture Search
Automatische Suche nach optimalen neuronalen Netzwerk-Architekturen.
Neural Code Search
Neural Code Search ruft relevante Code-Snippets oder Files mithilfe von Embeddings und semantischem Matching ab, anstatt exakter Keyword-Suche.
Neural Collapse
Neural Collapse ist ein Phänomen in deep Classifiers gegen Ende des Trainings, bei dem gelernte Representations und Classifier Weights eine hochstrukturierte Geometry aufweisen (Klassen werden eng geclustert und symmetrisch angeordnet).
Neural Embeddings
Neural Embeddings sind gelernte Vektor-Repräsentationen von Items (Text, User, Produkte, Dokumente), sodass Distanz im Vektorraum Ähnlichkeit widerspiegelt.
Neural Index Rebuild
Ein Neural Index Rebuild ist das Re-Generieren von Embeddings und Neuaufbauen von Vector (oder Hybrid) Indexes nach Änderungen an Content, Chunking oder dem Embedding Model.
Neural Indexing
Neural Indexing verwendet gelernte Repräsentationen und neuronale Methoden, um einen Index für Retrieval zu bauen oder zu optimieren.
Neural IR (Neural Information Retrieval)
Neural IR ist die Verwendung neuronaler Modelle (Embeddings, Cross-Encoder, Reranker) zum Abrufen und Ranken von Dokumenten basierend auf semantischer Relevanz.
Neural Ordinary Differential Equation (Neural ODE)
Neural ODEs modellieren Transformationen als kontinuierliche Zeitdynamiken, definiert durch ein neuronales Netzwerk, was bestimmte Effizienz- und Modellierungseigenschaften ermöglicht.
Neural Pruning
Neural Pruning entfernt Gewichte, Neuronen, Attention Heads oder ganze Strukturen aus einem Modell, um Compute/Memory zu reduzieren während Performance erhalten bleibt.
Neural Reranking
Neural Reranking verwendet ein Modell (oft einen Cross-Encoder), um einen ersten Satz abgerufener Kandidaten basierend auf tieferem Query-Kandidat-Verständnis neu zu bewerten und zu ordnen.
Neural Retrieval
Neural Retrieval ist das Abrufen relevanter Elemente mithilfe gelernter Repräsentationen (dense Embeddings und Ähnlichkeitssuche) anstatt rein auf Keyword-Matching zu basieren.
Neural Scaling Laws
Scaling Laws beschreiben empirische Beziehungen, die zeigen wie Model-Performance vorhersagbar besser wird, wenn Compute, Daten und/oder Model-Parameter erhöht werden—oft Power-Law-artigen Trends folgend.
Neural Style Transfer (NST)
Neural Style Transfer ist eine Technik, die den "Style" eines Bildes (Textures, Patterns) auf den "Content" eines anderen anwendet, unter Verwendung von Neural Representations.
Neural Topic Routing
Neural Topic Routing verwendet ML/Embeddings, um einen Input (Query, Pageview, Conversation) in ein Topic, Workflow oder Handler basierend auf semantischer Bedeutung zu klassifizieren oder zu routen.
Neuro-Symbolic "Verification Layer"
Eine Neuro-Symbolic Verification Layer ist eine Systemkomponente, die neuronale Outputs gegen symbolische Constraints (Regeln, Schemas, Policies) prüft, bevor gehandelt oder publiziert wird.
Neuro-Symbolic AI
Neuro-Symbolic AI kombiniert neuronale Methoden (LLMs, Embeddings) mit symbolischen Methoden (Regeln, Logik, Knowledge Graphs) zur Verbesserung von Zuverlässigkeit, Interpretierbarkeit und Constraint-Erfüllung.
Neuronales Netzwerk
Ein Berechnungsmodell, das von der Struktur biologischer Neuronen inspiriert ist und aus miteinander verbundenen Knoten (Neuronen) in Schichten besteht.
Next Best Question (NBQ)
Next Best Question ist ein Conversational Design und Decisioning Pattern, bei dem ein System die single most valuable klärende Frage stellt, um zu einem korrekten Outcome zu gelangen.
Next Sentence Prediction (NSP)
Next Sentence Prediction ist ein Training Objective, bei dem ein Modell vorhersagt, ob ein Satz wahrscheinlich auf einen anderen im Originaltext folgt.
Nicht-monotone Logik
Ein logisches System, in dem Schlussfolgerungen zurückgenommen werden können, wenn neue Informationen eintreffen, die bisherige Annahmen widerlegen.
NL2SQL (Natural Language to SQL)
NL2SQL konvertiert natürlichsprachliche Fragen in SQL-Queries, die gegen eine Datenbank ausgeführt werden können.
NLP (Natural Language Processing)
Natural Language Processing (NLP) ist das Teilgebiet der KI, das sich mit der maschinellen Verarbeitung, Interpretation und Generierung natürlicher Sprache beschäftigt.
No Free Lunch Theorem
Das No Free Lunch Theorem (in Optimization/Learning) besagt, dass gemittelt über alle möglichen Probleme kein Algorithmus besser performt als alle anderen—Performance hängt von der Problem-Distribution ab.
Node2Vec
Ein Algorithmus, der dichte Vektorrepräsentationen für Graphknoten durch biased Random Walks lernt.
Noise Injection
Noise Injection ist das absichtliche Hinzufügen von Rauschen während Training oder Processing, um Robustheit, Generalisierung oder Privacy zu verbessern.
Noise Schedule
Ein Noise Schedule definiert, wie viel Rauschen in jedem Schritt der Forward- und Reverse-Prozesse eines Diffusion-Modells hinzugefügt (und später entfernt) wird.
Noisy Student Training
Noisy Student Training ist ein Semi-Supervised Learning Ansatz, bei dem ein "Teacher"-Modell unlabeled Data labelt, und ein "Student"-Modell auf einem Mix aus labeled + pseudo-labeled Data mit Noise/Augmentation trainiert wird.
Nomic Embed
Open-Source-Embedding-Modelle von Nomic AI mit voller Reproduzierbarkeit – alle Trainingsdaten und Code sind öffentlich.
Non-Maximum Suppression (NMS)
Non-Maximum Suppression ist ein Post-Processing-Schritt in Object Detection, der redundante überlappende Bounding Boxes entfernt und nur die konfidentesten behält.
Nonlinear Activation Function
Eine Nonlinear Activation Function führt Nonlinearity in neurale Networks ein (z.B. ReLU, GELU, tanh), was es ihnen ermöglicht, komplexe Beziehungen jenseits linearer Transformations zu modellieren.
Normalisierung (Normalization)
Normalisierung ist die Transformation numerischer Daten auf einen einheitlichen Wertebereich (oft 0–1 oder Mittelwert 0 / Standardabweichung 1), um die Trainingsstabilität von Machine-Learning-Modellen zu verbessern.
Normalization Layer
Eine Normalization Layer ist eine neuronale Netzwerkkomponente, die Aktivierungen normalisiert, um Training Stability und Convergence zu verbessern (z.B. LayerNorm, RMSNorm).
Normalizing Flow
Ein Normalizing Flow ist ein generativer Modellierungsansatz, der eine einfache Verteilung (z.B. Gaussian) über eine Sequenz invertierbarer Transformationen mit tractierbaren Likelihoods in eine komplexe transformiert.
Novel Class Discovery (NCD)
Novel Class Discovery findet previously unbekannte Kategorien in unlabeled Data, während Knowledge von bekannten Classes genutzt wird.
NT-Xent Loss (Normalized Temperature-Scaled Cross-Entropy)
NT-Xent ist eine Contrastive Learning Loss, verwendet um Embeddings zu trainieren, indem Positive Pairs zusammengezogen und Negatives auseinandergedrückt werden, mit einem Temperature Term, der Distribution Sharpness kontrolliert.
Nutzenfunktion
Eine Nutzenfunktion bildet Ergebnisse auf numerische Werte ab, die Präferenzen repräsentieren, und ermöglicht Tradeoffs zwischen konkurrierenden Zielen.
O
Object Detection
Identifikation und Lokalisierung von Objekten in Bildern oder Videos.
Observability für LLM-Apps
LLM-Observability erweitert klassische Observability um KI-spezifische Signale: Prompt/Version-Tracking, Retrieval-Evidence, Tool-Traces, Token-Nutzung und Qualitäts-/Sicherheitsmetriken.
Off-Policy Evaluation (OPE)
Schätzt, wie eine neue Entscheidungs-Policy performen würde, unter Verwendung von Daten, die von einer anderen (bestehenden) Policy gesammelt wurden – ohne die neue Policy zu deployen.
Offline-Evaluation
Messung der Modell-/Systemleistung anhand vordefinierter Datensätze und Metriken vor dem Produktions-Rollout.
On-Device Inference
Ausführung eines Modells lokal auf dem Gerät des Nutzers (Smartphone, Laptop, Edge-Hardware) statt über eine Cloud-API.
One-Shot Learning
Fähigkeit, aus einem einzigen Beispiel zu lernen und zu generalisieren.
One-Shot Prompting
Bereitstellung eines einzelnen Beispiels im Prompt, um das gewünschte Output-Muster zu demonstrieren.
Online Learning
Aktualisiert ein Modell inkrementell, wenn neue Daten eintreffen, anstatt von Grund auf in großen Batches neu zu trainieren.
Online-Evaluation
Messung der Performance auf echtem Nutzer-Traffic (A/B-Tests, Canaries, Interleaving, Holdouts) nach dem Deployment.
Ontologie (Formal)
Eine formale Repräsentation von Konzepten und Beziehungen in einer Domäne (Entitäten, Klassen, Eigenschaften, Constraints).
Open-Weight-Modell
Ein Modell, dessen trainierte Gewichte öffentlich verfügbar sind (oder unter bestimmten Bedingungen), was Self-Hosting und tiefere Anpassung ermöglicht.
OpenAI Embeddings
OpenAIs kommerzielle Embedding-API mit text-embedding-3-small und text-embedding-3-large – der einfachste Weg zu hochwertigen Embeddings.
OpenAI o1
OpenAI's erstes Modell der o-Serie, das explizites Reasoning mit Chain-of-Thought für komplexe Problemlösungen verwendet.
OpenAI o3
Weiterentwickeltes Reasoning-Modell von OpenAI mit verbesserter Leistung bei Mathematik, Coding und wissenschaftlichem Denken.
OpenLLM Leaderboard
Ein öffentliches Leaderboard von Hugging Face, das Open-Source-LLMs auf standardisierten Benchmarks (MMLU, HellaSwag, etc.) vergleicht.
Operationalisierung
Das Umwandeln eines Konzepts, Modells oder Prototyps in eine wiederholbare, zuverlässige, governierte Produktionsfähigkeit mit klarem Ownership, Monitoring und Change Control.
Optimierung
Der Prozess, Parameterwerte zu finden, die eine Loss-Funktion minimieren oder ein Ziel unter Constraints maximieren.
Optimizer
Der Algorithmus, der Modellparameter während des Trainings aktualisiert (z.B. SGD, Adam), basierend auf Gradienten und Konfiguration.
Orchestration
Koordiniert mehrere Schritte, Services und Tools in einen zuverlässigen Workflow – oft mit State, Retries und Observability.
Orchestrator
Die Systemkomponente, die Orchestration-Logik implementiert – den nächsten Schritt entscheiden, Tools aufrufen, State verwalten, Budgets/Guardrails durchsetzen.
ORPO
Eine Weiterentwicklung von DPO, die SFT und Preference-Alignment in einem einzigen Trainingsschritt kombiniert.
Out-of-Distribution (OOD) Detection
Identifizierung von Eingaben, die sich signifikant von dem unterscheiden, worauf ein Modell trainiert wurde.
Output Guardrails
Kontrollen, die auf Modell-Outputs angewandt werden, um Sicherheits-, Policy-, Formatierungs- und Korrektheitsbeschränkungen durchzusetzen.
Output Length Control
Die Menge an Techniken zur Formung von Antwortlänge und -struktur (Token-Limits, Section-Caps, Templates, Validators).
Output Parsing
Extraktion strukturierter Felder aus Modell-Output (JSON, YAML, XML oder Muster), damit nachgelagerte Systeme es zuverlässig nutzen können.
Output Token
Ein Token, das von einem Sprachmodell als Teil seiner Antwort generiert wird.
Over-Generation
Mehr Output produzieren als nötig (zu lang, zu verbose, zu viele Schritte), was Kosten erhöht und Nutzer-Klarheit reduziert.
Over-Retrieval
Zu viele Dokumente/Chunks für eine Anfrage abrufen, was Kosten erhöht und oft Antwortqualität durch Rauschen und Kontext-Verdünnung senkt.
Overfitting
Wenn ein Modell die Trainingsdaten zu gut lernt und auf neuen Daten schlecht generalisiert.
Overlapping Chunks
Eine Chunking-Strategie, bei der aufeinanderfolgende Text-Chunks etwas wiederholten Inhalt (Overlap) teilen, um Kontext über Chunk-Grenzen zu erhalten.
P
Paged Attention
Eine Inferenz-Optimierung, die den KV-Cache in "Pages" (Blöcken) verwaltet, um Speicherfragmentierung zu reduzieren und den Durchsatz beim Serving von LLMs zu verbessern.
Parallel Tool Calls
Ausführung mehrerer Tool-/API-Calls gleichzeitig statt sequentiell, um End-to-End-Latenz zu reduzieren.
Parameter Count
Die Anzahl der gelernten Gewichte in einem Modell, oft als grober Proxy für Kapazität und Compute-Anforderungen verwendet.
Parameter Sharing
Eine Modellierungstechnik, bei der mehrere Teile eines neuronalen Netzes dieselben Gewichte wiederverwenden statt separate Parameter zu haben.
Parameter-Efficient Fine-Tuning (PEFT)
Ein Set von Techniken, die ein vortrainiertes Modell an eine Aufgabe anpassen, indem nur ein kleiner Teil der Parameter (oder zusätzliche kleine Module) trainiert wird.
Passage Reranking
Reordnung abgerufener Passagen mit einem stärkeren Relevanz-Modell (oft Cross-Encoder), um Präzision vor Generation zu verbessern.
Passage Retrieval
Findet relevante Textpassagen (Chunks) statt ganzer Dokumente, um Präzision für Question Answering und RAG zu verbessern.
PDDL
Eine standardisierte Sprache zur Beschreibung von Planungsproblemen in der Künstlichen Intelligenz, die Zustände, Aktionen und Ziele formal definiert.
Perceptron
Das Perceptron ist die einfachste Form eines künstlichen Neurons und die Grundlage moderner neuronaler Netze – ein linearer Klassifikator, der Eingaben gewichtet summiert und durch eine Aktivierungsfunktion leitet.
Perplexity
Eine Sprachmodell-Metrik, abgeleitet von der durchschnittlichen negativen Log-Likelihood; misst, wie "überrascht" ein Modell von Text ist.
Perplexity
Metrik zur Bewertung, wie gut ein Sprachmodell Text vorhersagt.
Pfadfindung
Der Prozess, eine Route zwischen Knoten in einem Graphen zu finden, die ein Ziel optimiert (kürzeste, günstigste, sicherste, schnellste).
Planung
Ein KI-Bereich, der sich mit der automatischen Generierung von Aktionssequenzen befasst, um von einem Ausgangszustand zu einem Zielzustand zu gelangen.
Poisoning Attack
Ein Angriff, bei dem ein Gegner Trainingsdaten, Retrieval-Korpora oder Feedback-Signale manipuliert, um Modellverhalten zu degradieren.
Policy
Eine Policy ist eine Regel oder Strategie, die bestimmt, welche Aktionen unter welchen Bedingungen ausgeführt werden.
Policy Engine
Eine Komponente, die Regeln und Constraints zur Laufzeit durchsetzt (wer was darf, welche Tools erlaubt sind, welche Outputs erlaubt sind).
Policy Gradient
Methoden, die eine Policy direkt optimieren, indem Parameter in die Richtung angepasst werden, die den erwarteten Reward verbessert.
Positional Encoding
Wie ein Transformer-Modell Token-Reihenfolge (Position) repräsentiert, sodass es "A dann B" von "B dann A" unterscheiden kann.
Positional Interpolation
Eine Technik zur Erweiterung der nutzbaren Kontextlänge eines Modells durch Reskalierung der Positions-Repräsentation.
Post-Training
Jede Trainingsphase nach dem Pretraining, um ein Modell für gewünschte Verhaltensweisen zu formen – Hilfsbereitschaft, Sicherheit, Instruction-Following.
Post-Training Quantization (PTQ)
Reduziert Modell-Präzision (z.B. FP16 → INT8/INT4) nach dem Training, um Speichernutzung zu senken und Inferenz zu beschleunigen.
Preference Optimization
Training oder Anpassung von Modellen mit Preference-Signalen (A bevorzugt über B), um Alignment mit gewünschten Outputs zu verbessern.
Prefill
Die Inferenz-Phase, in der das Modell den Prompt verarbeitet, um den initialen internen State aufzubauen, bevor Output-Tokens generiert werden.
Prefill Latency
Die Zeit, die für die Verarbeitung des Input-Prompts aufgewandt wird, bevor das Modell Token generieren kann.
Prefix Cache
Wiederverwendung von berechnetem Modell-State (oft KV-Cache) für wiederholte Prompt-Prefixes, um wiederholte Prefill-Berechnung zu vermeiden.
Prefix Tuning
Eine parameter-effiziente Adaptationstechnik, bei der Sie kleine "Prefix"-Vektoren lernen, die Attention Layers steuern, statt alle Modell-Gewichte zu fine-tunen.
Pretraining
Training eines Modells auf großen Datenmengen (oft selbstüberwacht), um allgemeine Repräsentationen zu lernen, bevor aufgabenspezifische Anpassung erfolgt.
Privacy-Preserving Machine Learning
Ein Set von Techniken, die Datenschutzrisiken beim Training oder Serving von Modellen reduzieren.
Product Quantization (PQ)
Eine Vektor-Kompressionstechnik, die hochdimensionale Vektoren mit kompakten Codes approximiert für schnellere ANN-Suche.
Prompt
Die Eingabe (Anweisungen + Kontext + Beispiele + Constraints), die einem Sprachmodell bereitgestellt wird, um eine gewünschte Ausgabe zu erhalten.
Prompt A/B Testing
Vergleich zweier Prompt-Versionen auf realem Traffic, um Unterschiede in Outcomes und Guardrails zu messen.
Prompt Budget
Eine explizite Allokation von Tokens für Anweisungen, Kontext, abgerufene Evidence und Beispiele.
Prompt Caching
Speichern wiederverwendbarer Prompt-Komponenten oder -Antworten, um wiederholte Compute, Kosten und Latenz zu reduzieren.
Prompt Chaining
Ein Muster, bei dem mehrere Prompts sequentiell ausgeführt werden, wobei der Output eines Schritts zum Input des nächsten wird.
Prompt Compression
Reduzierung der Prompt-Länge bei Erhalt wesentlicher Constraints und Kontext.
Prompt Engineering
Die Kunst und Wissenschaft der Gestaltung von Eingabeaufforderungen (Prompts), um gewünschte Outputs von LLMs zu erhalten.
Prompt Hardening
Stärkung von Prompts und umgebenden Controls gegen Missbrauch, Injection und unsichere Outputs.
Prompt Injection
Ein Angriff, bei dem bösartiger oder nicht vertrauenswürdiger Text versucht, Anweisungen zu überschreiben oder ein LLM-System zu manipulieren.
Prompt Leakage
Unbeabsichtigte Offenlegung von System-Prompts, versteckten Anweisungen oder sensitivem Kontext – durch Modell-Outputs, Logs oder UI/Debug-Tools.
Prompt Linting
Automatisierte statische Analyse von Prompts, um Probleme vor dem Deployment zu erkennen (Konflikte, fehlende Constraints, unsichere Formulierungen).
Prompt Registry
Ein System zum Speichern, Versionieren, Testen und Governer von Prompts als Produktions-Artefakte.
Prompt Regression Testing
Ausführung einer stabilen Evaluations-Suite gegen Prompt-Änderungen, um Qualitäts-, Sicherheits-, Format- und Kosten-Regressionen zu erkennen.
Prompt Router
Wählt das beste Prompt-Template (oder Workflow) für einen Request basierend auf Intent, Schwierigkeit, Risiko und Kontext.
Prompt Sandbox
Eine sichere Umgebung zum Testen von Prompts mit kontrollierten Daten, Tools und Logs vor Produktion.
Prompt Template
Eine wiederverwendbare Prompt-Struktur mit Variablen (Platzhaltern), die dynamisch gefüllt werden können.
Prompt Tokens
Die vom Modell-Input verbrauchten Tokens (System-Anweisungen, Nutzer-Nachricht, abgerufener Kontext, Tool-Schemas, Beispiele).
Prompt Tuning
Parameter-effiziente Methode, bei der nur lernbare Token-Embeddings am Input trainiert werden, während das gesamte Modell eingefroren bleibt.
Proximal Policy Optimization (PPO)
Ein Reinforcement-Learning-Algorithmus, der Policies auf eingeschränkte Weise aktualisiert, um übermäßig große, instabile Änderungen zu vermeiden.
Pruning
Das Entfernen unnötiger oder wenig wichtiger Komponenten aus einem Modell oder Suchbaum, um Effizienz zu steigern oder Overfitting zu reduzieren.
Q
Q-Former
Ein Q-Former ist ein abfragebasiertes Transformer-Modul, das in manchen multimodalen Systemen verwendet wird, um Informationen aus einer Modalität zu extrahieren und zu komprimieren.
Q-Funktion
Die Q-Funktion (Action-Value-Funktion) ordnet einem Zustand-Aktions-Paar den erwarteten Return zu: Q(s, a).
Q-Learning
Q-Learning ist eine Reinforcement-Learning-Methode, die eine Wertefunktion Q(s, a) lernt, um die erwartete Belohnung einer Aktion in einem Zustand zu schätzen.
QAT (Quantization-Aware Training)
Quantization-Aware Training trainiert ein Modell unter Simulation von Quantisierungseffekten, was die Genauigkeit nach Quantisierung im Vergleich zu PTQ verbessert.
QKV (Query–Key–Value)
QKV bezieht sich auf die Query (Q), Key (K) und Value (V) Matrizen, die in Transformer-Attention-Mechanismen verwendet werden.
QLoRA (Quantized Low-Rank Adaptation)
QLoRA ist ein Fine-Tuning-Ansatz, der Quantisierung mit LoRA kombiniert, um große Modelle mit geringerem Speicherverbrauch anzupassen.
Quadratische Attention-Kosten
Quadratische Attention-Kosten beziehen sich auf die klassische Skalierung von Full Self-Attention, die etwa mit dem Quadrat der Sequenzlänge wächst (O(n²)).
Quality-of-Answer Score
Ein Quality-of-Answer Score ist eine zusammengesetzte Metrik, die schätzt, wie gut eine AI-Antwort ist (Nützlichkeit, Korrektheit, Klarheit, Groundedness, Sicherheit).
Quantisierung
Reduzierung der numerischen Präzision von Modellgewichten zur Verringerung von Speicher und Rechenaufwand.
Quantum Machine Learning (QML)
Quantum Machine Learning erforscht die Nutzung von Quantencomputing-Konzepten (Qubits, Superposition, Verschränkung), um bestimmte ML-Berechnungen zu beschleunigen.
Quarantine (Quarantäne)
Quarantäne isoliert Content, Inputs oder Events, die verdächtig, unsicher oder von geringem Vertrauen sind, damit sie Produktions-Outputs nicht beeinflussen können.
Query Embeddings
Query Embeddings sind Vektor-Repräsentationen von Suchanfragen, die für semantisches Similarity-Matching gegen eingebettete Dokumente/Passagen verwendet werden.
Query Fan-Out
Query Fan-Out ist, wenn eine Anfrage viele nachgelagerte Queries/Tool-Calls auslöst, um Kontext oder Ergebnisse zu sammeln.
Query Federation
Query Federation führt eine Anfrage über mehrere Systeme/Quellen (Datenbanken, Services, Indizes) aus und kombiniert die Ergebnisse.
Query Likelihood Model
Ein Query Likelihood Model ist ein Information-Retrieval-Ansatz, bei dem Dokumente nach der Wahrscheinlichkeit gerankt werden, dass ihr Sprachmodell die Query generieren würde.
Query Reranking
Query Reranking ordnet Such-/Retrieval-Ergebnisse mit einer stärkeren Scoring-Funktion (oft Cross-Encoder oder LLM-basierter Scorer) neu, um Relevanz an der Spitze zu verbessern.
Query Rewrite
Query Rewrite ist das Modifizieren einer Suchanfrage, um die Retrieval-Qualität (Recall/Precision) zu verbessern, oft durch Klärung der Intention, Term-Erweiterung oder Vokabular-Normalisierung.
Query Rewriting
Transformation einer Benutzeranfrage in eine Form, die bessere Retrieval-Ergebnisse liefert.
Query Understanding Evaluation
Query Understanding Evaluation misst, wie gut Ihr System User-Intent, Entities, Constraints und Risikolevel aus Queries interpretiert.
Query-Expansion
Query-Expansion ergänzt eine Anfrage mit zusätzlichen Begriffen oder semantischen Signalen, um den Retrieval-Recall zu verbessern.
Query-Routing
Query-Routing sendet eine Anfrage an die am besten geeignete Engine, Modell, Index oder Workflow basierend auf Intent, Konfidenz und Constraints.
Query-Time-Filtering
Query-Time-Filtering wendet Einschränkungen während des Retrievals an – wie Berechtigungen, Tenant-Grenzen, Aktualitätsfenster, Sprache oder Dokumenttyp.
Question Answering (QA)
Question Answering ist eine Aufgabe, bei der ein System Fragen basierend auf einem Korpus, einer Wissensbasis oder Modellwissen beantwortet.
Question Decomposition
Question Decomposition zerlegt eine komplexe Frage in kleinere Teilfragen, die zuverlässiger beantwortet werden können.
Quota-Aware Routing
Quota-Aware Routing wählt Modelle/Workflows basierend auf verbleibendem Quota und Cost Budgets (z.B. einfache Queries zu günstigeren Modi routen wenn Budget niedrig).
R
RAG (Retrieval-Augmented Generation)
Retrieval-Augmented Generation (RAG) ist eine Architektur, bei der ein LLM eine Antwort unter Verwendung abgerufener externer Informationen (Dokumente/Chunks) als Evidenz generiert, anstatt sich nur auf seine internen Parameter zu verlassen.
RAG Chunking Strategie
Eine RAG Chunking Strategie definiert, wie Quelldokumente in abrufbare Einheiten aufgeteilt werden (Chunk-Größe, Overlap, Struktur-Erhaltung, Metadaten).
RAG Evaluation
Die systematische Bewertung von RAG-Systemen über Retrieval-Qualität, Antwort-Relevanz, Groundedness und Faithfulness.
RAG Poisoning
RAG Poisoning ist ein Angriff oder Fehlermodus, bei dem der Retrieval-Korpus manipuliert wird, sodass bösartiger oder irreführender Content als "Evidenz" abgerufen wird und Outputs verschlechtert oder das System beeinflusst.
Ragas
Ragas ist ein populärer Evaluations-Ansatz/Library für RAG-Systeme, der praktische Metriken und Workflows zur Bewertung von Retrieval + Generation-Qualität bietet.
Re-Embedding
Re-Embedding regeneriert Embeddings für einen Korpus (Dokumente/Chunks) mit demselben oder einem neuen Embedding Model und aktualisiert dann den Vector Index entsprechend.
ReAct (Reason + Act)
ReAct ist ein agentisches Pattern, bei dem ein Modell zwischen Reasoning und Aktionen (Tool Calls) alterniert und Beobachtungen einbezieht, bevor es fortfährt.
Recall@k
Recall@k misst, wie oft die benötigten relevanten Items innerhalb der top-k abgerufenen Ergebnisse erscheinen.
Recency Bias
Recency Bias ist die Tendenz, neuere Informationen überzubewerten – entweder in menschlicher Beurteilung oder im Systemverhalten (Ranking, Context Usage).
Reciprocal Rank Fusion (RRF)
RRF kombiniert mehrere gerankte Ergebnislisten zu einer, indem es reziproke Ränge summiert – verbessert Robustheit, wenn verschiedene Retrieval-Methoden bei verschiedenen Queries excellieren.
Recommendation Engine
System, das personalisierte Empfehlungen basierend auf Nutzerverhalten generiert.
Red Teaming
Red Teaming ist adversariales Testing, das absichtlich versucht, ein System zu brechen, um Schwachstellen und Failure Modes zu entdecken (Security, Safety, Reliability).
Regression
ML-Methode zur Vorhersage kontinuierlicher numerischer Werte.
Regression Testing
Regression Testing stellt sicher, dass Änderungen (Code, Prompts, Retrieval Config, Model Versions) bestehendes Verhalten oder Qualität nicht brechen.
Regularisierung
Techniken, die Overfitting verhindern, indem sie die Komplexität des Modells einschränken.
Reinforcement Learning
Ein Lernparadigma, bei dem ein Agent durch Interaktion mit einer Umgebung lernt, Belohnungen zu maximieren.
Reinforcement Learning (RL)
Reinforcement Learning ist ein Paradigma, bei dem ein Agent lernt, Entscheidungen zu treffen, indem er mit einer Umgebung interagiert und kumulativen Reward optimiert.
Reproducibility
Reproducibility ist die Fähigkeit, dieselben (oder äquivalente) Outputs und Verhalten bei gleichen Inputs, Versionen und Konfiguration zu reproduzieren.
Reranker
Ein Reranker ist ein Modell, das abgerufene Kandidaten (Dokumente/Chunks) neu bewertet und neu ordnet, um Relevanz an der Spitze zu verbessern.
Reranking
Neuordnung von Retrieval-Ergebnissen mit einem leistungsfähigeren Modell für bessere Relevanz.
Response Generation
KI-Prozess zur Generierung natürlichsprachlicher Antworten.
Responsible AI
Responsible AI bedeutet, AI-Systeme so zu designen und zu betreiben, dass sie sicher, fair, privacy-aware, transparent und accountable über ihren gesamten Lifecycle sind.
Retrieval Confidence
Retrieval Confidence ist ein Signal, das schätzt, ob abgerufene Ergebnisse ausreichende, relevante Evidenz enthalten, um die Query zuverlässig zu beantworten.
Retrieval Drift
Retrieval Drift ist eine Änderung im Retrieval-Verhalten/Qualität über Zeit durch Korpus-Updates, Embedding-Model-Änderungen, Indexing-Settings, Query-Distributions-Shifts oder Metadaten-Änderungen.
Retrieval-Augmented Generation (RAG)
Eine Technik, die LLM-Generierung mit externem Wissensabruf kombiniert, um fundiertere und aktuellere Antworten zu liefern.
Retrieval-First Policy
Eine Retrieval-First Policy zwingt das System, Evidenz abzurufen, bevor es substantive Antworten generiert, besonders für faktische oder High-Risk Queries.
Retriever
Ein Retriever ist die Komponente, die Kandidaten-Dokumente/Chunks relevant zu einer Query auswählt (Keyword, Vector, Hybrid oder federated).
Retriever-Reranker Cascade
Eine Retriever-Reranker Cascade ist ein zweistufiger Retrieval-Ansatz: ein schneller Retriever generiert Kandidaten, dann selektiert ein langsamerer, genauerer Reranker die besten top-k.
Reward Hacking
Reward Hacking tritt auf, wenn ein Model/Agent Wege findet, Reward zu maximieren, ohne tatsächlich das beabsichtigte Real-World-Ziel zu erreichen.
Reward Model
Ein Reward Model bewertet Modell-Outputs nach einem Preference-Objective (Helpfulness, Safety, Format Compliance), oft verwendet in Alignment-Style-Training oder Evaluation.
RLAIF (Reinforcement Learning from AI Feedback)
RLAIF nutzt AI-generierte Kritiken oder Präferenzen (oft von einem Judge Model) als Feedback-Signale, um Modellverhalten zu verbessern und die Abhängigkeit von Human Labeling zu reduzieren.
RLHF (Reinforcement Learning from Human Feedback)
RLHF ist ein Post-Training-Ansatz, der menschliche Präferenzdaten verwendet, um Modellverhalten an gewünschte Outputs anzupassen.
RNN (Recurrent Neural Network)
Ein Recurrent Neural Network (RNN) ist eine neuronale Netz-Architektur für sequenzielle Daten, bei der Neuronen ihren eigenen Output als zusätzlichen Input für den nächsten Zeitschritt nutzen — wodurch Kontext über Sequenzen hinweg erhalten bleibt.
Robustheitstests
Robustheitstests evaluieren, wie zuverlässig ein Modell oder System unter Perturbationen, Edge Cases, Rauschen oder Distribution Shifts performt.
RoPE (Rotary Positional Embeddings)
RoPE ist eine Positionskodierungsmethode, die Rotationen auf Query/Key-Vektoren anwendet und Modellen ermöglicht, Token-Positionen so darzustellen, dass relatives Positionsverhalten unterstützt wird.
ROUGE Score
Metriken zur Bewertung automatischer Textzusammenfassungen.
Routing Policy
Eine Routing Policy ist das Regelset, das entscheidet, welches Model/Workflow/Tools für einen Request basierend auf Intent, Risk, Confidence und Budgets verwendet werden.
Rückwärtsverkettung
Eine Inferenzstrategie, die vom Ziel ausgeht und rückwärts arbeitet, um die Fakten und Regeln zu finden, die das Ziel beweisen würden.
S
Safety
Safety in KI-Systemen ist die Gesamtheit der Maßnahmen, die schädliche, unsichere oder richtlinienwidrige Ausgaben und Aktionen verhindern – insbesondere bei gegnerischen oder mehrdeutigen Eingaben.
Safety Alignment
Safety Alignment ist die Formung von Modell-/Systemverhalten, sodass es zuverlässig Safety-Constraints folgt (Refusals, sichere Defaults, Richtlinieneinhaltung) bei normalen und gegnerischen Eingaben.
Safety Case
Ein Safety Case ist ein strukturiertes Argument – gestützt durch Evidenz – dass ein System für einen spezifischen Kontext und Risikoprofil akzeptabel sicher ist.
Safety Classifier
Ein Safety Classifier ist ein Modell-/Regelsystem, das unsichere Inhalte oder riskante Absichten erkennt (z.B. Selbstschädigung, Hass, Datenexfiltrations-Versuche, Richtlinienverletzungen).
Safety Evaluation
Safety Evaluation ist das systematische Testen eines KI-Systems auf schädliches, richtlinienwidriges, unsicheres oder privacy-riskantes Verhalten – über normale und gegnerische Inputs.
Safety Filters
Safety Filters erkennen und blockieren oder transformieren unsichere Outputs (oder unsichere Inputs) basierend auf Policy (z.B. sexuelle Inhalte, Gewalt, Hass, Selbstverletzung, illegale Anweisungen).
Safety Guardrails
Safety Guardrails sind Mechanismen, die das Verhalten eines KI-Systems einschränken, um Schaden zu reduzieren (Policies, Validatoren, Permission-Boundaries, Rate-Limits, Refusals).
Safety Incident Taxonomy
Eine Safety Incident Taxonomy ist ein strukturiertes Klassifikationssystem für KI-Safety-Incidents (was passiert ist, Severity, Impact, Root Cause, Mitigation).
Sampling Steps
Sampling Steps sind die Anzahl iterativer Denoising-Iterationen, die während der Diffusions-Inferenz zur Generierung eines Outputs verwendet werden.
Sampling Temperature
Sampling Temperature skaliert die Output-Verteilung des Modells: niedrigere Temperaturen machen Outputs deterministischer; höhere Temperaturen erhöhen die Zufälligkeit.
Satisficing
Satisficing bedeutet, eine Lösung zu wählen, die 'gut genug' ist um Constraints zu erfüllen, anstatt für das absolut Beste zu optimieren.
Scaling Laws
Scaling Laws sind empirische Beziehungen, die zeigen, wie Modell-Performance tendenziell vorhersagbar verbessert wird, wenn Sie Daten, Compute und Parameter skalieren.
Schema Drift
Schema Drift ist, wenn sich die erwartete Struktur von Daten über Zeit ändert (Felder hinzugefügt/entfernt/umbenannt, Typen ändern sich, Enums erweitern), oft Pipelines brechend.
Schema Validation
Schema Validation prüft, ob strukturierte Daten einem definierten Schema entsprechen (Typen, erforderliche Felder, Enums, Constraints).
Seedance
KI-Videogenerator von ByteDance mit kontroverser Trainingsdaten-Herkunft und photorealistischen Ergebnissen.
Self-Attention
Attention-Mechanismus, bei dem Eingabe-Elemente aufeinander bezogen werden.
Self-Consistency
Self-Consistency ist eine Technik, bei der Sie mehrere Reasoning-Pfade/Antworten samplen und diese aggregieren (z.B. Mehrheitsvotum), um die Zuverlässigkeit zu verbessern.
Self-Supervised Learning
Lernparadigma, bei dem das Modell Labels aus den Daten selbst generiert.
Semantic Caching
Semantic Caching verwendet frühere Antworten/Ergebnisse wieder, wenn eine neue Anfrage semantisch ähnlich zu einer vorherigen ist, nicht notwendigerweise identisch.
Semantic Chunking
Semantic Chunking teilt Dokumente in Chunks basierend auf Bedeutungsgrenzen (Themen/Abschnitte) statt nur fester Token-Anzahlen.
Semantic Router
Ein Semantic Router routet Anfragen zum richtigen Workflow, Toolset oder Modell unter Verwendung semantischer Signale (Embeddings, Intent-Klassifikation, Ähnlichkeit zu bekannten Kategorien).
Semantic Segmentation
Pixel-genaue Klassifikation von Bildregionen nach Objektkategorien.
Semantische Suche
Eine Suchmethode, die die Bedeutung von Anfragen und Dokumenten versteht, anstatt nur auf Keyword-Übereinstimmung zu basieren.
Sentence Transformers
Eine Python-Library und Sammlung von Modellen, die semantisch bedeutungsvolle Sentence Embeddings erzeugen – optimiert für Ähnlichkeitssuche und Clustering.
SFT (Supervised Fine-Tuning)
Supervised Fine-Tuning (SFT) passt ein vortrainiertes Modell unter Verwendung gelabelter Input→Output-Beispiele an, um Verhalten zu formen (Format, Stil, Task-Performance).
SFT (Supervised Fine-Tuning)
Das Training eines Pre-trained Models auf kuratierten (Input, Output)-Paaren, um es auf spezifische Aufgaben oder Formate anzupassen.
SHAP
SHAP ist eine Model-Explainability-Methode basierend auf Shapley-Werten aus der kooperativen Spieltheorie, die eine Vorhersage auf einzelne Features attribuiert.
Siamesisches Netzwerk
Ein Siamesisches Netzwerk ist eine neuronale Architektur mit zwei (oder mehr) identischen Teilnetzwerken, die lernen, Eingaben durch Erzeugen von Embeddings und Messen von Ähnlichkeit zu vergleichen.
Signal-to-Noise Ratio
Signal-to-Noise Ratio (SNR) ist das Verhältnis von bedeutungsvollen Informationen ("Signal") zu irrelevanten oder irreführenden Informationen ("Noise").
SimCLR
SimCLR (Simple Contrastive Learning of Visual Representations) ist ein Framework für selbstüberwachtes Lernen, das visuelle Repräsentationen durch Vergleich augmentierter Bildversionen lernt.
Similarity Score Calibration
Similarity Score Calibration mappt rohe Similarity-Scores (von Embeddings/Rerankern) auf zuverlässigere Confidence-Signale (z.B. Wahrscheinlichkeiten oder Risiko-Bänder).
Similarity Search
Similarity Search findet Items, die einer Anfrage unter einer Ähnlichkeitsmetrik am ähnlichsten sind (Cosine Similarity, Dot Product etc.), häufig mit Embeddings verwendet.
Similarity Thresholding
Similarity Thresholding setzt Cutoff-Werte auf Similarity-Scores (Embedding-Similarity, Reranker-Scores), um Actions zu entscheiden wie "Use Cache", "Retrieve More" oder "Ask Clarifying Question".
SimPO
Eine vereinfachte Version von DPO, die ohne Reference Model auskommt und einen Length-Normalized Reward verwendet.
Simulation
Die Nachahmung eines realen oder hypothetischen Systems oder Prozesses in einer kontrollierten virtuellen Umgebung.
Sliding Window Attention
Sliding Window Attention beschränkt Attention auf ein bewegliches Fenster nahegelegener Tokens anstatt der vollständigen Sequenz, was Compute und Memory-Kosten reduziert.
Slot Filling
Extraktion spezifischer Parameter aus Nutzeräußerungen für Conversational AI.
Small Language Model
Ein Small Language Model (SLM) ist ein vergleichsweise kleineres LLM, das für niedrigere Latenz, niedrigere Kosten und einfacheres Deployment entwickelt wurde – oft für enge Tasks oder als Teil eines gerouteten Systems.
Soft Prompt
Ein Soft Prompt ist eine gelernte Vektor-Repräsentation (anstatt menschlich geschriebener Text), die verwendet wird, um das Verhalten eines Modells zu steuern – oft trainiert als kleine Menge von Prompt-Embeddings.
Softmax
Funktion, die Logits in Wahrscheinlichkeitsverteilung umwandelt.
Solomonoff Induktion
Solomonoff Induktion ist ein theoretisches Framework für optimale Vorhersage, das Bayessche Inferenz mit algorithmischer Komplexität kombiniert und Hypothesen nach ihrer Einfachheit bei der Datenbeschreibung gewichtet.
Sora 2
Die zweite Generation von OpenAI's Text-zu-Video-Modell mit verbesserter Qualität, längeren Clips und realistischerer Physik-Simulation.
Source Attribution
Source Attribution zeigt explizit an, woher Informationen stammen (Dokumente, URLs, interne Systeme), oft via Zitate oder Links.
Source Grounding
Source Grounding ist das Einschränken eines KI-Systems, seine Antworten auf bereitgestellten Quellen zu basieren (abgerufene Dokumente, Tools oder genehmigte Referenzen) anstatt auf unverifiziertem Modellwissen.
Sparse Attention
Sparse Attention reduziert Attention-Berechnung, indem Tokens nur auf eine Teilmenge anderer Tokens achten dürfen (gemusterte oder gelernte Sparsity).
Sparse Autoencoder
Ein Sparse Autoencoder (SAE) ist ein Autoencoder, der mit einem Sparsity-Constraint trainiert wird, sodass nur eine kleine Teilmenge von Features für jeden gegebenen Input aktiviert.
Sparse Retrieval
Sparse Retrieval verwendet Sparse-Repräsentationen (oft term-frequency-basiert) wie BM25, um Dokumente per lexikalischem Match abzurufen.
Speaker Diarization
Speaker Diarization identifiziert "wer wann sprach" in einer Audio-Aufnahme, indem Audio in speaker-gelabelte Turns segmentiert wird.
Speculative Decoding
Speculative Decoding beschleunigt LLM-Generierung, indem ein kleineres "Draft"-Modell Tokens vorschlägt, die ein größeres Modell dann in Batches verifiziert/akzeptiert.
Speech-to-Text (STT)
Technologie zur Umwandlung von gesprochener Sprache in geschriebenen Text – die Basis für Sprachassistenten und Transkription.
Speech-to-Text (STT)
Speech-to-Text (STT) konvertiert gesprochenes Audio in geschriebenen Text unter Verwendung von Automatic Speech Recognition (ASR) Modellen.
State Space Models (SSMs)
State Space Models (SSMs) sind Sequenz-Modelle, die einen latenten "State" aufrechterhalten, der sich über Zeit entwickelt, um sequentielle Daten effizient zu verarbeiten.
Statefulness
Statefulness beschreibt, ob ein System Informationen über Interaktionen hinweg behält (stateful) oder jeden Request unabhängig behandelt (stateless).
Steering Vector
Ein Steering Vector ist eine Richtung im internen Repräsentationsraum eines Modells, die, wenn zu Aktivierungen addiert oder angewendet, Outputs zu oder weg von bestimmten Verhaltensweisen oder Attributen verzerren kann.
Stochastic Parrot
Stochastic Parrot ist ein Kritik-Framing, das hervorhebt, wie LLMs flüssigen Text durch Pattern-Matching aus Training-Daten generieren können ohne echtes Verständnis – Bedenken über Bias, Misinformation und Misuse aufwerfend.
Stop Sequence
Eine Stop Sequence ist ein Token-/String-Muster, das einem Modell sagt, die Generierung zu stoppen, wenn es auftritt.
Streaming ASR
Streaming ASR transkribiert Sprache in Near-Real-Time, während Audio ankommt, anstatt nach Abschluss der vollständigen Aufnahme.
STRIPS
STRIPS ist ein klassischer Planungsformalismus, bei dem Aktionen durch Vorbedingungen und Effekte (Add/Delete-Listen) über symbolische Zustandsprädikate definiert werden.
Structured Output
Structured Output ist das Erzwingen, dass das Modell Outputs in einer vordefinierten Struktur produziert (JSON, YAML, Abschnitte mit strikten Überschriften), oft mit Validierung durchgesetzt.
Style Transfer
Style Transfer modifiziert ein Bild (oder Text), um einem Zielstil zu entsprechen, während der Kerninhalt erhalten bleibt.
Subject Consistency
Die Fähigkeit eines KI-Bildgenerators, Charaktere und Objekte über mehrere Bilder hinweg konsistent darzustellen.
Summarization
Summarization ist das Generieren einer kürzeren Repräsentation von Content bei Beibehaltung der Schlüsselbedeutung – extraktiv (Teile auswählen) oder abstraktiv (neu schreiben).
Superposition
Superposition in neuronalen Netzwerken beschreibt, wie mehrere Features in überlappenden Richtungen innerhalb eines limitiert-dimensionalen Raums repräsentiert werden können, anstatt ein Feature pro Neuron.
SWE-Bench
Ein Benchmark, der LLMs testet, indem sie echte Bug-Reports aus GitHub-Repositories lösen müssen – der realistischste Test für AI-Coding-Fähigkeiten.
Sycophancy
Sycophancy ist ein LLM-Verhalten, bei dem das Modell den geäußerten Überzeugungen oder falschen Prämissen des Users übermäßig zustimmt, anstatt sie zu korrigieren.
Synthetic Data
Synthetische Daten sind künstlich generierte Daten, die zum Training, Testen oder Evaluieren von Systemen verwendet werden, wenn echte Daten knapp, sensibel oder teuer sind.
System Prompt
Ein System Prompt ist die höchstpriorisierte Instruktionsebene, die die Rolle, Grenzen und Policies des Modells für eine Session definiert.
T
Technologische Singularität
Ein hypothetischer Punkt, an dem technologischer Fortschritt (insbesondere KI) so schnell und tiefgreifend wird, dass er die menschliche Zivilisation grundlegend und unvorhersehbar verändert.
Temperature
Ein Parameter, der die Zufälligkeit in der LLM-Ausgabe kontrolliert.
Temporal Graph Network
Ein GNN für zeitlich veränderliche Graphen, das die Evolution von Knoten und Kanten über die Zeit modelliert.
Text-to-Image
Text-to-Image ist die Generierung von Bildern aus Text-Prompts mittels generativer Modelle (häufig diffusionsbasiert oder transformerbasiert).
Text-to-Speech (TTS)
Technologie zur Umwandlung von geschriebenem Text in natürlich klingende Sprache – heute meist mit neuronalen Modellen.
Textgenerierung
Text Generation ist die automatische Erstellung von Text durch KI-Modelle, typischerweise basierend auf einem Prompt oder Kontext.
Tiefensuche (DFS)
Tiefensuche (DFS) durchläuft einen Graphen, indem sie einem Pfad so tief wie möglich folgt, bevor sie zurückgeht.
Tokenisierung
Die Aufteilung von Text in kleinere Einheiten (Tokens) für die Verarbeitung durch NLP-Modelle.
Top-k Sampling
Ein Sampling-Parameter, der die Auswahl auf die k wahrscheinlichsten Tokens beschränkt, unabhängig von deren absoluten Wahrscheinlichkeiten.
Top-p (Nucleus Sampling)
Ein Sampling-Parameter, der nur aus den wahrscheinlichsten Tokens auswählt, deren kumulative Wahrscheinlichkeit p nicht überschreitet.
Transfer Learning
Die Nutzung von Wissen, das bei einer Aufgabe gelernt wurde, um die Leistung bei einer verwandten Aufgabe zu verbessern.
Transformer
Eine neuronale Netzwerkarchitektur, die Self-Attention nutzt, um Beziehungen zwischen allen Positionen in einer Sequenz zu modellieren.
Tree of Thoughts (ToT)
Prompting-Strategie, bei der das LLM mehrere Reasoning-Pfade parallel verfolgt, bewertet und den besten auswählt – wie ein Entscheidungsbaum für Gedankenketten.
Triplet Loss
Eine Loss-Funktion für Metric Learning, die Anchor, Positive und Negative nutzt, um Embeddings so zu trainieren, dass Ähnliche näher und Verschiedene weiter entfernt sind.
Trust & Safety
Trust & Safety ist die Praxis des Schutzes von Benutzern, Plattformen und Marken vor schädlichen Inhalten, Missbrauch und unsicheren Outcomes – durch Policy, Enforcement und Product Design.
TruthfulQA
Ein Benchmark, der testet, ob LLMs populäre Falschinformationen und Verschwörungstheorien vermeiden.
U
U-Net
U-Net ist eine Netzwerkarchitektur für Image Segmentation mit Encoder-Decoder-Struktur und Skip Connections.
Ultra-Long Context Window
Ein ultra-langes Context Window ist die Fähigkeit, sehr große Input-Kontexte zu akzeptieren (zehn- oder hunderttausende Tokens).
Uncertainty Quantification (UQ)
UQ schätzt, wie unsicher ein Modell über einen Output ist.
Uncertainty-Aware Routing
Uncertainty-Aware Routing wählt Workflows basierend auf Unsicherheitssignalen (Low-Confidence → tieferes Retrieval).
Underfitting
Underfitting passiert, wenn ein Modell zu einfach ist, um Muster zu erfassen – schlechte Performance auf Training und Test.
Uniform Information Density
Prompt-Prinzip: "Importance per Token" konsistent halten, Low-Value-Text vermeiden.
Unintended Memorization
Unintended Memorization: Modelle behalten spezifische Training-Beispiele und können sie reproduzieren.
Universal Embeddings
Universal Embeddings: General-Purpose-Repräsentationen für viele Domains ohne domain-spezifisches Training.
Unlearning (Machine Unlearning)
Machine Unlearning entfernt den Einfluss spezifischer Training-Daten aus einem Modell (Privacy, Compliance).
Untrusted Input Handling
Controls, die externe/user-provided Content als potenziell malicious behandeln.
Unüberwachtes Lernen
ML-Paradigma, bei dem das Modell Muster in ungelabelten Daten findet.
V
VAE (Variational Autoencoder)
VAE steht für Variational Autoencoder, ein generatives Modell, das einen probabilistischen latenten Raum für Sampling und Generierung lernt.
Value Alignment
Value Alignment stellt sicher, dass das Verhalten eines KI-Systems zuverlässig mit beabsichtigten menschlichen/organisatorischen Werten und Constraints übereinstimmt (Sicherheit, Fairness, Wahrheitssuche, Datenschutz).
Value of Information (VoI)
Value of Information (VoI) quantifiziert, wie viel Nutzen man durch das Einholen zusätzlicher Informationen vor einer Entscheidung gewinnt.
Vanishing Gradient
Vanishing Gradient ist ein Trainingsproblem, bei dem Gradienten extrem klein werden während sie rückwärts durch ein Netzwerk propagieren, was das Lernen in frühen Schichten verlangsamt oder verhindert.
Variational Autoencoder (VAE)
Ein Variational Autoencoder (VAE) ist ein generatives Modell, das einen probabilistischen latenten Raum lernt, der Sampling und Generierung neuer Daten ermöglicht.
Veo 3
Googles Video-Generierungsmodell der dritten Generation mit nativem Audio, längeren Clips und verbesserter Physik.
Verification
Prüfung, ob LLM-Outputs korrekt, faktisch und quellengestützt sind.
Verification-First Policy
Eine Verification-First Policy erfordert, dass KI-Outputs und High-Impact-Actions definierte Verification-Checks passieren bevor sie Nutzern gezeigt oder ausgeführt werden.
Verifikationsschicht
Eine Verifikationsschicht ist eine Systemkomponente, die prüft, ob ein KI-Output oder eine Aktion die erforderlichen Korrektheit-, Sicherheits-, Policy- und Formatierungsanforderungen erfüllt, bevor sie geliefert oder ausgeführt wird.
Verlustfunktion
Eine mathematische Funktion, die misst, wie gut oder schlecht die Vorhersagen eines Modells sind.
Video AI
Video AI umfasst KI-Technologien zur automatischen Analyse, Generierung, Bearbeitung und Optimierung von Videoinhalten.
Vision Transformer (ViT)
Ein Vision Transformer (ViT) wendet Transformer-Architekturen auf Bilder an, indem er sie als Sequenzen von Patch-Embeddings repräsentiert.
Vision-Language Model (VLM)
Ein Vision-Language Model (VLM) verarbeitet sowohl Bilder als auch Text, um Aufgaben wie Bildverständnis, Captioning, Dokument-Q&A und multimodales Reasoning durchzuführen.
Vorwärtsverkettung
Eine Inferenzstrategie, die von bekannten Fakten ausgeht und Regeln anwendet, um neue Fakten abzuleiten, bis das Ziel erreicht ist.
VQ-VAE
VQ-VAE ist eine Variante von VAE, die Vector Quantization verwendet, um diskrete latente Repräsentationen über ein gelerntes Codebook zu lernen.
W
Warm Start
Ein Warm Start initialisiert Training oder Optimierung von einem zuvor gelernten Zustand (Gewichte, Embeddings oder Parameter) anstatt von Null zu starten.
Watermarking
Watermarking ist das Hinzufügen eines erkennbaren Signals zu Inhalten (Text, Bild, Audio, Video), um Herkunft, Authentizität oder Provenienz anzuzeigen – oft verwendet um KI-generierte Ausgaben zu kennzeichnen.
Weak Supervision
Weak Supervision nutzt imperfekte, verrauschte oder indirekte Signale (Heuristiken, Regeln, entfernte Labels) um Trainingslabels zu erstellen statt manueller Annotation.
Weakly Supervised Learning
Weakly Supervised Learning trainiert Modelle mit Weak-Supervision-Signalen (verrauschte Labels, partielle Labels, aggregierte Labels) statt vollständig zuverlässiger Labels.
Weavy
KI-Video-Plattform mit node-basiertem Editor für komplexe Generative-Video-Workflows und Multi-Model-Pipelines.
Web Browsing Tool
Ein Web-Browsing-Tool ist eine KI-Tool-Integration, die Live-Webseiten oder Suchergebnisse abruft, um Fragen mit aktuellen Informationen zu beantworten.
Web Grounding
Die Fähigkeit eines KI-Modells, in Echtzeit auf Websuche-Ergebnisse zuzugreifen, um aktuelle und faktisch korrekte Inhalte zu generieren.
Weight Decay
Weight Decay ist eine Regularisierungstechnik, die große Gewichte während des Trainings entmutigt, oft als L2-Regularisierung oder entkoppelter Weight Decay (z.B. in AdamW) implementiert.
Weltmodell
Eine interne Repräsentation der Umwelt in einem KI-System, die es ermöglicht, Vorhersagen über zukünftige Zustände und die Auswirkungen von Aktionen zu machen.
WER (Word Error Rate)
Word Error Rate (WER) misst die Spracherkennungsgenauigkeit als Anteil von Substitutionen, Löschungen und Einfügungen um ein Transkript in die Ground Truth zu transformieren.
Whisper
Ein Open-Source-Spracherkennungsmodell von OpenAI, das auf 680.000 Stunden multilingualen Audio trainiert wurde.
Windowed Attention
Windowed Attention beschränkt Attention auf ein lokales Token-Fenster statt der vollen Sequenz, reduziert Rechenaufwand und ermöglicht längere Kontexte.
WinoGrande
Ein Benchmark für pronominale Referenzauflösung, bei dem kleine Wortänderungen die korrekte Antwort ändern.
Wissensdestillation
Übertragung von Wissen eines großen Modells (Teacher) auf ein kleineres Modell (Student).
Wissensverfolgung
Wissensverfolgung modelliert die sich entwickelnde Beherrschung von Fähigkeiten eines Lernenden über die Zeit anhand seiner Interaktionen (Antworten, Versuche, Zeit, Hinweise).
Word2Vec
Word2Vec ist eine Technik zur Erzeugung von Worteinbettungen (Word Embeddings), die Wörter als dichte Vektoren darstellt, wobei semantisch ähnliche Wörter ähnliche Vektoren haben.
Wort-Embedding
Eine dichte Vektorrepräsentation eines Wortes, die seine semantische Bedeutung kodiert.
X
x-Vector
Ein x-Vector ist eine Art von Speaker-Embedding, das in der Sprachverarbeitung verwendet wird, um Sprecher-Identitätsmerkmale in einem Vektor fester Länge darzustellen.
XAI (Explainable AI)
Explainable AI (XAI) ist die Menge von Methoden und Praktiken, um die Ausgaben eines KI-Systems verständlicher zu machen – zu zeigen, warum eine Vorhersage, Empfehlung oder Entscheidung getroffen wurde.
Xavier Initialization (Glorot Initialization)
Xavier (Glorot) Initialization ist eine Gewichts-Initialisierungsmethode, die entwickelt wurde, um Aktivierungen und Gradienten in einem gesunden Bereich zu halten.
XGBoost
XGBoost (Extreme Gradient Boosting) ist ein hochperformanter Ensemble-Learning-Algorithmus, der Gradient Boosting mit Entscheidungsbäumen für überlegene Vorhersagegenauigkeit kombiniert.
XLM (Cross-lingual Language Model)
XLM bezeichnet Cross-lingual Language Modeling-Ansätze und Modell-Familien, die entwickelt wurden, um mehrere Sprachen in einem gemeinsamen Embedding-Raum darzustellen.
XLM-R (Cross-lingual RoBERTa)
XLM-R ist eine mehrsprachige Transformer-Modell-Familie, die oft für cross-linguale Verständnis-Aufgaben verwendet wird (Classification, NER, Semantic Similarity).
XLNet
XLNet ist ein Transformer-basierter Language Model-Ansatz, der permutationsbasiertes Training verwendet um bidirektionalen Kontext bei Beibehaltung autoregressiver Eigenschaften zu erfassen.
XOR-Problem
Das XOR-Problem ist ein klassisches Beispiel, das zeigt, dass ein einzelner linearer Klassifizierer Daten, die nicht linear separierbar sind, nicht trennen kann.
Z
ZeRO (Zero Redundancy Optimizer)
ZeRO ist eine Reihe von Techniken zum effizienten Training sehr großer Modelle durch Partitionierung von Optimizer-States, Gradienten und Parametern über Geräte – Reduzierung von Memory-Redundanz.
Zero-Shot Classification
Zero-Shot Classification weist Text Labels zu, ohne einen aufgabenspezifischen Klassifikator zu trainieren, meist durch natürlichsprachige Label-Beschreibungen.
Zero-Shot Learning
Zero-Shot Learning ist, wenn ein Modell eine Aufgabe ausführt, für die es nicht explizit mit aufgabenspezifischen gelabelten Beispielen trainiert wurde – basierend auf Generalisierung aus dem Pretraining.
Zero-Shot Prompting
Zero-Shot Prompting ist das Prompting eines Modells mit Anweisungen und Einschränkungen ohne explizite Beispiele.
Zero-Shot vs Few-Shot
Zero-Shot verwendet keine Beispiele; Few-Shot inkludiert eine kleine Anzahl von Beispielen im Prompt, um das Verhalten zu steuern.
ZKML (Zero-Knowledge Machine Learning)
ZKML bezieht sich auf die Anwendung von Zero-Knowledge Proof-Techniken auf Machine Learning, sodass Eigenschaften über ML-Inferenz/Training bewiesen werden können, ohne sensitive Inputs oder Model-Interna preiszugeben.
Begriff nicht gefunden?
Durchsuchen Sie das gesamte Glossar mit über 1407 Begriffen aus allen Kategorien.
Gesamtes Glossar ansehen