Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    KI-Begriffe A-Z

    Entdecken Sie die wichtigsten Begriffe der Künstlichen Intelligenz – von Machine Learning über Deep Learning bis hin zu Large Language Models. Jeder Begriff wird verständlich erklärt und mit praktischen Beispielen aus dem Marketing illustriert.

    Machine Learning
    Deep Learning
    Large Language Models
    Neural Networks
    Prompt Engineering
    Computer Vision
    646 Begriffe in Künstliche Intelligenz

    A

    A*-Suche (A-Star Search)

    A* (sprich: "A-Stern") ist ein klassischer Suchalgorithmus, der den kürzesten Pfad zwischen einem Start- und Zielknoten in einem Graphen findet, indem er pro Knoten die Gesamtkosten f(n) = g(n) + h(n) minimiert — die Summe aus tatsächlichen Pfadkosten und einer geschätzten Restdistanz (Heuristik).

    Abductive Logic Programming (ALP)

    Ein Framework in der logischen Programmierung, das bestimmte Prämissen unspezifiziert lässt und plausible Erklärungen für Beobachtungen ableitet.

    Abduktives Schlussfolgern

    Eine Form der logischen Schlussfolgerung, die von einer Beobachtung ausgeht und die einfachste und wahrscheinlichste Erklärung dafür sucht.

    Ablation

    In der KI-Forschung bezeichnet Ablation das Entfernen oder Deaktivieren einer Komponente eines Systems, um deren Auswirkung auf die Gesamtleistung zu bewerten.

    Active Learning

    ML-Strategie, bei der das Modell die informativsten Samples zum Labeln auswählt.

    Adam Optimizer

    Adaptiver Optimierungsalgorithmus mit Momentum und adaptiven Lernraten.

    Adaptiver Algorithmus

    Ein Algorithmus, der sein Verhalten oder seine Parameter als Reaktion auf die Probleminstanz oder Umgebung während der Ausführung ändert.

    Adaptives Lernen

    Eine Bildungsmethodik (oft mit KI implementiert), die Lerninhalte und -tempo an die individuellen Bedürfnisse und Leistungen jedes Lernenden anpasst.

    Adaptives Neuro-Fuzzy-Inferenzsystem (ANFIS)

    Ein hybrides System, das neuronale Netze und Fuzzy-Logik kombiniert, um aus Daten zu lernen und dabei menschenähnliches Reasoning anzuwenden.

    Admissible Heuristik (Admissible Heuristic)

    Eine Heuristik h(n) heißt admissible (zulässig), wenn sie die tatsächlichen Restkosten vom Knoten n bis zum Ziel niemals überschätzt — sie liefert also stets eine optimistische untere Schranke. Diese Eigenschaft garantiert, dass Suchalgorithmen wie A* einen optimalen Pfad finden.

    AgentBench

    Ein Benchmark zur Bewertung von LLM-Agenten in 8 verschiedenen interaktiven Umgebungen wie Webseiten, Datenbanken, Spielen und Operating Systems.

    Agenten-Architektur

    Die zugrunde liegende Struktur und Komponenten eines intelligenten Agentensystems, die beschreibt, wie der Agent intern organisiert ist.

    Agentic AI

    KI-Systeme, die autonom Ziele verfolgen, Entscheidungen treffen und Aktionen in der realen Welt ausführen können.

    Agentic RAG

    Agentic RAG ist eine Weiterentwicklung von Retrieval-Augmented Generation, bei der ein KI-Agent dynamisch entscheidet, wann, welche und wie viele Quellen er abfragt — anstatt einer starren Retrieval-Pipeline mit fester Top-k-Vektorsuche zu folgen.

    AI Agent (KI-Agent)

    Ein autonomes Software-System, das KI nutzt, um Aufgaben selbstständig zu planen und auszuführen.

    AI Slop

    Abwertender Begriff für minderwertige, massenhaft produzierte KI-generierte Inhalte, die das Internet überschwemmen und keinen echten Mehrwert bieten.

    AI Watermarking

    Techniken zum Einbetten unsichtbarer Markierungen in KI-generierte Inhalte, um deren Herkunft nachweisen und Deepfakes erkennen zu können.

    Aider Polyglot Benchmark

    Coding-Benchmark, der LLMs auf realen Multi-File-Edits in mehreren Programmiersprachen testet.

    Aktionsauswahl

    Der Prozess, durch den ein intelligenter Agent entscheidet, welche Aktion als nächstes ausgeführt werden soll.

    Aktionsmodell-Lernen

    Ein Machine-Learning-Ansatz, der einem KI-Agenten ermöglicht, die Ergebnisse und Anforderungen seiner Aktionen in einer Umgebung zu lernen.

    Aktionssprache

    Eine formale Sprache zur Beschreibung von Zustandsänderungen in einem System – wie Aktionen den Zustand der Welt über die Zeit beeinflussen.

    Aktivierungsfunktion

    Eine mathematische Funktion in neuronalen Netzen, die den Output eines Neurons basierend auf seinen Inputs bestimmt.

    Algorithmische Effizienz (Algorithmic Efficiency)

    Algorithmische Effizienz misst, wie sparsam ein Algorithmus mit Rechenzeit, Speicher und Energie umgeht – typischerweise ausgedrückt in Big-O-Notation für Skalierungsverhalten.

    Algorithmische Wahrscheinlichkeit

    Ein theoretisches Maß, das einer Beobachtung eine Wahrscheinlichkeit zuweist, basierend auf allen möglichen Algorithmen, die diese Beobachtung erzeugen könnten.

    Alpha-Beta Pruning

    Eine Optimierungstechnik für den Minimax-Algorithmus, die Teile des Spielbaums abschneidet, ohne das Ergebnis zu ändern.

    Ameisenkolonie-Optimierung

    Eine probabilistische Optimierungstechnik, inspiriert vom Verhalten von Ameisen bei der Futtersuche und ihrer Nutzung von Pheromonspuren.

    Anytime-Algorithmus (Anytime Algorithm)

    Ein Anytime-Algorithmus ist ein Algorithmus, der nach jeder Zwischenstufe eine valide, wenn auch noch nicht optimale, Lösung zurückliefern kann — und mit zusätzlicher Rechenzeit die Lösungsqualität monoton verbessert.

    Approximationsfehler

    Die Differenz zwischen einem exakten, wahren Wert und einem approximativen Wert, der von einem Algorithmus oder Modell verwendet oder erhalten wird.

    ARC (AI2 Reasoning Challenge)

    Ein Multiple-Choice-Benchmark mit Naturwissenschafts-Fragen auf Grundschul- und Mittelstufenniveau in Easy und Challenge Sets.

    ARC-AGI-2

    Benchmark der ARC Prize Foundation, der die generelle Reasoning-Fähigkeit von KI-Systemen anhand abstrakter Muster misst.

    Assessment

    Assessment ist die Messung von Wissen, Skills oder Performance – verwendet um aktuelle Fähigkeiten zu diagnostizieren, Feedback zu geben und Lernergebnisse zu zertifizieren.

    Attention Mechanism

    Neuronales Netzwerk-Modul, das relevante Teile der Eingabe gewichtet.

    Attributioneller Kalkül

    Ein logisches Framework, das Prädikatenlogik mit mehrwertiger (Fuzzy-)Logik kombiniert, um Attribute von Entitäten lesbar darzustellen.

    Audio Generation

    Die Erzeugung von Audio-Inhalten durch KI-Modelle – von Musik über Soundeffekte bis hin zu Sprache und Ambient-Sounds.

    Autoencoder

    Ein neuronales Netzwerk, das eine komprimierte Repräsentation (Encoding) von Eingabedaten lernt und die Originaldaten daraus rekonstruiert.

    Automatisiertes Machine Learning (AutoML)

    Der Prozess der Automatisierung des End-to-End-Prozesses der Anwendung von Machine Learning, einschließlich Datenvorverarbeitung, Modellauswahl und Hyperparameter-Tuning.

    Automatisiertes Planen (Automated Planning)

    Automatisiertes Planen ist das KI-Teilgebiet, das Algorithmen entwickelt, um aus einem Startzustand, einem Zielzustand und einer Menge möglicher Aktionen automatisch eine Sequenz von Aktionen (einen Plan) zu finden, die das Ziel erreicht.

    AutoML

    AutoML automatisiert Teile des Machine-Learning-Lifecycles wie Modellselektion, Feature-Preprocessing, Hyperparameter-Tuning und Validierung.

    B

    Backpropagation

    Ein Algorithmus zur Berechnung von Gradienten in neuronalen Netzen, der die Fehler rückwärts durch das Netz propagiert, um Gewichte anzupassen.

    Backtracking

    Eine algorithmische Technik, die systematisch alle möglichen Lösungen durchsucht und bei Sackgassen zum letzten Entscheidungspunkt zurückkehrt.

    Bagging

    Ein Ensemble-Lernverfahren, das mehrere Modelle auf Bootstrap-Samples trainiert und deren Vorhersagen aggregiert.

    Batch Size

    Anzahl der Trainingsbeispiele pro Gradient-Update.

    Batch-Normalisierung

    Eine Technik zur Normalisierung der Eingaben jeder Schicht eines neuronalen Netzes über einen Mini-Batch, um das Training zu stabilisieren.

    Bayessche Optimierung

    Bayessche Optimierung ist ein Ansatz zur Optimierung teurer Black-Box-Funktionen (z.B. Modell-Hyperparameter) mittels eines probabilistischen Surrogatmodells und einer Acquisition-Funktion.

    Beam Search

    Beam Search ist ein heuristischer Suchalgorithmus, der pro Suchschritt nur die k besten Teil-Lösungen ("Beam Width") weiterverfolgt — ein Kompromiss zwischen erschöpfender Breitensuche (hohe Qualität, hoher Aufwand) und Greedy-Suche (niedrige Qualität, niedriger Aufwand).

    BERT

    BERT (Bidirectional Encoder Representations from Transformers) ist ein von Google entwickeltes Sprachmodell, das Text bidirektional verarbeitet und tiefes Kontextverständnis ermöglicht.

    BERT (Google)

    Googles Transformer-Modell für bidirektionales Sprachverständnis.

    BERTScore

    Eine semantische Evaluationsmetrik, die BERT-Embeddings nutzt, um Ähnlichkeit zwischen generiertem und Referenztext zu messen.

    BGE Embedding

    BGE (BAAI General Embedding) ist eine Familie von Open-Source-Embedding-Modellen der Beijing Academy of AI, die Top-Ergebnisse auf MTEB erreichen.

    Bi-Encoder

    Eine Encoder-Architektur, die Query und Dokument unabhängig voneinander in Embeddings transformiert – ermöglicht schnelle Ähnlichkeitssuche über vorberechnete Vektoren.

    Bias (KI-Bias)

    Systematische Verzerrungen in KI-Systemen, die zu unfairen oder ungenauen Ergebnissen für bestimmte Gruppen führen können.

    Bias-Varianz-Tradeoff

    Fundamentales ML-Dilemma zwischen Underfitting (High Bias) und Overfitting (High Variance).

    BIG-Bench

    Ein kollaborativer Benchmark mit 200+ Tasks, erstellt von 400+ Forschern, um LLM-Fähigkeiten jenseits existierender Benchmarks zu testen.

    Bildgenerierung

    Image Generation ist die automatische Erstellung von Bildern durch KI-Modelle basierend auf Text-Prompts, anderen Bildern oder anderen Inputs.

    Bildsegmentierung

    Die Aufteilung eines Bildes in bedeutungsvolle Regionen oder Objekte auf Pixelebene.

    BLEU Score

    Metrik zur automatischen Bewertung von Übersetzungsqualität.

    Boosting

    Ein Ensemble-Lernverfahren, das schwache Lerner sequenziell kombiniert, um einen starken Klassifikator zu erstellen.

    Breitensuche (BFS)

    Breitensuche (BFS) durchläuft einen Graphen Ebene für Ebene und erkundet alle Nachbarn eines Knotens, bevor sie tiefer geht.

    C

    Chatbot

    Ein Softwareprogramm, das Konversationen mit Menschen simuliert, typischerweise über Text- oder Sprachschnittstellen.

    Chatbot Arena

    Ein öffentliches Elo-basiertes Leaderboard, bei dem User blind zwischen zwei LLMs wählen – der wichtigste Benchmark für LLM-Ranking.

    ChatGPT

    Ein konversationelles KI-System, das auf großen Sprachmodellen basiert und menschenähnliche Antworten auf Benutzeranfragen generiert.

    ChatGPT Agent

    Autonomer Modus von ChatGPT, der mehrstufige Aufgaben im Browser, in Apps und in Dateien selbstständig ausführt.

    Chinchilla Optimal

    Die Erkenntnis, dass für compute-optimales LLM-Training die Anzahl der Trainings-Tokens proportional zur Parameterzahl skalieren sollte.

    Claude Computer Use

    Fähigkeit von Claude, einen Desktop-Computer zu bedienen: Maus, Tastatur, Screenshots und Anwendungen wie ein menschlicher Nutzer.

    Claude Cowork

    Kollaborativer Multi-User-Modus von Claude für gemeinsame Projektarbeit mit geteiltem Kontext und Rollenverteilung.

    Claude Design

    Visueller Design-Modus von Claude für UI-Mockups, Brand-Asset-Generierung und Layout-Iteration über natürliche Sprache.

    Claude Opus 4.6

    Anthropics Flaggschiff-LLM 2026 mit erweitertem Reasoning, 1M-Token-Kontext und nativen Computer-Use-Fähigkeiten.

    Claude Skills

    Modulares System von Anthropic, das wiederverwendbare Fähigkeiten (Prompt + Tools + Daten) für Claude bündelt.

    CLIP (Contrastive Language–Image Pretraining)

    Ein multimodaler Modellansatz, der abgestimmte Repräsentationen von Bildern und Text lernt durch Training auf passenden Bild-Text-Paaren.

    Clustering

    Eine unüberwachte Lerntechnik, die Datenpunkte so in Gruppen (Cluster) einteilt, dass Elemente im selben Cluster ähnlicher zueinander sind.

    Codex 5.3

    OpenAIs spezialisiertes Coding-Modell 2026 für agentische Software-Entwicklung und Long-Running-Tasks in Repositories.

    Cohere Embed

    Coheres kommerzielle Embedding-API mit spezieller Optimierung für Retrieval und Unterscheidung zwischen Query- und Document-Embeddings.

    ColBERT

    ColBERT ist eine Late-Interaction-Retrieval-Architektur, die Token-Level-Embeddings für Query und Dokument erstellt und erst bei der Suche durch MaxSim aggregiert.

    Cold-Start-Problem

    Das Problem, wenn ein System unzureichende Daten über einen neuen Nutzer, ein neues Item oder einen neuen Kontext hat.

    Computer Vision

    Das KI-Teilgebiet, das Computern das Verstehen und Interpretieren visueller Informationen ermöglicht.

    Content-Based Filtering

    Empfehlungen basierend auf Eigenschaften von Items, die ein Nutzer mochte.

    Context Engineering

    Die Praxis des Designs, der Auswahl und Strukturierung der Informationen, die ein LLM erhält, um zuverlässigere und relevantere Outputs zu erzeugen.

    Context Window

    Der Teil des Textes (Tokens), den ein LLM nutzt, um seinen nächsten Output zu generieren, typischerweise bestehend aus Anweisungen und Konversationshistorie.

    Contextual Bandit

    Ein Entscheidungsalgorithmus, der unter Nutzung aktueller Kontextmerkmale zwischen Aktionen wählt, während er aus Feedback lernt.

    Contrastive Learning

    Ein Ansatz zum Repräsentationslernen, der Modelle trainiert, ähnliche Paare näher zusammen und unähnliche Paare weiter auseinander im Embedding-Raum zu platzieren.

    Convolutional Neural Network (CNN)

    Eine neuronale Netzwerkarchitektur, die Faltungsoperationen nutzt, um hierarchische Feature-Repräsentationen aus Bildern zu lernen.

    Cross-Encoder

    Eine Encoder-Architektur, die Query und Dokument gemeinsam verarbeitet und einen Relevanz-Score ausgibt – präziser als Bi-Encoder, aber langsamer.

    Cross-Entropy Loss

    Verlustfunktion für Klassifikationsaufgaben basierend auf Informationstheorie.

    Curriculum Learning

    Trainingsstrategie, bei der Samples in einer sinnvollen Reihenfolge präsentiert werden – von einfach zu schwer, ähnlich wie ein Lehrplan.

    Custom GPT

    Auf einen spezifischen Use Case zugeschnittener GPT mit eigenem Prompt, Wissensbasis und Tool-Set, gehostet bei OpenAI.

    D

    Datenerweiterung

    Techniken zur künstlichen Erweiterung von Trainingsdaten durch Transformationen.

    Decoder

    Der Teil eines Modells, der eine komprimierte Repräsentation zurück in das ursprüngliche Format transformiert.

    Decoding-Strategie

    Die Methode, die verwendet wird, um die Token-Wahrscheinlichkeitsverteilung eines Modells in eine tatsächliche Ausgabesequenz umzuwandeln.

    Deduktives Schlussfolgern

    Eine Form der logischen Schlussfolgerung, bei der aus allgemeinen Prämissen spezifische Schlüsse gezogen werden – wenn die Prämissen wahr sind, ist die Konklusion garantiert wahr.

    Deep Learning

    Ein Teilgebiet des maschinellen Lernens, das tiefe neuronale Netze mit vielen Schichten nutzt, um komplexe Muster aus Daten zu lernen.

    Deep Reinforcement Learning

    Reinforcement Learning, das tiefe neuronale Netze verwendet, um Policies zu lernen, die Aktionen zur Maximierung langfristiger Belohnungen wählen.

    DeepSeek

    Chinesisches KI-Startup, das leistungsstarke Open-Source Sprachmodelle entwickelt und mit deutlich geringeren Kosten mit westlichen Anbietern konkurriert.

    DeepSeek R1

    Ein Open-Source Reasoning-Modell von DeepSeek, das bei komplexen Denk- und Coding-Aufgaben mit GPT-4 und Claude konkurriert.

    DeepSeek V4

    Open-Weight-Flaggschiff von DeepSeek, das mit 1/10 der Trainingskosten westlicher Modelle vergleichbare Benchmarks erreicht.

    DeepWalk

    Ein Graph-Embedding-Algorithmus, der Random Walks auf Graphen mit Word2Vec kombiniert, um Knotenrepräsentationen zu lernen.

    Default Reasoning

    Default Reasoning zieht Schlüsse unter Verwendung von 'Defaults', die in typischen Fällen gelten, während Ausnahmen bei neuen Informationen erlaubt sind.

    Dekodierung

    Der Prozess der Umwandlung kodierter Daten oder Signale zurück in ihre ursprüngliche oder nutzbare Form, in ML speziell die Token-für-Token-Generierung von Ausgaben.

    Denoising

    Denoising ist der Prozess der Rauschentfernung aus einem Signal; in Diffusions-Modellen ist es die iterative Transformation von verrauschten Latents zu einem sauberen Sample.

    Dense Passage Retrieval (DPR)

    Ein Retrieval-Ansatz, der Bi-Encoder-Embeddings für Query und Passagen nutzt – die Grundlage moderner semantischer Suche.

    Dense Retrieval

    Retrieval-Methode, die dichte Vektorrepräsentationen (Embeddings) nutzt, um semantisch ähnliche Dokumente zu finden.

    Dialogue Management

    Komponente eines Conversational AI-Systems, die den Gesprächsfluss steuert.

    Diffusion Model

    Diffusion Models sind generative KI-Modelle, die lernen, Rauschen schrittweise aus Daten zu entfernen, um hochwertige Samples (Bilder, Audio, Video) zu erzeugen.

    Disclosure UX

    Disclosure UX ist die Menge an Interface-Patterns, die wichtige Systemfakten transparent an Benutzer kommunizieren (z.B. KI-Beteiligung, Limitationen, Datennutzung, Konfidenz und Provenance).

    Diskriminierung in KI (Algorithmic Discrimination)

    Diskriminierung in KI bezeichnet die systematische Benachteiligung bestimmter Personengruppen durch algorithmische Entscheidungssysteme – häufig als Folge verzerrter Trainingsdaten oder unausgewogener Modellarchitekturen.

    DPO (Direct Preference Optimization)

    Eine vereinfachte Alternative zu RLHF, die Modelle direkt auf Präferenz-Daten optimiert, ohne separates Reward Model oder RL-Training.

    DROP

    Ein Reading-Comprehension-Benchmark, der numerisches Reasoning über Textpassagen erfordert (Zählen, Sortieren, Arithmetik).

    Dropout

    Eine Regularisierungstechnik, die zufällig Neuronen während des Trainings deaktiviert.

    E

    E5 Embedding

    E5 ist eine Familie von Embedding-Modellen von Microsoft Research, die durch Text-to-Text-Contrastive-Training erstellt werden.

    Early Stopping

    Regularisierungstechnik, die Training beendet wenn Validation-Loss steigt.

    Elo Rating

    Ein Bewertungssystem zur Messung relativer Fähigkeiten, ursprünglich aus dem Schach – jetzt Standard für LLM-Leaderboards.

    Embedding

    Ein Embedding ist eine dichte Vektor-Repräsentation diskreter Daten (Wörter, Bilder, Nutzer, Produkte), bei der semantisch ähnliche Objekte im Vektorraum nahe beieinander liegen.

    Embeddings

    Vektorrepräsentationen von Daten (Wörter, Sätze, Bilder) in einem niedrigdimensionalen Raum, die semantische Ähnlichkeit erfassen.

    Emergent Abilities

    Fähigkeiten, die bei LLMs erst ab einer bestimmten Modellgröße plötzlich erscheinen, ohne bei kleineren Modellen beobachtbar zu sein.

    Encoder

    Der Teil eines Modells, der Eingabedaten in eine komprimierte Repräsentation transformiert.

    Encoder-Decoder

    Architektur, die Eingabe in eine Repräsentation kodiert und daraus Ausgabe dekodiert.

    Ensemble Learning

    Die Kombination mehrerer Modelle, um bessere Vorhersagen zu erzielen als jedes einzelne Modell allein.

    Entity Extraction

    Die automatische Identifizierung und Klassifizierung benannter Entitäten in Text.

    Entscheidungsbaum

    Ein ML-Modell, das Entscheidungen als Baumstruktur mit Verzweigungen basierend auf Feature-Werten darstellt.

    Entscheidungsfindung

    Entscheidungsfindung ist der Prozess der Auswahl einer Aktion (oder Nicht-Aktion) unter Alternativen basierend auf Zielen, Evidenz, Einschränkungen und Unsicherheit.

    Entscheidungstheorie

    Die Entscheidungstheorie untersucht, wie Agenten unter Unsicherheit Entscheidungen treffen sollten, oft durch Maximierung des erwarteten Nutzens unter Constraints.

    Epoche (Epoch) im Machine Learning

    Eine Epoche bezeichnet im Machine Learning einen vollständigen Durchlauf eines Lernalgorithmus durch den gesamten Trainingsdatensatz — also die Situation, in der jedes Trainingsbeispiel genau einmal verwendet wurde, um die Modellgewichte zu aktualisieren.

    Erklärbare KI (XAI)

    Erklärbare KI (XAI) umfasst Methoden und Produktpraktiken, die KI-Outputs verständlich, nachvollziehbar und auditierbar machen.

    Erklärbarkeit

    Die Fähigkeit, die Entscheidungen oder Vorhersagen eines KI-Modells für Menschen verständlich zu machen.

    Evaluation Harness

    Ein Framework zur systematischen Bewertung von Modell-Performance über verschiedene Metriken und Testfälle.

    Explainability UX Patterns

    Explainability UX Patterns sind Interface-Muster, die Benutzern helfen zu verstehen, warum ein KI-System ein Ergebnis erzeugt hat, welche Evidenz es verwendet hat und welche Aktionen es durchgeführt (oder verweigert) hat.

    Explainable AI (XAI)

    KI-Systeme, deren Entscheidungsprozesse für Menschen nachvollziehbar und interpretierbar sind.

    G

    G-Eval

    Ein LLM-Evaluation-Framework, das Chain-of-Thought-Reasoning und gewichtete Wahrscheinlichkeiten für nuanciertere Bewertungen nutzt.

    Gaussian Mixture Model (GMM)

    Ein probabilistisches Modell, das Daten als Mischung von Gauß-Verteilungen darstellt.

    Gemeinsame Verteilung

    Die Wahrscheinlichkeitsverteilung, die die Wahrscheinlichkeit von Kombinationen mehrerer Zufallsvariablen beschreibt.

    Gemini 3.1 Pro

    Googles Flaggschiff-LLM 2026 mit nativ multimodaler Architektur und 2M-Token-Kontext.

    Gemma 4

    Open-Weight-Modellfamilie von Google für On-Device- und Edge-Inferenz mit Größen von 2B bis 27B Parametern.

    Generalisierung

    Die Fähigkeit eines Modells, auf neuen, ungesehenen Daten gut zu performen.

    Generative Adversarial Network (GAN)

    Architektur mit zwei konkurrierenden Netzwerken zur Generierung realistischer Daten.

    Generative AI

    KI-Modelle, die neue Inhalte erstellen – Text, Bilder, Audio, Code oder strukturierte Daten.

    GloVe

    GloVe (Global Vectors for Word Representation) ist ein Worteinbettungsverfahren, das globale Kookkurrenz-Statistiken eines Textkorpus nutzt, um semantische Wortvektoren zu erzeugen.

    Governance

    Governance ist die Menge an Rollen, Regeln, Prozessen und Kontrollen, die sicherstellen, dass ein System verantwortungsvoll und vorhersehbar genutzt wird – ausgerichtet auf Risiko, Compliance und Geschäftsziele.

    GPQA

    Ein Benchmark mit 448 Experten-Level-Fragen aus Physik, Biologie und Chemie, die so schwer sind, dass auch PhDs ohne Expertise nur 30% erreichen.

    GPQA Diamond

    Hochanspruchsvoller Wissenschafts-Benchmark mit Fragen auf Promotionsniveau in Biologie, Physik und Chemie.

    GPT (Generative Pre-trained Transformer)

    Eine Familie von großen Sprachmodellen von OpenAI, die auf der Transformer-Architektur basieren.

    GPT-5.4

    OpenAIs Flaggschiff-LLM 2026 mit Thinking-Mode, multimodaler Verarbeitung und Agent-Native-Architektur.

    Gradientenabstieg

    Ein Optimierungsalgorithmus, der iterativ Parameter in Richtung des steilsten Abstiegs der Verlustfunktion anpasst.

    Graph Attention Network

    Eine GNN-Architektur, die Attention-Mechanismen nutzt, um die Wichtigkeit von Nachbarknoten adaptiv zu gewichten.

    Graph Classification

    Die Aufgabe, einen gesamten Graphen einer Klasse zuzuordnen, basierend auf seiner Struktur und Knoteneigenschaften.

    Graph Convolutional Network

    Eine GNN-Variante, die Faltungsoperationen auf Graphen verallgemeinert, um Knotenrepräsentationen zu lernen.

    Graph Isomorphism Network

    Ein GNN mit maximaler Diskriminierungskraft unter Message-Passing-Architekturen, theoretisch fundiert durch den Weisfeiler-Leman-Test.

    Graph Neural Network

    Eine Klasse neuronaler Netze, die direkt auf Graphstrukturen operieren und Knoten-, Kanten- und Grapheigenschaften lernen.

    Graph Transformer

    Eine Architektur, die Transformer-Attention auf Graphstrukturen anwendet und globale Knoten-Interaktionen ermöglicht.

    GraphSAGE

    Ein induktives GNN-Framework, das durch Sampling und Aggregation von Nachbarschaften skalierbare Knotenrepräsentationen lernt.

    Graphsuche

    Graphsuche ist der Prozess des Erkundens eines Graphen, um einen Zielknoten, einen Pfad oder eine optimale Lösung unter einem definierten Ziel (z.B. kürzester Pfad, niedrigste Kosten) zu finden.

    Greedy Best-First Search

    Eine Suchstrategie, die den Knoten erweitert, der dem Ziel am nächsten erscheint, basierend nur auf einem heuristischen Score h(n), ohne die bisherigen Kosten zu berücksichtigen.

    Greedy Decoding

    Eine Decoding-Strategie, die immer das Token mit der höchsten Wahrscheinlichkeit wählt – deterministisch, aber oft repetitiv.

    Greedy-Algorithmus

    Ein Algorithmus, der in jedem Schritt die lokal optimale Wahl trifft.

    Ground Truth

    Die tatsächlichen, korrekten Daten oder Labels, die als Referenz für Modelltraining und -evaluation dienen.

    Grounding

    Die Verknüpfung von KI-Outputs mit realen, verifizierbaren Fakten und Quellen.

    GRU (Gated Recurrent Unit)

    Eine vereinfachte RNN-Architektur mit Gates zur Kontrolle des Informationsflusses.

    GSM8K

    Ein Benchmark mit 8.500 Grundschul-Matheaufgaben, die mehrstufiges Reasoning erfordern.

    Guardrails

    Sicherheitsmechanismen, die KI-Systeme daran hindern, schädliche, unangemessene oder fehlerhafte Outputs zu produzieren.

    Guidance Scale

    Guidance Scale ist ein Parameter (häufig in Classifier-Free Guidance), der kontrolliert, wie stark ein Diffusions-Modell dem Text-Prompt folgt versus diversere Outputs generiert.

    H

    Halluzination

    Wenn ein LLM Informationen generiert, die nicht durch den Input-Kontext oder verlässliche Quellen gestützt sind.

    Halluzinationsrate

    Der Prozentsatz der KI-generierten Ausgaben, die nicht durch Fakten oder Quellen gestützte Informationen enthalten.

    HellaSwag

    Ein Benchmark für Common-Sense-Reasoning, bei dem LLMs die plausibelste Fortsetzung eines Szenarios wählen müssen.

    HELM

    Ein umfassendes Evaluations-Framework von Stanford, das LLMs auf Dutzenden von Dimensionen wie Accuracy, Fairness, Robustness und Efficiency gleichzeitig bewertet.

    Heterogener Graph

    Ein Graph mit verschiedenen Typen von Knoten und/oder Kanten, der unterschiedliche Entitätsarten und Beziehungen modelliert.

    Heuristik

    Eine praktische Bewertungsregel oder Schätzung, die Suche oder Entscheidungsfindung zu vielversprechenden Optionen leitet, ohne Optimalität zu garantieren.

    Heuristische Suche

    Heuristische Suche ist eine Familie von Suchalgorithmen, die eine Heuristik (eine leitende Schätzung) nutzen, um einen Problemraum effizienter zu erkunden als uninformierte Suche.

    High-Level Representation

    Eine High-Level Representation abstrahiert Rohdaten in bedeutungsvollere Strukturen (Symbole, Konzepte, latente Variablen oder Zusammenfassungen).

    HNSW

    Hierarchical Navigable Small World – ein Graph-basierter Algorithmus für effiziente Approximate Nearest Neighbor Search.

    Human Evaluation

    Die Bewertung von KI-Outputs durch menschliche Annotatoren – der Gold-Standard für Qualitätsmessung, aber teuer und langsam.

    Human-in-the-Loop

    Ein KI-Design-Ansatz, bei dem Menschen aktiv in den Entscheidungs- oder Trainingsprozess eines KI-Systems eingebunden werden.

    HumanEval

    Ein Benchmark für Code-Generierung mit 164 Python-Programmieraufgaben, evaluiert durch Pass@k (Code muss Tests bestehen).

    Hybrid Search

    Kombination von Keyword-Retrieval (BM25) mit Vector-Retrieval (Embeddings) für bessere Suchergebnisse.

    Hybrides KI-System

    Ein hybrides KI-System kombiniert mehrere KI-Paradigmen—typischerweise symbolische/regelbasierte Methoden mit statistischen/ML-Modellen (einschließlich LLMs).

    Hyperparameter

    Konfigurationseinstellungen, die vor dem Training gewählt werden und beeinflussen, wie ein Modell lernt.

    Hyperparameter-Optimierung

    Der systematische Prozess der Suche nach den besten Hyperparameter-Einstellungen für ein ML-Modell.

    Hypothesengenerierung

    Hypothesengenerierung ist das Produzieren von Kandidaten-Erklärungen (oder Kandidaten-Lösungen), die beobachtete Evidenz plausibel erklären könnten.

    I

    IFEval

    Ein Benchmark, der testet, wie gut LLMs explizite Format-Anweisungen befolgen (z.B. "Antworte in genau 3 Absätzen", "Beginne jeden Satz mit einem Großbuchstaben").

    Image Captioning

    Automatische Generierung von Textbeschreibungen für Bilder.

    Image-to-Image

    Modelle, die ein Eingabebild in ein modifiziertes oder transformiertes Ausgabebild umwandeln.

    ImageBind

    Metas multimodales Embedding-Modell, das sechs Modalitäten (Bild, Text, Audio, Video, Tiefe, Thermal) in einem gemeinsamen Vektorraum vereint.

    Imitationslernen

    Ein ML-Ansatz, bei dem ein Agent lernt, indem er Expertenverhalten beobachtet und nachahmt.

    In-Context Learning

    Die Fähigkeit von LLMs, aus Beispielen im Prompt zu lernen, ohne die Modellgewichte zu ändern.

    Induktives Schlussfolgern

    Eine Form der logischen Schlussfolgerung, bei der aus spezifischen Beobachtungen allgemeine Regeln oder Muster abgeleitet werden – die Konklusion ist wahrscheinlich, aber nicht garantiert.

    Inferenz

    Die Nutzung eines trainierten Modells, um Vorhersagen auf neuen, ungesehenen Daten zu machen.

    Inferenzmaschine

    Die Kernkomponente eines Expertensystems, die logische Regeln auf eine Wissensbasis anwendet, um neue Fakten abzuleiten oder Entscheidungen zu treffen.

    Information Retrieval

    Das Finden relevanter Dokumente oder Informationen aus einer großen Sammlung.

    Inpainting

    Das Auffüllen fehlender oder maskierter Bereiche in einem Bild mit plausiblem Inhalt.

    Instruction Tuning

    Fine-Tuning eines LLM auf Instruction-Response-Paaren, um Anweisungen besser zu befolgen.

    Instructor Embedding

    Ein Embedding-Modell, das task-spezifische Instruktionen im Prompt nutzt, um Embeddings für verschiedene Aufgaben zu optimieren.

    Intelligentes Tutorsystem

    Ein Intelligentes Tutorsystem (ITS) ist ein KI-gesteuertes Lernsystem, das Unterricht, Feedback und Übungen auf die Bedürfnisse des Lernenden personalisiert.

    Intent Recognition

    KI-Fähigkeit, die Absicht hinter einer Nutzeräußerung zu erkennen.

    Intent-Klassifikation

    Die Bestimmung der Absicht oder des Ziels hinter einer Benutzeranfrage.

    Interpretierbarkeit

    Der Grad, zu dem Menschen verstehen können, wie ein Modell zu seinen Entscheidungen kommt.

    Inverses Reinforcement Learning

    Das Ableiten der Reward-Funktion aus beobachtetem Expertenverhalten.

    IPO

    Eine Alignment-Methode, die DPO erweitert, um stabileres Training zu ermöglichen.

    Iterative Vertiefung

    Iterative Vertiefung ist eine Suchstrategie, die wiederholt tiefenbeschränkte Suche mit steigenden Tiefenlimits ausführt, bis eine Lösung gefunden oder ein Budget erschöpft ist.

    Iteratives Prompting

    Ein Prompt-Ansatz, bei dem Ergebnisse verfeinert werden durch mehrere aufeinanderfolgende Prompts.

    K

    K-Armed Bandit

    Das K-Armed Bandit Problem modelliert die Auswahl zwischen k Optionen, um Reward zu maximieren und Exploration vs Exploitation zu balancieren.

    K-Fold Cross-Validation

    K-Fold Cross-Validation ist eine Evaluationsmethode, bei der Daten in k Teile geteilt werden; das Modell trainiert auf k−1 Folds und wird auf dem verbleibenden getestet.

    K-Means Clustering

    K-Means ist ein unüberwachter Algorithmus, der Daten in k Cluster partitioniert, indem Within-Cluster-Distanz zu Zentroiden minimiert wird.

    K-Means++

    K-Means++ ist eine Initialisierungsmethode für K-Means, die Startcentroide wählt, um Konvergenz und Cluster-Qualität zu verbessern.

    K-Shot Prompting

    K-Shot Prompting stellt k Beispiele im Prompt bereit, um das Modellverhalten zu steuern (Format, Reasoning-Pattern, Ton).

    Kalibrierung

    Der Prozess, die Vorhersagewahrscheinlichkeiten eines Modells so anzupassen, dass sie tatsächliche Ereigniswahrscheinlichkeiten widerspiegeln.

    Kernel (ML)

    In ML ist ein Kernel eine Funktion, die Ähnlichkeit zwischen Datenpunkten misst und Algorithmen in implizit hochdimensionalen Feature-Räumen operieren lässt.

    Kernel Trick

    Der Kernel-Trick erlaubt Algorithmen, Dot-Products in einem implizit höherdimensionalen Raum zu berechnen, ohne die Daten explizit zu transformieren.

    KI-Ethik

    Das Feld und die Praxis, die sich damit befasst, dass KI-Systeme moralisch verantwortungsvoll, fair und sicher entwickelt und eingesetzt werden.

    KI-vollständig

    Ein Problem wird als KI-vollständig bezeichnet, wenn dessen maschinelle Lösung im Wesentlichen allgemeine menschliche Intelligenz erfordern würde.

    Klassifikation

    Ein überwachter ML-Algorithmus, der Daten in vordefinierte Kategorien oder Klassen einteilt.

    KNN (k-Nearest Neighbors)

    KNN ist eine Methode, die Outcomes basierend auf den k ähnlichsten Beispielen in einem Datensatz vorhersagt.

    KNN Search

    KNN Search retrievet die k nächsten Vektoren zu einem Query-Vektor unter einer Distanz-Metrik.

    Knowledge Base (KB)

    Eine Knowledge Base ist ein kuratiertes Repository von Informationen (Artikel, FAQs, Policies), designed für Retrieval und Wiederverwendung.

    Knowledge Cutoff

    Knowledge Cutoff ist der Zeitpunkt, nach dem die Trainingsdaten eines Modells keine neuen Informationen mehr enthalten.

    Knowledge Distillation

    Training eines kleineren Modells (Student) durch ein größeres Modell (Teacher).

    Knowledge Graph Embedding

    Methoden, die Entitäten und Relationen eines Knowledge Graphs in einen niedrigdimensionalen Vektorraum einbetten.

    Kollaboratives Filtern

    Ein Empfehlungsansatz, der die Präferenzen eines Nutzers basierend auf dem Verhalten ähnlicher Nutzer oder Ähnlichkeiten zwischen Items vorhersagt.

    Kreuzvalidierung

    Eine Technik zur Bewertung der Modell-Performance durch Training und Test auf verschiedenen Datenteilmengen.

    KTO (Kahneman-Tversky Optimization)

    Eine Alignment-Methode, die nur binäres Feedback (gut/schlecht) statt paarweiser Präferenzen benötigt, inspiriert von Prospect Theory.

    Künstliche Allgemeine Intelligenz

    Eine hypothetische Form von KI, die menschenähnliche kognitive Fähigkeiten über alle Domänen hinweg besitzt und selbstständig lernen und sich anpassen kann.

    Künstliches Neuronales Netz (Artificial Neural Network)

    Ein Künstliches Neuronales Netz (ANN) ist ein vom biologischen Gehirn inspiriertes Rechenmodell aus Schichten verbundener Neuronen, das durch Anpassung von Gewichten lernen kann, komplexe Muster aus Daten zu extrahieren.

    KV Cache (Key-Value Cache)

    KV Cache speichert Attention Key/Value Tensoren von vorherigen Tokens während Transformer Inference, um Neuberechnung zu vermeiden.

    L

    L1 Regularization (Lasso)

    L1-Regularisierung fügt eine Strafe hinzu, die proportional zum absoluten Wert der Modellgewichte ist und Sparsität fördert (viele Gewichte werden genau null).

    L2 Regularization (Ridge)

    L2-Regularisierung fügt eine Strafe hinzu, die proportional zum Quadrat der Modellgewichte ist und kleinere Gewichte fördert.

    Label Leakage (Datenleck der Zielvariable)

    Label Leakage beschreibt den Fall, dass im Trainingsdatensatz eines Machine-Learning-Modells Features enthalten sind, die direkte oder indirekte Information über die zu vorhersagende Zielvariable (das Label) enthalten — und in der Produktion zum Vorhersagezeitpunkt gar nicht verfügbar wären.

    Label Smoothing

    Label Smoothing ist eine Trainingstechnik, die harte Labels (0 oder 1) durch leicht abgeschwächte Ziele ersetzt (z.B. 0.9 und 0.1).

    Längenstrafe

    Eine Decoding-Anpassung, die verhindert, dass Generierungsalgorithmen (insbesondere Beam Search) übermäßig kurze Sequenzen unfair bevorzugen.

    Language Model (LM)

    Ein Language Model ist ein Modell, das die Wahrscheinlichkeit von Token-Sequenzen schätzt und Tasks wie Prediction, Generation und Classification ermöglicht.

    Large Language Model (LLM)

    Ein großes neuronales Netzwerk, das auf riesigen Textmengen trainiert wurde, um menschenähnlichen Text zu verstehen und zu generieren.

    Large Language Model (LLM)

    Ein großes neuronales Netzwerk, das auf massiven Textmengen trainiert wurde und menschenähnlichen Text verstehen und generieren kann.

    Late Interaction

    Ein Retrieval-Paradigma, bei dem Query- und Dokument-Tokens unabhängig encodiert werden, aber erst bei der Suche über Token-Level-Ähnlichkeit interagieren.

    Latent Variable

    Eine latente Variable ist eine unbeobachtete Variable, die aus beobachteten Daten abgeleitet wird, um verborgene Strukturen zu erklären.

    Latenter Raum

    Ein komprimierter, niedrigdimensionaler Raum, in dem ein Modell interne Repräsentationen von Daten speichert.

    Layer Normalization

    Layer Normalization ist eine Technik, die Aktivierungen innerhalb eines Layers normalisiert, um Training in tiefen Netzwerken zu stabilisieren.

    Learning Rate Schedule

    Ein Learning Rate Schedule ändert die Lernrate während des Trainings (Warmup, Decay, Cosine, Step, Exponential).

    Learning-to-Rank (LTR)

    Learning-to-Rank trainiert Modelle, Ergebnisse (Dokumente, Produkte, Antworten) nach Relevanz für eine Anfrage zu ordnen.

    Lernrate

    Ein Hyperparameter, der bestimmt, wie stark die Modellgewichte bei jedem Trainingsschritt angepasst werden.

    Lernziele

    Lernziele sind klare, messbare Aussagen darüber, was ein Lernender nach der Instruktion können sollte.

    LIME

    LIME (Local Interpretable Model-agnostic Explanations) erklärt eine einzelne Modellvorhersage, indem ein einfaches, interpretierbares Surrogat-Modell um diesen spezifischen Input herum angepasst wird.

    Link Prediction

    Die Aufgabe, fehlende oder zukünftige Kanten in einem Graphen vorherzusagen.

    LiveCodeBench

    Kontaminationsfreier Coding-Benchmark, der laufend neue Programmieraufgaben aus Wettbewerben einbindet.

    LLM-as-a-Judge

    LLM-as-a-Judge nutzt ein Modell, um andere Modell-Outputs gegen Rubrics wie Correctness, Groundedness, Style und Safety zu evaluieren.

    LLM-as-Judge

    Eine Evaluationsmethode, bei der ein LLM die Qualität von Outputs eines anderen (oder desselben) Modells bewertet.

    LLMOps

    Die operative Disziplin des End-to-End-Aufbaus, Deployments und Governings LLM-basierter Systeme – Prompts, Retrieval, Tools, Evaluation, Safety und Kosten.

    LMSYS

    LMSYS (Large Model Systems Organization) ist eine Forschungsorganisation, die das bekannte Chatbot Arena Benchmark betreibt und LLM-Leistungsvergleiche durch menschliche Bewertungen ermöglicht.

    Log-Likelihood

    Log-Likelihood ist der Logarithmus der Likelihood, die ein probabilistisches Modell beobachteten Daten zuweist.

    Log-Sum-Exp

    Log-Sum-Exp ist ein numerischer Trick, um log(∑ᵢ eˣⁱ) stabil ohne Overflow/Underflow zu berechnen.

    Logit

    Ein Logit ist der rohe, unnormalisierte Score, den ein Modell vor der Konvertierung zu Wahrscheinlichkeiten (z.B. via Softmax) ausgibt.

    Logit Bias

    Logit Bias ist eine Technik, um die Wahrscheinlichkeit bestimmter Tokens während der Generierung zu erhöhen oder zu verringern.

    Long Context

    Long Context bezieht sich auf die Fähigkeit eines LLM, eine große Anzahl von Input-Tokens (längeres Context Window) in einer einzelnen Anfrage zu akzeptieren und zu nutzen.

    LoRA vs Full Fine-Tuning

    Ein Vergleich zwischen der Anpassung eines Modells via LoRA-Adapter versus dem Update aller Parameter (Full Fine-Tuning).

    M

    Mamba

    Mamba ist eine neuronale Netzwerkarchitektur, die auf selektiven State Space Models (SSMs) basiert und für effizientes Modellieren langer Sequenzen mit linearer Skalierung konzipiert ist.

    Manus AI

    Ein autonomer General-Purpose AI-Agent, der komplexe Aufgaben wie Recherche, Coding und Datenanalyse selbstständig ausführen kann.

    Maschinelles Lernen

    Ein Teilgebiet der KI, bei dem Systeme aus Daten lernen, um Vorhersagen oder Entscheidungen zu treffen, ohne explizit programmiert zu werden.

    Masked Language Modeling (MLM)

    MLM ist ein Trainings-Objective, bei dem ein Modell maskierte Tokens in einer Textsequenz vorhersagt (z.B. Wörter durch ein spezielles [MASK]-Token ersetzen).

    Mastery Learning

    Mastery Learning ist ein Instruktionsansatz, bei dem Lernende erst fortschreiten, nachdem sie Beherrschung eines Skills oder Objectives demonstriert haben, mit gezielter Remediation bei Bedarf.

    MATH Benchmark

    Ein Benchmark mit 12.500 Wettbewerbs-Mathematikproblemen (von Algebra bis Zahlentheorie), der fortgeschrittenes mathematisches Reasoning testet.

    Matrixfaktorisierung

    Eine Technik zur Zerlegung einer Matrix in das Produkt kleinerer Matrizen.

    Matryoshka Embedding

    Ein Embedding-Training-Ansatz, bei dem die ersten N Dimensionen eines Vektors bereits nutzbar sind – ermöglicht flexible Kompression ohne Qualitätsverlust.

    Matryoshka Representation Learning (MRL)

    Matryoshka Representation Learning (MRL) ist ein Embedding-Ansatz, der Informationen auf mehreren Granularitäten kodiert, sodass ein einzelnes Embedding auf kleinere Dimensionen gekürzt werden kann, während es für nachgelagerte Aufgaben nützlich bleibt.

    Max Tokens

    Ein API-Parameter, der die maximale Anzahl der Tokens begrenzt, die ein LLM in einer Antwort generieren kann.

    MBPP

    Ein Benchmark mit 974 einfachen Python-Programmieraufgaben, die grundlegende Programmierfähigkeiten von LLMs testen.

    Mechanistic Interpretability

    Mechanistic Interpretability ist der Versuch, neuronale Netzwerke durch Identifizierung interner Mechanismen (Features, Circuits, Algorithmen) zu reverse-engineeren, die Outputs produzieren.

    Message Passing Neural Network

    Ein vereinheitlichendes Framework für GNNs, bei dem Knoten Nachrichten von Nachbarn empfangen, aggregieren und ihre Repräsentation aktualisieren.

    Meta-Learning

    Meta-Learning ("Lernen zu lernen") zielt darauf ab, Modelle oder Systeme zu trainieren, die sich schnell an neue Tasks mit begrenzten Daten oder wenigen Beispielen anpassen.

    Metaprompt

    Ein Metaprompt ist ein höherstufiger Prompt, der die Regeln, Struktur und Constraints für die Generierung anderer Prompts oder einer ganzen Klasse von Outputs definiert.

    METEOR

    Eine Evaluationsmetrik für maschinelle Übersetzung, die unigram-Matching mit Stemming, Synonymen und Wortstellung kombiniert.

    Metric Learning

    Metric Learning trainiert Modelle, eine Distanzfunktion (Embedding-Raum) zu erlernen, bei der "ähnliche Elemente nah beieinander" und "unähnliche Elemente weit voneinander entfernt" sind.

    Minimale Beschreibungslänge

    Minimale Beschreibungslänge (MDL) ist ein Prinzip für Modellauswahl, das das Modell bevorzugt, das die kürzeste Gesamtbeschreibung von Modell plus den unter ihm kodierten Daten liefert.

    Mixed Precision Training

    Mixed Precision Training verwendet eine Mischung aus niedrigerer Präzision (z.B. FP16/BF16) und Single-Precision (FP32) Repräsentationen, um das Training zu beschleunigen und dabei Genauigkeit zu erhalten.

    Mixture of Experts (MoE)

    MoE ist eine Modell-Architektur, bei der verschiedene "Expert"-Sub-Netzwerke spezialisiert sind und ein Router auswählt, welche Experten jedes Token/jeden Input behandeln.

    MLCommons

    Industrie-Konsortium, das offene Benchmarks (MLPerf), Datensätze und Best Practices für ML-Performance entwickelt.

    MMLU (Massive Multitask Language Understanding)

    Ein Multi-Choice-Benchmark mit 57 Fachgebieten (STEM, Humanities, Social Sciences) zur Messung von LLM-Weltwissen.

    MMLU-Pro

    Erweiterter MMLU-Benchmark mit anspruchsvolleren Multiple-Choice-Fragen und reduziertem Rate-Vorteil.

    MMR (Maximal Marginal Relevance)

    MMR ist eine Retrieval-Diversifizierungsmethode, die Items auswählt, die sowohl relevant zur Query als auch nicht-redundant zueinander sind.

    Model Card

    Eine Model Card ist ein standardisiertes Dokumentationsartefakt, das die beabsichtigte Verwendung, Limitierungen, Training Data Context, Evaluationsergebnisse und ethische/Safety-Erwägungen eines Modells beschreibt.

    Model Collapse

    Model Collapse ist ein Degradations-Phänomen, bei dem Training auf synthetischen/modell-generierten Daten (besonders wiederholt) Diversity und Qualität reduzieren kann, wodurch das Modell zu engeren Outputs "kollabiert".

    Model Compression

    Techniken zur Reduzierung der Größe von ML-Modellen bei erhaltener Leistung.

    Model Drift

    Model Drift ist Performance-Degradation über die Zeit durch Änderungen in Datenverteilungen, Nutzerverhalten, Umgebung oder Upstream-Systemen.

    Model Monitoring

    Kontinuierliche Überwachung der Performance und des Verhaltens von ML-Modellen in Produktion.

    Model Simplification

    Model Simplification reduziert Komplexität um Interpretierbarkeit, Effizienz, Robustheit oder Deployment-Machbarkeit zu verbessern.

    Model Spec

    Ein Model Spec ist eine schriftliche Spezifikation, die beschreibt, wie sich ein Modell verhalten soll – einschließlich beabsichtigtem Verhalten, Constraints und Prinzipien – oft zur Steuerung von Training, Alignment und Deployment-Policy verwendet.

    Model-Based Learning

    Model-Based Learning lernt ein Modell der Umgebung (Dynamiken) und nutzt es für Planung, Vorhersage oder Kontrolle.

    Monte Carlo Dropout (MC Dropout)

    Monte Carlo Dropout schätzt Modell-Unsicherheit, indem Dropout zur Inferenz-Zeit aktiv gehalten und mehrere stochastische Forward Passes durchgeführt werden, deren Ergebnisse dann aggregiert werden.

    MT-Bench

    Ein Multi-Turn-Konversations-Benchmark für LLMs mit 80 Fragen in 8 Kategorien, bewertet durch GPT-4-as-Judge.

    MTEB

    Der Massive Text Embedding Benchmark – ein umfassender Benchmark für Text-Embedding-Modelle über 56+ Datensätze in 8 Aufgaben.

    Multi-Armed Bandit

    Ein Algorithmus für sequenzielle Entscheidungsfindung, der Exploration und Exploitation balanciert.

    Multi-Objective Optimization

    Multi-Objective Optimization (Pareto Optimization) ist Optimierung mit mehreren Zielen, die oft konfligieren, wobei Sie typischerweise Pareto-optimale Lösungen statt eines einzelnen Optimums suchen.

    Multi-Turn Conversation

    Eine Multi-Turn Conversation ist eine Interaktion, bei der Kontext und Intent sich über mehrere Austausche entwickeln statt einer einzelnen Query-Response.

    Multimodal

    KI-Systeme, die mehrere Datentypen (Text, Bild, Audio, Video) gleichzeitig verarbeiten und verstehen können.

    Multimodal AI

    KI-Systeme, die mehrere Modalitäten (Text, Bild, Audio, Video) verarbeiten können.

    Multimodal Model

    Ein Multimodal Model kann über mehrere Datentypen (z.B. Text, Bilder, Audio, Video) hinweg verarbeiten und/oder generieren.

    Multimodale KI

    KI-Systeme, die Text, Bild, Audio und Video gemeinsam verarbeiten und in beliebigen Modalitäten antworten können.

    N

    N-gram Blocking

    N-gram Blocking ist ein Decoding Constraint, der verhindert, dass ein Modell ein N-gram (Sequenz von N Tokens) generiert, das bereits im generierten Text erschienen ist.

    N-Shot Prompting

    N-Shot Prompting stellt N Beispiele im Prompt bereit, um dem Modell das gewünschte Muster beizubringen (0-shot = nur Anweisungen; few-shot = kleines N).

    N+1 Tool Call Problem

    Das N+1 Tool Call Problem tritt auf, wenn ein KI-Workflow einen initialen Tool Call macht und dann N zusätzliche Tool Calls (oft einen pro Retrieved Item), was unnötige Latenz und Kosten verursacht.

    Named Entity Canonicalization

    Entity Canonicalization ist die Standardisierung verschiedener Surface Forms derselben Entity in eine kanonische Repräsentation (z.B. "OpenAI Inc.", "OpenAI", "Open AI").

    Named Entity Linking (NEL)

    Named Entity Linking verbindet eine Entity-Mention in Text (z.B. "OpenAI", "Apple", "Paris") mit einer spezifischen kanonischen Entity ID in einer Knowledge Base.

    Named Entity Recognition (NER)

    Die Identifikation und Klassifikation von benannten Entitäten in Text (Personen, Orte, Organisationen).

    Named Entity Recognition (NER)

    NLP-Aufgabe zur Identifikation und Klassifikation benannter Entitäten in Text.

    Nano Banana

    Codename für Googles Bildbearbeitungs-Modell (Gemini 2.5 Flash Image), das pixelgenaue Edits per Prompt ermöglicht.

    Nano Banana 2

    Googles KI-Bildgenerierungsmodell der zweiten Generation, basierend auf Gemini 3.1 Flash Image, das Pro-Qualität mit Flash-Geschwindigkeit kombiniert.

    Narrow AI

    Narrow AI (auch "Weak AI") ist KI, die entwickelt wurde, um eine spezifische Aufgabe oder einen begrenzten Satz von Aufgaben auszuführen, anstatt allgemeines Reasoning über Domains.

    Natural Gradient

    Natural Gradient ist ein Optimierungsansatz, der die Geometrie des Parameterraums berücksichtigt und oft zu effizienteren Schritten als Standard Gradient Descent in einigen probabilistischen Modellen führt.

    Natural Language Generation

    Natural Language Generation (NLG) ist der Prozess, menschlich lesbaren Text aus Daten, Intention oder internen Repräsentationen (Regeln, Templates oder neuronale Modelle) zu produzieren.

    Natural Language Processing (NLP)

    Der Bereich der KI, der sich mit der Interaktion zwischen Computern und menschlicher Sprache befasst.

    Natural Questions

    Ein Question-Answering-Benchmark von Google mit echten Suchanfragen und Wikipedia-Artikeln als Antwortquellen.

    Negative Gewichte

    Negative Gewichte sind negative Kantenkosten in einem gewichteten Graphen (d.h. eine Aktion/Transition reduziert die Gesamtkosten).

    Negative Prompting

    Negative Prompting ist das explizite Sagen an ein generatives Modell, was vermieden werden soll (Content, Stil, Formatierung, Claims) während der Generierung.

    Negative Transfer

    Negative Transfer tritt auf, wenn Wissenstransfer von einem vortrainierten Modell oder Source Task die Performance auf dem Target Task verschlechtert.

    Negativer Zyklus

    Ein negativer Zyklus ist ein Zyklus in einem gewichteten Graphen, dessen Gesamtgewicht negativ ist, was es ermöglicht, Pfadkosten durch Schleifen unbegrenzt zu reduzieren.

    NeRF (Neural Radiance Fields)

    NeRFs sind neuronale Methoden zur Repräsentation von 3D-Szenen, die eine Funktion lernen, die räumliche Koordinaten und Blickrichtung auf Farbe und Dichte mappt, um Novel View Synthesis zu ermöglichen.

    Neural Architecture Search

    Automatische Suche nach optimalen neuronalen Netzwerk-Architekturen.

    Neural Code Search

    Neural Code Search ruft relevante Code-Snippets oder Files mithilfe von Embeddings und semantischem Matching ab, anstatt exakter Keyword-Suche.

    Neural Collapse

    Neural Collapse ist ein Phänomen in deep Classifiers gegen Ende des Trainings, bei dem gelernte Representations und Classifier Weights eine hochstrukturierte Geometry aufweisen (Klassen werden eng geclustert und symmetrisch angeordnet).

    Neural Embeddings

    Neural Embeddings sind gelernte Vektor-Repräsentationen von Items (Text, User, Produkte, Dokumente), sodass Distanz im Vektorraum Ähnlichkeit widerspiegelt.

    Neural Index Rebuild

    Ein Neural Index Rebuild ist das Re-Generieren von Embeddings und Neuaufbauen von Vector (oder Hybrid) Indexes nach Änderungen an Content, Chunking oder dem Embedding Model.

    Neural Indexing

    Neural Indexing verwendet gelernte Repräsentationen und neuronale Methoden, um einen Index für Retrieval zu bauen oder zu optimieren.

    Neural IR (Neural Information Retrieval)

    Neural IR ist die Verwendung neuronaler Modelle (Embeddings, Cross-Encoder, Reranker) zum Abrufen und Ranken von Dokumenten basierend auf semantischer Relevanz.

    Neural Ordinary Differential Equation (Neural ODE)

    Neural ODEs modellieren Transformationen als kontinuierliche Zeitdynamiken, definiert durch ein neuronales Netzwerk, was bestimmte Effizienz- und Modellierungseigenschaften ermöglicht.

    Neural Pruning

    Neural Pruning entfernt Gewichte, Neuronen, Attention Heads oder ganze Strukturen aus einem Modell, um Compute/Memory zu reduzieren während Performance erhalten bleibt.

    Neural Reranking

    Neural Reranking verwendet ein Modell (oft einen Cross-Encoder), um einen ersten Satz abgerufener Kandidaten basierend auf tieferem Query-Kandidat-Verständnis neu zu bewerten und zu ordnen.

    Neural Retrieval

    Neural Retrieval ist das Abrufen relevanter Elemente mithilfe gelernter Repräsentationen (dense Embeddings und Ähnlichkeitssuche) anstatt rein auf Keyword-Matching zu basieren.

    Neural Scaling Laws

    Scaling Laws beschreiben empirische Beziehungen, die zeigen wie Model-Performance vorhersagbar besser wird, wenn Compute, Daten und/oder Model-Parameter erhöht werden—oft Power-Law-artigen Trends folgend.

    Neural Style Transfer (NST)

    Neural Style Transfer ist eine Technik, die den "Style" eines Bildes (Textures, Patterns) auf den "Content" eines anderen anwendet, unter Verwendung von Neural Representations.

    Neural Topic Routing

    Neural Topic Routing verwendet ML/Embeddings, um einen Input (Query, Pageview, Conversation) in ein Topic, Workflow oder Handler basierend auf semantischer Bedeutung zu klassifizieren oder zu routen.

    Neuro-Symbolic "Verification Layer"

    Eine Neuro-Symbolic Verification Layer ist eine Systemkomponente, die neuronale Outputs gegen symbolische Constraints (Regeln, Schemas, Policies) prüft, bevor gehandelt oder publiziert wird.

    Neuro-Symbolic AI

    Neuro-Symbolic AI kombiniert neuronale Methoden (LLMs, Embeddings) mit symbolischen Methoden (Regeln, Logik, Knowledge Graphs) zur Verbesserung von Zuverlässigkeit, Interpretierbarkeit und Constraint-Erfüllung.

    Neuronales Netzwerk

    Ein Berechnungsmodell, das von der Struktur biologischer Neuronen inspiriert ist und aus miteinander verbundenen Knoten (Neuronen) in Schichten besteht.

    Next Best Question (NBQ)

    Next Best Question ist ein Conversational Design und Decisioning Pattern, bei dem ein System die single most valuable klärende Frage stellt, um zu einem korrekten Outcome zu gelangen.

    Next Sentence Prediction (NSP)

    Next Sentence Prediction ist ein Training Objective, bei dem ein Modell vorhersagt, ob ein Satz wahrscheinlich auf einen anderen im Originaltext folgt.

    Nicht-monotone Logik

    Ein logisches System, in dem Schlussfolgerungen zurückgenommen werden können, wenn neue Informationen eintreffen, die bisherige Annahmen widerlegen.

    NL2SQL (Natural Language to SQL)

    NL2SQL konvertiert natürlichsprachliche Fragen in SQL-Queries, die gegen eine Datenbank ausgeführt werden können.

    NLP (Natural Language Processing)

    Natural Language Processing (NLP) ist das Teilgebiet der KI, das sich mit der maschinellen Verarbeitung, Interpretation und Generierung natürlicher Sprache beschäftigt.

    No Free Lunch Theorem

    Das No Free Lunch Theorem (in Optimization/Learning) besagt, dass gemittelt über alle möglichen Probleme kein Algorithmus besser performt als alle anderen—Performance hängt von der Problem-Distribution ab.

    Node2Vec

    Ein Algorithmus, der dichte Vektorrepräsentationen für Graphknoten durch biased Random Walks lernt.

    Noise Injection

    Noise Injection ist das absichtliche Hinzufügen von Rauschen während Training oder Processing, um Robustheit, Generalisierung oder Privacy zu verbessern.

    Noise Schedule

    Ein Noise Schedule definiert, wie viel Rauschen in jedem Schritt der Forward- und Reverse-Prozesse eines Diffusion-Modells hinzugefügt (und später entfernt) wird.

    Noisy Student Training

    Noisy Student Training ist ein Semi-Supervised Learning Ansatz, bei dem ein "Teacher"-Modell unlabeled Data labelt, und ein "Student"-Modell auf einem Mix aus labeled + pseudo-labeled Data mit Noise/Augmentation trainiert wird.

    Nomic Embed

    Open-Source-Embedding-Modelle von Nomic AI mit voller Reproduzierbarkeit – alle Trainingsdaten und Code sind öffentlich.

    Non-Maximum Suppression (NMS)

    Non-Maximum Suppression ist ein Post-Processing-Schritt in Object Detection, der redundante überlappende Bounding Boxes entfernt und nur die konfidentesten behält.

    Nonlinear Activation Function

    Eine Nonlinear Activation Function führt Nonlinearity in neurale Networks ein (z.B. ReLU, GELU, tanh), was es ihnen ermöglicht, komplexe Beziehungen jenseits linearer Transformations zu modellieren.

    Normalisierung (Normalization)

    Normalisierung ist die Transformation numerischer Daten auf einen einheitlichen Wertebereich (oft 0–1 oder Mittelwert 0 / Standardabweichung 1), um die Trainingsstabilität von Machine-Learning-Modellen zu verbessern.

    Normalization Layer

    Eine Normalization Layer ist eine neuronale Netzwerkkomponente, die Aktivierungen normalisiert, um Training Stability und Convergence zu verbessern (z.B. LayerNorm, RMSNorm).

    Normalizing Flow

    Ein Normalizing Flow ist ein generativer Modellierungsansatz, der eine einfache Verteilung (z.B. Gaussian) über eine Sequenz invertierbarer Transformationen mit tractierbaren Likelihoods in eine komplexe transformiert.

    Novel Class Discovery (NCD)

    Novel Class Discovery findet previously unbekannte Kategorien in unlabeled Data, während Knowledge von bekannten Classes genutzt wird.

    NT-Xent Loss (Normalized Temperature-Scaled Cross-Entropy)

    NT-Xent ist eine Contrastive Learning Loss, verwendet um Embeddings zu trainieren, indem Positive Pairs zusammengezogen und Negatives auseinandergedrückt werden, mit einem Temperature Term, der Distribution Sharpness kontrolliert.

    Nutzenfunktion

    Eine Nutzenfunktion bildet Ergebnisse auf numerische Werte ab, die Präferenzen repräsentieren, und ermöglicht Tradeoffs zwischen konkurrierenden Zielen.

    O

    Object Detection

    Identifikation und Lokalisierung von Objekten in Bildern oder Videos.

    Observability für LLM-Apps

    LLM-Observability erweitert klassische Observability um KI-spezifische Signale: Prompt/Version-Tracking, Retrieval-Evidence, Tool-Traces, Token-Nutzung und Qualitäts-/Sicherheitsmetriken.

    Off-Policy Evaluation (OPE)

    Schätzt, wie eine neue Entscheidungs-Policy performen würde, unter Verwendung von Daten, die von einer anderen (bestehenden) Policy gesammelt wurden – ohne die neue Policy zu deployen.

    Offline-Evaluation

    Messung der Modell-/Systemleistung anhand vordefinierter Datensätze und Metriken vor dem Produktions-Rollout.

    On-Device Inference

    Ausführung eines Modells lokal auf dem Gerät des Nutzers (Smartphone, Laptop, Edge-Hardware) statt über eine Cloud-API.

    One-Shot Learning

    Fähigkeit, aus einem einzigen Beispiel zu lernen und zu generalisieren.

    One-Shot Prompting

    Bereitstellung eines einzelnen Beispiels im Prompt, um das gewünschte Output-Muster zu demonstrieren.

    Online Learning

    Aktualisiert ein Modell inkrementell, wenn neue Daten eintreffen, anstatt von Grund auf in großen Batches neu zu trainieren.

    Online-Evaluation

    Messung der Performance auf echtem Nutzer-Traffic (A/B-Tests, Canaries, Interleaving, Holdouts) nach dem Deployment.

    Ontologie (Formal)

    Eine formale Repräsentation von Konzepten und Beziehungen in einer Domäne (Entitäten, Klassen, Eigenschaften, Constraints).

    Open-Weight-Modell

    Ein Modell, dessen trainierte Gewichte öffentlich verfügbar sind (oder unter bestimmten Bedingungen), was Self-Hosting und tiefere Anpassung ermöglicht.

    OpenAI Embeddings

    OpenAIs kommerzielle Embedding-API mit text-embedding-3-small und text-embedding-3-large – der einfachste Weg zu hochwertigen Embeddings.

    OpenAI o1

    OpenAI's erstes Modell der o-Serie, das explizites Reasoning mit Chain-of-Thought für komplexe Problemlösungen verwendet.

    OpenAI o3

    Weiterentwickeltes Reasoning-Modell von OpenAI mit verbesserter Leistung bei Mathematik, Coding und wissenschaftlichem Denken.

    OpenLLM Leaderboard

    Ein öffentliches Leaderboard von Hugging Face, das Open-Source-LLMs auf standardisierten Benchmarks (MMLU, HellaSwag, etc.) vergleicht.

    Operationalisierung

    Das Umwandeln eines Konzepts, Modells oder Prototyps in eine wiederholbare, zuverlässige, governierte Produktionsfähigkeit mit klarem Ownership, Monitoring und Change Control.

    Optimierung

    Der Prozess, Parameterwerte zu finden, die eine Loss-Funktion minimieren oder ein Ziel unter Constraints maximieren.

    Optimizer

    Der Algorithmus, der Modellparameter während des Trainings aktualisiert (z.B. SGD, Adam), basierend auf Gradienten und Konfiguration.

    Orchestration

    Koordiniert mehrere Schritte, Services und Tools in einen zuverlässigen Workflow – oft mit State, Retries und Observability.

    Orchestrator

    Die Systemkomponente, die Orchestration-Logik implementiert – den nächsten Schritt entscheiden, Tools aufrufen, State verwalten, Budgets/Guardrails durchsetzen.

    ORPO

    Eine Weiterentwicklung von DPO, die SFT und Preference-Alignment in einem einzigen Trainingsschritt kombiniert.

    Out-of-Distribution (OOD) Detection

    Identifizierung von Eingaben, die sich signifikant von dem unterscheiden, worauf ein Modell trainiert wurde.

    Output Guardrails

    Kontrollen, die auf Modell-Outputs angewandt werden, um Sicherheits-, Policy-, Formatierungs- und Korrektheitsbeschränkungen durchzusetzen.

    Output Length Control

    Die Menge an Techniken zur Formung von Antwortlänge und -struktur (Token-Limits, Section-Caps, Templates, Validators).

    Output Parsing

    Extraktion strukturierter Felder aus Modell-Output (JSON, YAML, XML oder Muster), damit nachgelagerte Systeme es zuverlässig nutzen können.

    Output Token

    Ein Token, das von einem Sprachmodell als Teil seiner Antwort generiert wird.

    Over-Generation

    Mehr Output produzieren als nötig (zu lang, zu verbose, zu viele Schritte), was Kosten erhöht und Nutzer-Klarheit reduziert.

    Over-Retrieval

    Zu viele Dokumente/Chunks für eine Anfrage abrufen, was Kosten erhöht und oft Antwortqualität durch Rauschen und Kontext-Verdünnung senkt.

    Overfitting

    Wenn ein Modell die Trainingsdaten zu gut lernt und auf neuen Daten schlecht generalisiert.

    Overlapping Chunks

    Eine Chunking-Strategie, bei der aufeinanderfolgende Text-Chunks etwas wiederholten Inhalt (Overlap) teilen, um Kontext über Chunk-Grenzen zu erhalten.

    P

    Paged Attention

    Eine Inferenz-Optimierung, die den KV-Cache in "Pages" (Blöcken) verwaltet, um Speicherfragmentierung zu reduzieren und den Durchsatz beim Serving von LLMs zu verbessern.

    Parallel Tool Calls

    Ausführung mehrerer Tool-/API-Calls gleichzeitig statt sequentiell, um End-to-End-Latenz zu reduzieren.

    Parameter Count

    Die Anzahl der gelernten Gewichte in einem Modell, oft als grober Proxy für Kapazität und Compute-Anforderungen verwendet.

    Parameter Sharing

    Eine Modellierungstechnik, bei der mehrere Teile eines neuronalen Netzes dieselben Gewichte wiederverwenden statt separate Parameter zu haben.

    Parameter-Efficient Fine-Tuning (PEFT)

    Ein Set von Techniken, die ein vortrainiertes Modell an eine Aufgabe anpassen, indem nur ein kleiner Teil der Parameter (oder zusätzliche kleine Module) trainiert wird.

    Passage Reranking

    Reordnung abgerufener Passagen mit einem stärkeren Relevanz-Modell (oft Cross-Encoder), um Präzision vor Generation zu verbessern.

    Passage Retrieval

    Findet relevante Textpassagen (Chunks) statt ganzer Dokumente, um Präzision für Question Answering und RAG zu verbessern.

    PDDL

    Eine standardisierte Sprache zur Beschreibung von Planungsproblemen in der Künstlichen Intelligenz, die Zustände, Aktionen und Ziele formal definiert.

    Perceptron

    Das Perceptron ist die einfachste Form eines künstlichen Neurons und die Grundlage moderner neuronaler Netze – ein linearer Klassifikator, der Eingaben gewichtet summiert und durch eine Aktivierungsfunktion leitet.

    Perplexity

    Eine Sprachmodell-Metrik, abgeleitet von der durchschnittlichen negativen Log-Likelihood; misst, wie "überrascht" ein Modell von Text ist.

    Perplexity

    Metrik zur Bewertung, wie gut ein Sprachmodell Text vorhersagt.

    Pfadfindung

    Der Prozess, eine Route zwischen Knoten in einem Graphen zu finden, die ein Ziel optimiert (kürzeste, günstigste, sicherste, schnellste).

    Planung

    Ein KI-Bereich, der sich mit der automatischen Generierung von Aktionssequenzen befasst, um von einem Ausgangszustand zu einem Zielzustand zu gelangen.

    Poisoning Attack

    Ein Angriff, bei dem ein Gegner Trainingsdaten, Retrieval-Korpora oder Feedback-Signale manipuliert, um Modellverhalten zu degradieren.

    Policy

    Eine Policy ist eine Regel oder Strategie, die bestimmt, welche Aktionen unter welchen Bedingungen ausgeführt werden.

    Policy Engine

    Eine Komponente, die Regeln und Constraints zur Laufzeit durchsetzt (wer was darf, welche Tools erlaubt sind, welche Outputs erlaubt sind).

    Policy Gradient

    Methoden, die eine Policy direkt optimieren, indem Parameter in die Richtung angepasst werden, die den erwarteten Reward verbessert.

    Positional Encoding

    Wie ein Transformer-Modell Token-Reihenfolge (Position) repräsentiert, sodass es "A dann B" von "B dann A" unterscheiden kann.

    Positional Interpolation

    Eine Technik zur Erweiterung der nutzbaren Kontextlänge eines Modells durch Reskalierung der Positions-Repräsentation.

    Post-Training

    Jede Trainingsphase nach dem Pretraining, um ein Modell für gewünschte Verhaltensweisen zu formen – Hilfsbereitschaft, Sicherheit, Instruction-Following.

    Post-Training Quantization (PTQ)

    Reduziert Modell-Präzision (z.B. FP16 → INT8/INT4) nach dem Training, um Speichernutzung zu senken und Inferenz zu beschleunigen.

    Preference Optimization

    Training oder Anpassung von Modellen mit Preference-Signalen (A bevorzugt über B), um Alignment mit gewünschten Outputs zu verbessern.

    Prefill

    Die Inferenz-Phase, in der das Modell den Prompt verarbeitet, um den initialen internen State aufzubauen, bevor Output-Tokens generiert werden.

    Prefill Latency

    Die Zeit, die für die Verarbeitung des Input-Prompts aufgewandt wird, bevor das Modell Token generieren kann.

    Prefix Cache

    Wiederverwendung von berechnetem Modell-State (oft KV-Cache) für wiederholte Prompt-Prefixes, um wiederholte Prefill-Berechnung zu vermeiden.

    Prefix Tuning

    Eine parameter-effiziente Adaptationstechnik, bei der Sie kleine "Prefix"-Vektoren lernen, die Attention Layers steuern, statt alle Modell-Gewichte zu fine-tunen.

    Pretraining

    Training eines Modells auf großen Datenmengen (oft selbstüberwacht), um allgemeine Repräsentationen zu lernen, bevor aufgabenspezifische Anpassung erfolgt.

    Privacy-Preserving Machine Learning

    Ein Set von Techniken, die Datenschutzrisiken beim Training oder Serving von Modellen reduzieren.

    Product Quantization (PQ)

    Eine Vektor-Kompressionstechnik, die hochdimensionale Vektoren mit kompakten Codes approximiert für schnellere ANN-Suche.

    Prompt

    Die Eingabe (Anweisungen + Kontext + Beispiele + Constraints), die einem Sprachmodell bereitgestellt wird, um eine gewünschte Ausgabe zu erhalten.

    Prompt A/B Testing

    Vergleich zweier Prompt-Versionen auf realem Traffic, um Unterschiede in Outcomes und Guardrails zu messen.

    Prompt Budget

    Eine explizite Allokation von Tokens für Anweisungen, Kontext, abgerufene Evidence und Beispiele.

    Prompt Caching

    Speichern wiederverwendbarer Prompt-Komponenten oder -Antworten, um wiederholte Compute, Kosten und Latenz zu reduzieren.

    Prompt Chaining

    Ein Muster, bei dem mehrere Prompts sequentiell ausgeführt werden, wobei der Output eines Schritts zum Input des nächsten wird.

    Prompt Compression

    Reduzierung der Prompt-Länge bei Erhalt wesentlicher Constraints und Kontext.

    Prompt Engineering

    Die Kunst und Wissenschaft der Gestaltung von Eingabeaufforderungen (Prompts), um gewünschte Outputs von LLMs zu erhalten.

    Prompt Hardening

    Stärkung von Prompts und umgebenden Controls gegen Missbrauch, Injection und unsichere Outputs.

    Prompt Injection

    Ein Angriff, bei dem bösartiger oder nicht vertrauenswürdiger Text versucht, Anweisungen zu überschreiben oder ein LLM-System zu manipulieren.

    Prompt Leakage

    Unbeabsichtigte Offenlegung von System-Prompts, versteckten Anweisungen oder sensitivem Kontext – durch Modell-Outputs, Logs oder UI/Debug-Tools.

    Prompt Linting

    Automatisierte statische Analyse von Prompts, um Probleme vor dem Deployment zu erkennen (Konflikte, fehlende Constraints, unsichere Formulierungen).

    Prompt Registry

    Ein System zum Speichern, Versionieren, Testen und Governer von Prompts als Produktions-Artefakte.

    Prompt Regression Testing

    Ausführung einer stabilen Evaluations-Suite gegen Prompt-Änderungen, um Qualitäts-, Sicherheits-, Format- und Kosten-Regressionen zu erkennen.

    Prompt Router

    Wählt das beste Prompt-Template (oder Workflow) für einen Request basierend auf Intent, Schwierigkeit, Risiko und Kontext.

    Prompt Sandbox

    Eine sichere Umgebung zum Testen von Prompts mit kontrollierten Daten, Tools und Logs vor Produktion.

    Prompt Template

    Eine wiederverwendbare Prompt-Struktur mit Variablen (Platzhaltern), die dynamisch gefüllt werden können.

    Prompt Tokens

    Die vom Modell-Input verbrauchten Tokens (System-Anweisungen, Nutzer-Nachricht, abgerufener Kontext, Tool-Schemas, Beispiele).

    Prompt Tuning

    Parameter-effiziente Methode, bei der nur lernbare Token-Embeddings am Input trainiert werden, während das gesamte Modell eingefroren bleibt.

    Proximal Policy Optimization (PPO)

    Ein Reinforcement-Learning-Algorithmus, der Policies auf eingeschränkte Weise aktualisiert, um übermäßig große, instabile Änderungen zu vermeiden.

    Pruning

    Das Entfernen unnötiger oder wenig wichtiger Komponenten aus einem Modell oder Suchbaum, um Effizienz zu steigern oder Overfitting zu reduzieren.

    Q

    Q-Former

    Ein Q-Former ist ein abfragebasiertes Transformer-Modul, das in manchen multimodalen Systemen verwendet wird, um Informationen aus einer Modalität zu extrahieren und zu komprimieren.

    Q-Funktion

    Die Q-Funktion (Action-Value-Funktion) ordnet einem Zustand-Aktions-Paar den erwarteten Return zu: Q(s, a).

    Q-Learning

    Q-Learning ist eine Reinforcement-Learning-Methode, die eine Wertefunktion Q(s, a) lernt, um die erwartete Belohnung einer Aktion in einem Zustand zu schätzen.

    QAT (Quantization-Aware Training)

    Quantization-Aware Training trainiert ein Modell unter Simulation von Quantisierungseffekten, was die Genauigkeit nach Quantisierung im Vergleich zu PTQ verbessert.

    QKV (Query–Key–Value)

    QKV bezieht sich auf die Query (Q), Key (K) und Value (V) Matrizen, die in Transformer-Attention-Mechanismen verwendet werden.

    QLoRA (Quantized Low-Rank Adaptation)

    QLoRA ist ein Fine-Tuning-Ansatz, der Quantisierung mit LoRA kombiniert, um große Modelle mit geringerem Speicherverbrauch anzupassen.

    Quadratische Attention-Kosten

    Quadratische Attention-Kosten beziehen sich auf die klassische Skalierung von Full Self-Attention, die etwa mit dem Quadrat der Sequenzlänge wächst (O(n²)).

    Quality-of-Answer Score

    Ein Quality-of-Answer Score ist eine zusammengesetzte Metrik, die schätzt, wie gut eine AI-Antwort ist (Nützlichkeit, Korrektheit, Klarheit, Groundedness, Sicherheit).

    Quantisierung

    Reduzierung der numerischen Präzision von Modellgewichten zur Verringerung von Speicher und Rechenaufwand.

    Quantum Machine Learning (QML)

    Quantum Machine Learning erforscht die Nutzung von Quantencomputing-Konzepten (Qubits, Superposition, Verschränkung), um bestimmte ML-Berechnungen zu beschleunigen.

    Quarantine (Quarantäne)

    Quarantäne isoliert Content, Inputs oder Events, die verdächtig, unsicher oder von geringem Vertrauen sind, damit sie Produktions-Outputs nicht beeinflussen können.

    Query Embeddings

    Query Embeddings sind Vektor-Repräsentationen von Suchanfragen, die für semantisches Similarity-Matching gegen eingebettete Dokumente/Passagen verwendet werden.

    Query Fan-Out

    Query Fan-Out ist, wenn eine Anfrage viele nachgelagerte Queries/Tool-Calls auslöst, um Kontext oder Ergebnisse zu sammeln.

    Query Federation

    Query Federation führt eine Anfrage über mehrere Systeme/Quellen (Datenbanken, Services, Indizes) aus und kombiniert die Ergebnisse.

    Query Likelihood Model

    Ein Query Likelihood Model ist ein Information-Retrieval-Ansatz, bei dem Dokumente nach der Wahrscheinlichkeit gerankt werden, dass ihr Sprachmodell die Query generieren würde.

    Query Reranking

    Query Reranking ordnet Such-/Retrieval-Ergebnisse mit einer stärkeren Scoring-Funktion (oft Cross-Encoder oder LLM-basierter Scorer) neu, um Relevanz an der Spitze zu verbessern.

    Query Rewrite

    Query Rewrite ist das Modifizieren einer Suchanfrage, um die Retrieval-Qualität (Recall/Precision) zu verbessern, oft durch Klärung der Intention, Term-Erweiterung oder Vokabular-Normalisierung.

    Query Rewriting

    Transformation einer Benutzeranfrage in eine Form, die bessere Retrieval-Ergebnisse liefert.

    Query Understanding Evaluation

    Query Understanding Evaluation misst, wie gut Ihr System User-Intent, Entities, Constraints und Risikolevel aus Queries interpretiert.

    Query-Expansion

    Query-Expansion ergänzt eine Anfrage mit zusätzlichen Begriffen oder semantischen Signalen, um den Retrieval-Recall zu verbessern.

    Query-Routing

    Query-Routing sendet eine Anfrage an die am besten geeignete Engine, Modell, Index oder Workflow basierend auf Intent, Konfidenz und Constraints.

    Query-Time-Filtering

    Query-Time-Filtering wendet Einschränkungen während des Retrievals an – wie Berechtigungen, Tenant-Grenzen, Aktualitätsfenster, Sprache oder Dokumenttyp.

    Question Answering (QA)

    Question Answering ist eine Aufgabe, bei der ein System Fragen basierend auf einem Korpus, einer Wissensbasis oder Modellwissen beantwortet.

    Question Decomposition

    Question Decomposition zerlegt eine komplexe Frage in kleinere Teilfragen, die zuverlässiger beantwortet werden können.

    Quota-Aware Routing

    Quota-Aware Routing wählt Modelle/Workflows basierend auf verbleibendem Quota und Cost Budgets (z.B. einfache Queries zu günstigeren Modi routen wenn Budget niedrig).

    R

    RAG (Retrieval-Augmented Generation)

    Retrieval-Augmented Generation (RAG) ist eine Architektur, bei der ein LLM eine Antwort unter Verwendung abgerufener externer Informationen (Dokumente/Chunks) als Evidenz generiert, anstatt sich nur auf seine internen Parameter zu verlassen.

    RAG Chunking Strategie

    Eine RAG Chunking Strategie definiert, wie Quelldokumente in abrufbare Einheiten aufgeteilt werden (Chunk-Größe, Overlap, Struktur-Erhaltung, Metadaten).

    RAG Evaluation

    Die systematische Bewertung von RAG-Systemen über Retrieval-Qualität, Antwort-Relevanz, Groundedness und Faithfulness.

    RAG Poisoning

    RAG Poisoning ist ein Angriff oder Fehlermodus, bei dem der Retrieval-Korpus manipuliert wird, sodass bösartiger oder irreführender Content als "Evidenz" abgerufen wird und Outputs verschlechtert oder das System beeinflusst.

    Ragas

    Ragas ist ein populärer Evaluations-Ansatz/Library für RAG-Systeme, der praktische Metriken und Workflows zur Bewertung von Retrieval + Generation-Qualität bietet.

    Re-Embedding

    Re-Embedding regeneriert Embeddings für einen Korpus (Dokumente/Chunks) mit demselben oder einem neuen Embedding Model und aktualisiert dann den Vector Index entsprechend.

    ReAct (Reason + Act)

    ReAct ist ein agentisches Pattern, bei dem ein Modell zwischen Reasoning und Aktionen (Tool Calls) alterniert und Beobachtungen einbezieht, bevor es fortfährt.

    Recall@k

    Recall@k misst, wie oft die benötigten relevanten Items innerhalb der top-k abgerufenen Ergebnisse erscheinen.

    Recency Bias

    Recency Bias ist die Tendenz, neuere Informationen überzubewerten – entweder in menschlicher Beurteilung oder im Systemverhalten (Ranking, Context Usage).

    Reciprocal Rank Fusion (RRF)

    RRF kombiniert mehrere gerankte Ergebnislisten zu einer, indem es reziproke Ränge summiert – verbessert Robustheit, wenn verschiedene Retrieval-Methoden bei verschiedenen Queries excellieren.

    Recommendation Engine

    System, das personalisierte Empfehlungen basierend auf Nutzerverhalten generiert.

    Red Teaming

    Red Teaming ist adversariales Testing, das absichtlich versucht, ein System zu brechen, um Schwachstellen und Failure Modes zu entdecken (Security, Safety, Reliability).

    Regression

    ML-Methode zur Vorhersage kontinuierlicher numerischer Werte.

    Regression Testing

    Regression Testing stellt sicher, dass Änderungen (Code, Prompts, Retrieval Config, Model Versions) bestehendes Verhalten oder Qualität nicht brechen.

    Regularisierung

    Techniken, die Overfitting verhindern, indem sie die Komplexität des Modells einschränken.

    Reinforcement Learning

    Ein Lernparadigma, bei dem ein Agent durch Interaktion mit einer Umgebung lernt, Belohnungen zu maximieren.

    Reinforcement Learning (RL)

    Reinforcement Learning ist ein Paradigma, bei dem ein Agent lernt, Entscheidungen zu treffen, indem er mit einer Umgebung interagiert und kumulativen Reward optimiert.

    Reproducibility

    Reproducibility ist die Fähigkeit, dieselben (oder äquivalente) Outputs und Verhalten bei gleichen Inputs, Versionen und Konfiguration zu reproduzieren.

    Reranker

    Ein Reranker ist ein Modell, das abgerufene Kandidaten (Dokumente/Chunks) neu bewertet und neu ordnet, um Relevanz an der Spitze zu verbessern.

    Reranking

    Neuordnung von Retrieval-Ergebnissen mit einem leistungsfähigeren Modell für bessere Relevanz.

    Response Generation

    KI-Prozess zur Generierung natürlichsprachlicher Antworten.

    Responsible AI

    Responsible AI bedeutet, AI-Systeme so zu designen und zu betreiben, dass sie sicher, fair, privacy-aware, transparent und accountable über ihren gesamten Lifecycle sind.

    Retrieval Confidence

    Retrieval Confidence ist ein Signal, das schätzt, ob abgerufene Ergebnisse ausreichende, relevante Evidenz enthalten, um die Query zuverlässig zu beantworten.

    Retrieval Drift

    Retrieval Drift ist eine Änderung im Retrieval-Verhalten/Qualität über Zeit durch Korpus-Updates, Embedding-Model-Änderungen, Indexing-Settings, Query-Distributions-Shifts oder Metadaten-Änderungen.

    Retrieval-Augmented Generation (RAG)

    Eine Technik, die LLM-Generierung mit externem Wissensabruf kombiniert, um fundiertere und aktuellere Antworten zu liefern.

    Retrieval-First Policy

    Eine Retrieval-First Policy zwingt das System, Evidenz abzurufen, bevor es substantive Antworten generiert, besonders für faktische oder High-Risk Queries.

    Retriever

    Ein Retriever ist die Komponente, die Kandidaten-Dokumente/Chunks relevant zu einer Query auswählt (Keyword, Vector, Hybrid oder federated).

    Retriever-Reranker Cascade

    Eine Retriever-Reranker Cascade ist ein zweistufiger Retrieval-Ansatz: ein schneller Retriever generiert Kandidaten, dann selektiert ein langsamerer, genauerer Reranker die besten top-k.

    Reward Hacking

    Reward Hacking tritt auf, wenn ein Model/Agent Wege findet, Reward zu maximieren, ohne tatsächlich das beabsichtigte Real-World-Ziel zu erreichen.

    Reward Model

    Ein Reward Model bewertet Modell-Outputs nach einem Preference-Objective (Helpfulness, Safety, Format Compliance), oft verwendet in Alignment-Style-Training oder Evaluation.

    RLAIF (Reinforcement Learning from AI Feedback)

    RLAIF nutzt AI-generierte Kritiken oder Präferenzen (oft von einem Judge Model) als Feedback-Signale, um Modellverhalten zu verbessern und die Abhängigkeit von Human Labeling zu reduzieren.

    RLHF (Reinforcement Learning from Human Feedback)

    RLHF ist ein Post-Training-Ansatz, der menschliche Präferenzdaten verwendet, um Modellverhalten an gewünschte Outputs anzupassen.

    RNN (Recurrent Neural Network)

    Ein Recurrent Neural Network (RNN) ist eine neuronale Netz-Architektur für sequenzielle Daten, bei der Neuronen ihren eigenen Output als zusätzlichen Input für den nächsten Zeitschritt nutzen — wodurch Kontext über Sequenzen hinweg erhalten bleibt.

    Robustheitstests

    Robustheitstests evaluieren, wie zuverlässig ein Modell oder System unter Perturbationen, Edge Cases, Rauschen oder Distribution Shifts performt.

    RoPE (Rotary Positional Embeddings)

    RoPE ist eine Positionskodierungsmethode, die Rotationen auf Query/Key-Vektoren anwendet und Modellen ermöglicht, Token-Positionen so darzustellen, dass relatives Positionsverhalten unterstützt wird.

    ROUGE Score

    Metriken zur Bewertung automatischer Textzusammenfassungen.

    Routing Policy

    Eine Routing Policy ist das Regelset, das entscheidet, welches Model/Workflow/Tools für einen Request basierend auf Intent, Risk, Confidence und Budgets verwendet werden.

    Rückwärtsverkettung

    Eine Inferenzstrategie, die vom Ziel ausgeht und rückwärts arbeitet, um die Fakten und Regeln zu finden, die das Ziel beweisen würden.

    S

    Safety

    Safety in KI-Systemen ist die Gesamtheit der Maßnahmen, die schädliche, unsichere oder richtlinienwidrige Ausgaben und Aktionen verhindern – insbesondere bei gegnerischen oder mehrdeutigen Eingaben.

    Safety Alignment

    Safety Alignment ist die Formung von Modell-/Systemverhalten, sodass es zuverlässig Safety-Constraints folgt (Refusals, sichere Defaults, Richtlinieneinhaltung) bei normalen und gegnerischen Eingaben.

    Safety Case

    Ein Safety Case ist ein strukturiertes Argument – gestützt durch Evidenz – dass ein System für einen spezifischen Kontext und Risikoprofil akzeptabel sicher ist.

    Safety Classifier

    Ein Safety Classifier ist ein Modell-/Regelsystem, das unsichere Inhalte oder riskante Absichten erkennt (z.B. Selbstschädigung, Hass, Datenexfiltrations-Versuche, Richtlinienverletzungen).

    Safety Evaluation

    Safety Evaluation ist das systematische Testen eines KI-Systems auf schädliches, richtlinienwidriges, unsicheres oder privacy-riskantes Verhalten – über normale und gegnerische Inputs.

    Safety Filters

    Safety Filters erkennen und blockieren oder transformieren unsichere Outputs (oder unsichere Inputs) basierend auf Policy (z.B. sexuelle Inhalte, Gewalt, Hass, Selbstverletzung, illegale Anweisungen).

    Safety Guardrails

    Safety Guardrails sind Mechanismen, die das Verhalten eines KI-Systems einschränken, um Schaden zu reduzieren (Policies, Validatoren, Permission-Boundaries, Rate-Limits, Refusals).

    Safety Incident Taxonomy

    Eine Safety Incident Taxonomy ist ein strukturiertes Klassifikationssystem für KI-Safety-Incidents (was passiert ist, Severity, Impact, Root Cause, Mitigation).

    Sampling Steps

    Sampling Steps sind die Anzahl iterativer Denoising-Iterationen, die während der Diffusions-Inferenz zur Generierung eines Outputs verwendet werden.

    Sampling Temperature

    Sampling Temperature skaliert die Output-Verteilung des Modells: niedrigere Temperaturen machen Outputs deterministischer; höhere Temperaturen erhöhen die Zufälligkeit.

    Satisficing

    Satisficing bedeutet, eine Lösung zu wählen, die 'gut genug' ist um Constraints zu erfüllen, anstatt für das absolut Beste zu optimieren.

    Scaling Laws

    Scaling Laws sind empirische Beziehungen, die zeigen, wie Modell-Performance tendenziell vorhersagbar verbessert wird, wenn Sie Daten, Compute und Parameter skalieren.

    Schema Drift

    Schema Drift ist, wenn sich die erwartete Struktur von Daten über Zeit ändert (Felder hinzugefügt/entfernt/umbenannt, Typen ändern sich, Enums erweitern), oft Pipelines brechend.

    Schema Validation

    Schema Validation prüft, ob strukturierte Daten einem definierten Schema entsprechen (Typen, erforderliche Felder, Enums, Constraints).

    Seedance

    KI-Videogenerator von ByteDance mit kontroverser Trainingsdaten-Herkunft und photorealistischen Ergebnissen.

    Self-Attention

    Attention-Mechanismus, bei dem Eingabe-Elemente aufeinander bezogen werden.

    Self-Consistency

    Self-Consistency ist eine Technik, bei der Sie mehrere Reasoning-Pfade/Antworten samplen und diese aggregieren (z.B. Mehrheitsvotum), um die Zuverlässigkeit zu verbessern.

    Self-Supervised Learning

    Lernparadigma, bei dem das Modell Labels aus den Daten selbst generiert.

    Semantic Caching

    Semantic Caching verwendet frühere Antworten/Ergebnisse wieder, wenn eine neue Anfrage semantisch ähnlich zu einer vorherigen ist, nicht notwendigerweise identisch.

    Semantic Chunking

    Semantic Chunking teilt Dokumente in Chunks basierend auf Bedeutungsgrenzen (Themen/Abschnitte) statt nur fester Token-Anzahlen.

    Semantic Router

    Ein Semantic Router routet Anfragen zum richtigen Workflow, Toolset oder Modell unter Verwendung semantischer Signale (Embeddings, Intent-Klassifikation, Ähnlichkeit zu bekannten Kategorien).

    Semantic Segmentation

    Pixel-genaue Klassifikation von Bildregionen nach Objektkategorien.

    Semantische Suche

    Eine Suchmethode, die die Bedeutung von Anfragen und Dokumenten versteht, anstatt nur auf Keyword-Übereinstimmung zu basieren.

    Sentence Transformers

    Eine Python-Library und Sammlung von Modellen, die semantisch bedeutungsvolle Sentence Embeddings erzeugen – optimiert für Ähnlichkeitssuche und Clustering.

    SFT (Supervised Fine-Tuning)

    Supervised Fine-Tuning (SFT) passt ein vortrainiertes Modell unter Verwendung gelabelter Input→Output-Beispiele an, um Verhalten zu formen (Format, Stil, Task-Performance).

    SFT (Supervised Fine-Tuning)

    Das Training eines Pre-trained Models auf kuratierten (Input, Output)-Paaren, um es auf spezifische Aufgaben oder Formate anzupassen.

    SHAP

    SHAP ist eine Model-Explainability-Methode basierend auf Shapley-Werten aus der kooperativen Spieltheorie, die eine Vorhersage auf einzelne Features attribuiert.

    Siamesisches Netzwerk

    Ein Siamesisches Netzwerk ist eine neuronale Architektur mit zwei (oder mehr) identischen Teilnetzwerken, die lernen, Eingaben durch Erzeugen von Embeddings und Messen von Ähnlichkeit zu vergleichen.

    Signal-to-Noise Ratio

    Signal-to-Noise Ratio (SNR) ist das Verhältnis von bedeutungsvollen Informationen ("Signal") zu irrelevanten oder irreführenden Informationen ("Noise").

    SimCLR

    SimCLR (Simple Contrastive Learning of Visual Representations) ist ein Framework für selbstüberwachtes Lernen, das visuelle Repräsentationen durch Vergleich augmentierter Bildversionen lernt.

    Similarity Score Calibration

    Similarity Score Calibration mappt rohe Similarity-Scores (von Embeddings/Rerankern) auf zuverlässigere Confidence-Signale (z.B. Wahrscheinlichkeiten oder Risiko-Bänder).

    Similarity Search

    Similarity Search findet Items, die einer Anfrage unter einer Ähnlichkeitsmetrik am ähnlichsten sind (Cosine Similarity, Dot Product etc.), häufig mit Embeddings verwendet.

    Similarity Thresholding

    Similarity Thresholding setzt Cutoff-Werte auf Similarity-Scores (Embedding-Similarity, Reranker-Scores), um Actions zu entscheiden wie "Use Cache", "Retrieve More" oder "Ask Clarifying Question".

    SimPO

    Eine vereinfachte Version von DPO, die ohne Reference Model auskommt und einen Length-Normalized Reward verwendet.

    Simulation

    Die Nachahmung eines realen oder hypothetischen Systems oder Prozesses in einer kontrollierten virtuellen Umgebung.

    Sliding Window Attention

    Sliding Window Attention beschränkt Attention auf ein bewegliches Fenster nahegelegener Tokens anstatt der vollständigen Sequenz, was Compute und Memory-Kosten reduziert.

    Slot Filling

    Extraktion spezifischer Parameter aus Nutzeräußerungen für Conversational AI.

    Small Language Model

    Ein Small Language Model (SLM) ist ein vergleichsweise kleineres LLM, das für niedrigere Latenz, niedrigere Kosten und einfacheres Deployment entwickelt wurde – oft für enge Tasks oder als Teil eines gerouteten Systems.

    Soft Prompt

    Ein Soft Prompt ist eine gelernte Vektor-Repräsentation (anstatt menschlich geschriebener Text), die verwendet wird, um das Verhalten eines Modells zu steuern – oft trainiert als kleine Menge von Prompt-Embeddings.

    Softmax

    Funktion, die Logits in Wahrscheinlichkeitsverteilung umwandelt.

    Solomonoff Induktion

    Solomonoff Induktion ist ein theoretisches Framework für optimale Vorhersage, das Bayessche Inferenz mit algorithmischer Komplexität kombiniert und Hypothesen nach ihrer Einfachheit bei der Datenbeschreibung gewichtet.

    Sora 2

    Die zweite Generation von OpenAI's Text-zu-Video-Modell mit verbesserter Qualität, längeren Clips und realistischerer Physik-Simulation.

    Source Attribution

    Source Attribution zeigt explizit an, woher Informationen stammen (Dokumente, URLs, interne Systeme), oft via Zitate oder Links.

    Source Grounding

    Source Grounding ist das Einschränken eines KI-Systems, seine Antworten auf bereitgestellten Quellen zu basieren (abgerufene Dokumente, Tools oder genehmigte Referenzen) anstatt auf unverifiziertem Modellwissen.

    Sparse Attention

    Sparse Attention reduziert Attention-Berechnung, indem Tokens nur auf eine Teilmenge anderer Tokens achten dürfen (gemusterte oder gelernte Sparsity).

    Sparse Autoencoder

    Ein Sparse Autoencoder (SAE) ist ein Autoencoder, der mit einem Sparsity-Constraint trainiert wird, sodass nur eine kleine Teilmenge von Features für jeden gegebenen Input aktiviert.

    Sparse Retrieval

    Sparse Retrieval verwendet Sparse-Repräsentationen (oft term-frequency-basiert) wie BM25, um Dokumente per lexikalischem Match abzurufen.

    Speaker Diarization

    Speaker Diarization identifiziert "wer wann sprach" in einer Audio-Aufnahme, indem Audio in speaker-gelabelte Turns segmentiert wird.

    Speculative Decoding

    Speculative Decoding beschleunigt LLM-Generierung, indem ein kleineres "Draft"-Modell Tokens vorschlägt, die ein größeres Modell dann in Batches verifiziert/akzeptiert.

    Speech-to-Text (STT)

    Technologie zur Umwandlung von gesprochener Sprache in geschriebenen Text – die Basis für Sprachassistenten und Transkription.

    Speech-to-Text (STT)

    Speech-to-Text (STT) konvertiert gesprochenes Audio in geschriebenen Text unter Verwendung von Automatic Speech Recognition (ASR) Modellen.

    State Space Models (SSMs)

    State Space Models (SSMs) sind Sequenz-Modelle, die einen latenten "State" aufrechterhalten, der sich über Zeit entwickelt, um sequentielle Daten effizient zu verarbeiten.

    Statefulness

    Statefulness beschreibt, ob ein System Informationen über Interaktionen hinweg behält (stateful) oder jeden Request unabhängig behandelt (stateless).

    Steering Vector

    Ein Steering Vector ist eine Richtung im internen Repräsentationsraum eines Modells, die, wenn zu Aktivierungen addiert oder angewendet, Outputs zu oder weg von bestimmten Verhaltensweisen oder Attributen verzerren kann.

    Stochastic Parrot

    Stochastic Parrot ist ein Kritik-Framing, das hervorhebt, wie LLMs flüssigen Text durch Pattern-Matching aus Training-Daten generieren können ohne echtes Verständnis – Bedenken über Bias, Misinformation und Misuse aufwerfend.

    Stop Sequence

    Eine Stop Sequence ist ein Token-/String-Muster, das einem Modell sagt, die Generierung zu stoppen, wenn es auftritt.

    Streaming ASR

    Streaming ASR transkribiert Sprache in Near-Real-Time, während Audio ankommt, anstatt nach Abschluss der vollständigen Aufnahme.

    STRIPS

    STRIPS ist ein klassischer Planungsformalismus, bei dem Aktionen durch Vorbedingungen und Effekte (Add/Delete-Listen) über symbolische Zustandsprädikate definiert werden.

    Structured Output

    Structured Output ist das Erzwingen, dass das Modell Outputs in einer vordefinierten Struktur produziert (JSON, YAML, Abschnitte mit strikten Überschriften), oft mit Validierung durchgesetzt.

    Style Transfer

    Style Transfer modifiziert ein Bild (oder Text), um einem Zielstil zu entsprechen, während der Kerninhalt erhalten bleibt.

    Subject Consistency

    Die Fähigkeit eines KI-Bildgenerators, Charaktere und Objekte über mehrere Bilder hinweg konsistent darzustellen.

    Summarization

    Summarization ist das Generieren einer kürzeren Repräsentation von Content bei Beibehaltung der Schlüsselbedeutung – extraktiv (Teile auswählen) oder abstraktiv (neu schreiben).

    Superposition

    Superposition in neuronalen Netzwerken beschreibt, wie mehrere Features in überlappenden Richtungen innerhalb eines limitiert-dimensionalen Raums repräsentiert werden können, anstatt ein Feature pro Neuron.

    SWE-Bench

    Ein Benchmark, der LLMs testet, indem sie echte Bug-Reports aus GitHub-Repositories lösen müssen – der realistischste Test für AI-Coding-Fähigkeiten.

    Sycophancy

    Sycophancy ist ein LLM-Verhalten, bei dem das Modell den geäußerten Überzeugungen oder falschen Prämissen des Users übermäßig zustimmt, anstatt sie zu korrigieren.

    Synthetic Data

    Synthetische Daten sind künstlich generierte Daten, die zum Training, Testen oder Evaluieren von Systemen verwendet werden, wenn echte Daten knapp, sensibel oder teuer sind.

    System Prompt

    Ein System Prompt ist die höchstpriorisierte Instruktionsebene, die die Rolle, Grenzen und Policies des Modells für eine Session definiert.

    T

    Technologische Singularität

    Ein hypothetischer Punkt, an dem technologischer Fortschritt (insbesondere KI) so schnell und tiefgreifend wird, dass er die menschliche Zivilisation grundlegend und unvorhersehbar verändert.

    Temperature

    Ein Parameter, der die Zufälligkeit in der LLM-Ausgabe kontrolliert.

    Temporal Graph Network

    Ein GNN für zeitlich veränderliche Graphen, das die Evolution von Knoten und Kanten über die Zeit modelliert.

    Text-to-Image

    Text-to-Image ist die Generierung von Bildern aus Text-Prompts mittels generativer Modelle (häufig diffusionsbasiert oder transformerbasiert).

    Text-to-Speech (TTS)

    Technologie zur Umwandlung von geschriebenem Text in natürlich klingende Sprache – heute meist mit neuronalen Modellen.

    Textgenerierung

    Text Generation ist die automatische Erstellung von Text durch KI-Modelle, typischerweise basierend auf einem Prompt oder Kontext.

    Tiefensuche (DFS)

    Tiefensuche (DFS) durchläuft einen Graphen, indem sie einem Pfad so tief wie möglich folgt, bevor sie zurückgeht.

    Tokenisierung

    Die Aufteilung von Text in kleinere Einheiten (Tokens) für die Verarbeitung durch NLP-Modelle.

    Top-k Sampling

    Ein Sampling-Parameter, der die Auswahl auf die k wahrscheinlichsten Tokens beschränkt, unabhängig von deren absoluten Wahrscheinlichkeiten.

    Top-p (Nucleus Sampling)

    Ein Sampling-Parameter, der nur aus den wahrscheinlichsten Tokens auswählt, deren kumulative Wahrscheinlichkeit p nicht überschreitet.

    Transfer Learning

    Die Nutzung von Wissen, das bei einer Aufgabe gelernt wurde, um die Leistung bei einer verwandten Aufgabe zu verbessern.

    Transformer

    Eine neuronale Netzwerkarchitektur, die Self-Attention nutzt, um Beziehungen zwischen allen Positionen in einer Sequenz zu modellieren.

    Tree of Thoughts (ToT)

    Prompting-Strategie, bei der das LLM mehrere Reasoning-Pfade parallel verfolgt, bewertet und den besten auswählt – wie ein Entscheidungsbaum für Gedankenketten.

    Triplet Loss

    Eine Loss-Funktion für Metric Learning, die Anchor, Positive und Negative nutzt, um Embeddings so zu trainieren, dass Ähnliche näher und Verschiedene weiter entfernt sind.

    Trust & Safety

    Trust & Safety ist die Praxis des Schutzes von Benutzern, Plattformen und Marken vor schädlichen Inhalten, Missbrauch und unsicheren Outcomes – durch Policy, Enforcement und Product Design.

    TruthfulQA

    Ein Benchmark, der testet, ob LLMs populäre Falschinformationen und Verschwörungstheorien vermeiden.

    V

    VAE (Variational Autoencoder)

    VAE steht für Variational Autoencoder, ein generatives Modell, das einen probabilistischen latenten Raum für Sampling und Generierung lernt.

    Value Alignment

    Value Alignment stellt sicher, dass das Verhalten eines KI-Systems zuverlässig mit beabsichtigten menschlichen/organisatorischen Werten und Constraints übereinstimmt (Sicherheit, Fairness, Wahrheitssuche, Datenschutz).

    Value of Information (VoI)

    Value of Information (VoI) quantifiziert, wie viel Nutzen man durch das Einholen zusätzlicher Informationen vor einer Entscheidung gewinnt.

    Vanishing Gradient

    Vanishing Gradient ist ein Trainingsproblem, bei dem Gradienten extrem klein werden während sie rückwärts durch ein Netzwerk propagieren, was das Lernen in frühen Schichten verlangsamt oder verhindert.

    Variational Autoencoder (VAE)

    Ein Variational Autoencoder (VAE) ist ein generatives Modell, das einen probabilistischen latenten Raum lernt, der Sampling und Generierung neuer Daten ermöglicht.

    Veo 3

    Googles Video-Generierungsmodell der dritten Generation mit nativem Audio, längeren Clips und verbesserter Physik.

    Verification

    Prüfung, ob LLM-Outputs korrekt, faktisch und quellengestützt sind.

    Verification-First Policy

    Eine Verification-First Policy erfordert, dass KI-Outputs und High-Impact-Actions definierte Verification-Checks passieren bevor sie Nutzern gezeigt oder ausgeführt werden.

    Verifikationsschicht

    Eine Verifikationsschicht ist eine Systemkomponente, die prüft, ob ein KI-Output oder eine Aktion die erforderlichen Korrektheit-, Sicherheits-, Policy- und Formatierungsanforderungen erfüllt, bevor sie geliefert oder ausgeführt wird.

    Verlustfunktion

    Eine mathematische Funktion, die misst, wie gut oder schlecht die Vorhersagen eines Modells sind.

    Video AI

    Video AI umfasst KI-Technologien zur automatischen Analyse, Generierung, Bearbeitung und Optimierung von Videoinhalten.

    Vision Transformer (ViT)

    Ein Vision Transformer (ViT) wendet Transformer-Architekturen auf Bilder an, indem er sie als Sequenzen von Patch-Embeddings repräsentiert.

    Vision-Language Model (VLM)

    Ein Vision-Language Model (VLM) verarbeitet sowohl Bilder als auch Text, um Aufgaben wie Bildverständnis, Captioning, Dokument-Q&A und multimodales Reasoning durchzuführen.

    Vorwärtsverkettung

    Eine Inferenzstrategie, die von bekannten Fakten ausgeht und Regeln anwendet, um neue Fakten abzuleiten, bis das Ziel erreicht ist.

    VQ-VAE

    VQ-VAE ist eine Variante von VAE, die Vector Quantization verwendet, um diskrete latente Repräsentationen über ein gelerntes Codebook zu lernen.

    W

    Warm Start

    Ein Warm Start initialisiert Training oder Optimierung von einem zuvor gelernten Zustand (Gewichte, Embeddings oder Parameter) anstatt von Null zu starten.

    Watermarking

    Watermarking ist das Hinzufügen eines erkennbaren Signals zu Inhalten (Text, Bild, Audio, Video), um Herkunft, Authentizität oder Provenienz anzuzeigen – oft verwendet um KI-generierte Ausgaben zu kennzeichnen.

    Weak Supervision

    Weak Supervision nutzt imperfekte, verrauschte oder indirekte Signale (Heuristiken, Regeln, entfernte Labels) um Trainingslabels zu erstellen statt manueller Annotation.

    Weakly Supervised Learning

    Weakly Supervised Learning trainiert Modelle mit Weak-Supervision-Signalen (verrauschte Labels, partielle Labels, aggregierte Labels) statt vollständig zuverlässiger Labels.

    Weavy

    KI-Video-Plattform mit node-basiertem Editor für komplexe Generative-Video-Workflows und Multi-Model-Pipelines.

    Web Browsing Tool

    Ein Web-Browsing-Tool ist eine KI-Tool-Integration, die Live-Webseiten oder Suchergebnisse abruft, um Fragen mit aktuellen Informationen zu beantworten.

    Web Grounding

    Die Fähigkeit eines KI-Modells, in Echtzeit auf Websuche-Ergebnisse zuzugreifen, um aktuelle und faktisch korrekte Inhalte zu generieren.

    Weight Decay

    Weight Decay ist eine Regularisierungstechnik, die große Gewichte während des Trainings entmutigt, oft als L2-Regularisierung oder entkoppelter Weight Decay (z.B. in AdamW) implementiert.

    Weltmodell

    Eine interne Repräsentation der Umwelt in einem KI-System, die es ermöglicht, Vorhersagen über zukünftige Zustände und die Auswirkungen von Aktionen zu machen.

    WER (Word Error Rate)

    Word Error Rate (WER) misst die Spracherkennungsgenauigkeit als Anteil von Substitutionen, Löschungen und Einfügungen um ein Transkript in die Ground Truth zu transformieren.

    Whisper

    Ein Open-Source-Spracherkennungsmodell von OpenAI, das auf 680.000 Stunden multilingualen Audio trainiert wurde.

    Windowed Attention

    Windowed Attention beschränkt Attention auf ein lokales Token-Fenster statt der vollen Sequenz, reduziert Rechenaufwand und ermöglicht längere Kontexte.

    WinoGrande

    Ein Benchmark für pronominale Referenzauflösung, bei dem kleine Wortänderungen die korrekte Antwort ändern.

    Wissensdestillation

    Übertragung von Wissen eines großen Modells (Teacher) auf ein kleineres Modell (Student).

    Wissensverfolgung

    Wissensverfolgung modelliert die sich entwickelnde Beherrschung von Fähigkeiten eines Lernenden über die Zeit anhand seiner Interaktionen (Antworten, Versuche, Zeit, Hinweise).

    Word2Vec

    Word2Vec ist eine Technik zur Erzeugung von Worteinbettungen (Word Embeddings), die Wörter als dichte Vektoren darstellt, wobei semantisch ähnliche Wörter ähnliche Vektoren haben.

    Wort-Embedding

    Eine dichte Vektorrepräsentation eines Wortes, die seine semantische Bedeutung kodiert.

    X

    x-Vector

    Ein x-Vector ist eine Art von Speaker-Embedding, das in der Sprachverarbeitung verwendet wird, um Sprecher-Identitätsmerkmale in einem Vektor fester Länge darzustellen.

    XAI (Explainable AI)

    Explainable AI (XAI) ist die Menge von Methoden und Praktiken, um die Ausgaben eines KI-Systems verständlicher zu machen – zu zeigen, warum eine Vorhersage, Empfehlung oder Entscheidung getroffen wurde.

    Xavier Initialization (Glorot Initialization)

    Xavier (Glorot) Initialization ist eine Gewichts-Initialisierungsmethode, die entwickelt wurde, um Aktivierungen und Gradienten in einem gesunden Bereich zu halten.

    XGBoost

    XGBoost (Extreme Gradient Boosting) ist ein hochperformanter Ensemble-Learning-Algorithmus, der Gradient Boosting mit Entscheidungsbäumen für überlegene Vorhersagegenauigkeit kombiniert.

    XLM (Cross-lingual Language Model)

    XLM bezeichnet Cross-lingual Language Modeling-Ansätze und Modell-Familien, die entwickelt wurden, um mehrere Sprachen in einem gemeinsamen Embedding-Raum darzustellen.

    XLM-R (Cross-lingual RoBERTa)

    XLM-R ist eine mehrsprachige Transformer-Modell-Familie, die oft für cross-linguale Verständnis-Aufgaben verwendet wird (Classification, NER, Semantic Similarity).

    XLNet

    XLNet ist ein Transformer-basierter Language Model-Ansatz, der permutationsbasiertes Training verwendet um bidirektionalen Kontext bei Beibehaltung autoregressiver Eigenschaften zu erfassen.

    XOR-Problem

    Das XOR-Problem ist ein klassisches Beispiel, das zeigt, dass ein einzelner linearer Klassifizierer Daten, die nicht linear separierbar sind, nicht trennen kann.

    Begriff nicht gefunden?

    Durchsuchen Sie das gesamte Glossar mit über 1407 Begriffen aus allen Kategorien.

    Gesamtes Glossar ansehen
    👋Fragen? Chatte mit uns!