Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Technologie

    Seldon Core

    Aktualisiert: 11.2.2026

    Kubernetes-native Open-Source-Plattform für das Deployment, Scaling und Monitoring von ML-Modellen in Produktion.

    Kurz erklärt

    Seldon Core deployt ML-Modelle als Kubernetes-Microservices mit nativem A/B Testing, Canary Deployments und Explainability.

    Erklärung

    Seldon Core nutzt Kubernetes Custom Resources (SeldonDeployment) um ML-Modelle als Microservices zu deployen. Es unterstützt A/B Testing, Canary Deployments, Explainability und Multi-Armed Bandits nativ.

    Relevanz für Marketing

    Seldon Core ist ideal für Kubernetes-zentrierte Unternehmen mit komplexen ML-Deployment-Anforderungen.

    Häufige Fallstricke

    Erfordert Kubernetes-Expertise. Komplexe CRD-Konfiguration. Overhead für einfache Deployments.

    Entstehung & Geschichte

    Seldon Technologies wurde 2014 in London gegründet. Seldon Core wurde 2018 als Open-Source-Projekt veröffentlicht und entwickelte sich zum Standard für Kubernetes-basiertes ML-Serving. Seldon Deploy bietet Enterprise-Features.

    Abgrenzung & Vergleiche

    Seldon Core vs. KServe

    KServe (ehemals KFServing) ist leichtgewichtiger und Kubeflow-integriert; Seldon Core bietet mehr Enterprise-Features wie Explainability und MAB.

    Seldon Core vs. BentoML

    BentoML fokussiert auf Developer Experience und Packaging; Seldon Core auf Kubernetes-native Governance und Monitoring.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!