Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Technologie

    Modal

    Aktualisiert: 11.2.2026

    Cloud-Plattform für serverless GPU-Computing, die ML-Inference und Batch-Jobs als Python-Funktionen deployt.

    Kurz erklärt

    Modal deployt Python-Funktionen als serverless GPU-Jobs – kein Kubernetes, kein Docker, nur dekorierte Funktionen.

    Erklärung

    Modal eliminiert Infrastruktur-Management: Python-Funktionen werden mit @app.function dekoriert und in der Cloud mit GPU-Zugang ausgeführt. Features umfassen Container-Caching, Secrets Management und Web Endpoints.

    Relevanz für Marketing

    Modal ist ideal für ML-Teams, die GPU-Compute ohne Kubernetes- oder Cloud-Infrastruktur-Expertise brauchen.

    Häufige Fallstricke

    Vendor-Lock-in bei Modal-spezifischen APIs. Cold Starts bei seltenen Aufrufen. Kosten bei intensiver Nutzung.

    Entstehung & Geschichte

    Modal wurde 2021 von Erik Bernhardsson (ehemals Spotify) gegründet. Die Plattform gewann schnell Traktion in der ML-Community durch einfache GPU-Provisionierung. Series B Funding 2024 über $100M.

    Abgrenzung & Vergleiche

    Modal vs. Replicate

    Replicate ist spezialisiert auf Model Hosting mit Cog; Modal ist eine allgemeine serverless GPU-Plattform für beliebigen Code.

    Modal vs. AWS Lambda

    Lambda ist CPU-only serverless; Modal bietet GPU-serverless mit Container-Image-Support und ML-Optimierungen.

    Verwandte Services

    Verwandte Begriffe

    ServerlessGPU ComputingModel ServingBatch Inference
    👋Fragen? Chatte mit uns!