Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Technologie

    Ollama

    Auch bekannt als:
    Ollama CLI
    Local LLM Runner
    Aktualisiert: 9.2.2026

    Ein benutzerfreundliches Tool zum lokalen Ausführen von LLMs auf Consumer-Hardware, mit einfacher Installation und Docker-artiger Modell-Verwaltung.

    Kurz erklärt

    Ollama = "Docker für LLMs" – lokale Modelle mit einem Befehl starten, ideal für Entwicklung und Privacy.

    Erklärung

    Ollama macht lokale LLMs zugänglich: Ein Befehl zum Starten, automatischer Download von Modellen, OpenAI-kompatible API. Nutzt llama.cpp als Backend für CPU und GPU-Inference. Ideal für Entwicklung, Testing und Privacy-sensitive Anwendungen.

    Relevanz für Marketing

    Ollama ermöglicht jedem Marketer, LLMs lokal zu testen. Kein Cloud-Account, keine API-Kosten für Experimente. Perfekt für Prototyping und datenschutzkritische Inhalte.

    Beispiel

    `ollama run llama3:8b` startet Llama 3 8B interaktiv. `ollama serve` startet API-Server auf localhost:11434 kompatibel mit OpenAI-Clients.

    Häufige Fallstricke

    Performance auf CPU begrenzt (langsam für große Modelle). GPU-Support erfordert richtige Treiber. Nicht für Production-Serving optimiert (nutze vLLM dafür).

    Entstehung & Geschichte

    Ollama wurde 2023 von Meta's llama.cpp inspiriert und vereinfacht lokale LLM-Nutzung radikal. Hat schnell über 100K GitHub Stars erreicht.

    Abgrenzung & Vergleiche

    Ollama vs. llama.cpp

    llama.cpp ist das Backend (C++); Ollama ist das User-Frontend mit Modell-Management und API-Server.

    Ollama vs. vLLM

    vLLM ist Production-Serving (High Throughput); Ollama ist für lokale Entwicklung und Einzelnutzer optimiert.

    Verwandte Services

    Verwandte Begriffe

    Large Language Model (LLM)local-inferencellama-cppGGUF
    👋Fragen? Chatte mit uns!