Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Technologie

    TinyML

    Auch bekannt als:
    Tiny Machine Learning
    Mikrocontroller-ML
    Ultra-Low-Power ML
    Aktualisiert: 10.2.2026

    Machine Learning auf Mikrocontrollern und Ultra-Low-Power-Geräten mit wenigen Kilobyte RAM – KI auf einem Chip kleiner als eine Münze.

    Kurz erklärt

    TinyML bringt Machine Learning auf Mikrocontroller mit Kilobytes RAM – KI-Inferenz auf einem Chip kleiner als eine Münze, batteriebetrieben für Jahre.

    Erklärung

    TinyML läuft auf Cortex-M-Prozessoren mit <256KB RAM und <1mW Energieverbrauch. Frameworks wie TensorFlow Lite Micro und Edge Impulse ermöglichen Modell-Deployment. Typische Anwendungen: Keyword Spotting, Anomaly Detection, Gesture Recognition.

    Relevanz für Marketing

    TinyML ermöglicht KI in batteriebetriebenen IoT-Geräten, Wearables und Sensoren – milliardenfaches Deployment ohne Cloud-Abhängigkeit.

    Beispiel

    Ein Mikrocontroller-basierter Sensor erkennt Maschinenanomalien in der Fabrik per TinyML – läuft 2 Jahre mit einer Knopfzelle ohne Cloud-Verbindung.

    Häufige Fallstricke

    Extreme Modell-Constraints (oft <100KB), begrenzte Frameworks und Tooling, Debugging auf Mikrocontrollern schwierig, nicht für komplexe Aufgaben geeignet.

    Entstehung & Geschichte

    Pete Warden und Daniel Situnayake prägten den Begriff 2019. TensorFlow Lite Micro und die TinyML Foundation wurden 2019/2020 gegründet. Edge Impulse (2019) demokratisierte das Tooling. Arduino Nano 33 BLE wurde zur Standard-Entwicklungsplattform.

    Abgrenzung & Vergleiche

    TinyML vs. Edge AI

    Edge AI läuft auf leistungsfähigerer Hardware (Smartphones, Jetson); TinyML zielt auf Ultra-Low-Power-Mikrocontroller mit Kilobytes RAM.

    TinyML vs. On-Device Inference

    On-Device Inference umfasst Smartphones und Laptops; TinyML ist auf winzige Mikrocontroller mit extremen Ressourcen-Constraints spezialisiert.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!