TinyML
Machine Learning auf Mikrocontrollern und Ultra-Low-Power-Geräten mit wenigen Kilobyte RAM – KI auf einem Chip kleiner als eine Münze.
TinyML bringt Machine Learning auf Mikrocontroller mit Kilobytes RAM – KI-Inferenz auf einem Chip kleiner als eine Münze, batteriebetrieben für Jahre.
Erklärung
TinyML läuft auf Cortex-M-Prozessoren mit <256KB RAM und <1mW Energieverbrauch. Frameworks wie TensorFlow Lite Micro und Edge Impulse ermöglichen Modell-Deployment. Typische Anwendungen: Keyword Spotting, Anomaly Detection, Gesture Recognition.
Relevanz für Marketing
TinyML ermöglicht KI in batteriebetriebenen IoT-Geräten, Wearables und Sensoren – milliardenfaches Deployment ohne Cloud-Abhängigkeit.
Beispiel
Ein Mikrocontroller-basierter Sensor erkennt Maschinenanomalien in der Fabrik per TinyML – läuft 2 Jahre mit einer Knopfzelle ohne Cloud-Verbindung.
Häufige Fallstricke
Extreme Modell-Constraints (oft <100KB), begrenzte Frameworks und Tooling, Debugging auf Mikrocontrollern schwierig, nicht für komplexe Aufgaben geeignet.
Entstehung & Geschichte
Pete Warden und Daniel Situnayake prägten den Begriff 2019. TensorFlow Lite Micro und die TinyML Foundation wurden 2019/2020 gegründet. Edge Impulse (2019) demokratisierte das Tooling. Arduino Nano 33 BLE wurde zur Standard-Entwicklungsplattform.
Abgrenzung & Vergleiche
TinyML vs. Edge AI
Edge AI läuft auf leistungsfähigerer Hardware (Smartphones, Jetson); TinyML zielt auf Ultra-Low-Power-Mikrocontroller mit Kilobytes RAM.
TinyML vs. On-Device Inference
On-Device Inference umfasst Smartphones und Laptops; TinyML ist auf winzige Mikrocontroller mit extremen Ressourcen-Constraints spezialisiert.