TPU (Tensor Processing Unit)
Ein von Google entwickelter, spezialisierter KI-Chip, der für Matrix-Multiplikationen in neuronalen Netzen optimiert ist und deutlich effizienter als GPUs für bestimmte KI-Workloads arbeitet.
TPUs sind Google-proprietäre KI-Chips, optimiert für Tensor-Operationen – bis zu 10x kosteneffizienter als GPUs für Training und Inference bestimmter Modell-Architekturen.
Erklärung
TPUs enthalten Systolic Arrays – spezialisierte Hardware für Tensor-Operationen. Sie sind über Google Cloud verfügbar und treiben intern Googles Suchalgorithmen, Gmail, YouTube-Empfehlungen und Gemini-Modelle an.
Relevanz für Marketing
TPUs ermöglichen effizientes Training großer Modelle zu geringeren Kosten. Google Cloud TPU Pods skalieren bis zu Exaflops für Foundation-Model-Training.
Beispiel
Google trainierte PaLM (540B Parameter) auf TPU v4 Pods – 6.144 TPU-Chips in einem Pod ermöglichten Training in Wochen statt Monaten.
Häufige Fallstricke
Nur über Google Cloud verfügbar – Vendor Lock-in. Software-Ökosystem kleiner als CUDA. Nicht für alle Workload-Typen optimal.
Entstehung & Geschichte
Google stellte TPU v1 intern 2015 bereit und veröffentlichte 2017 das Paper. TPU v4 (2022) erreicht 275 TFLOPS. TPU v5e (2023) fokussiert auf Inference-Effizienz. TPU Trillium (v6) wurde 2024 angekündigt.
Abgrenzung & Vergleiche
TPU (Tensor Processing Unit) vs. GPU (NVIDIA)
GPUs sind flexibler mit breitem CUDA-Ökosystem; TPUs sind für Tensor-Ops optimiert aber Google-Cloud-exklusiv.
TPU (Tensor Processing Unit) vs. Neural Processing Unit (NPU)
NPUs sind für On-Device-Inference auf Smartphones; TPUs sind Cloud-basierte High-Performance-Chips für Training und Inference.