Phi
Microsofts Small Language Models (SLMs), die trotz geringer Größe überraschend starke Performance zeigen und On-Device-AI ermöglichen.
Phi ist Microsofts Small Language Model Familie – GPT-3.5-Performance bei nur 3.8B Parametern, läuft auf Smartphones.
Erklärung
Phi-3 (2024): Nur 3.8B Parameter, aber Performance nahe GPT-3.5. Geheimnis: Curated High-Quality Training Data. Varianten: Mini, Small, Medium. Läuft auf Smartphones.
Relevanz für Marketing
Phi-Modelle ermöglichen AI ohne Cloud: Mobile Apps, IoT-Geräte, Edge-Deployments. Für Marketing: On-Device-Personalisierung ohne Datenschutz-Bedenken.
Beispiel
Eine Banking-App nutzt Phi-3: AI-Chatbot läuft komplett auf dem Smartphone, keine Kundendaten verlassen das Gerät.
Häufige Fallstricke
Weniger Wissen als große Modelle. Begrenzte Konversationsfähigkeit. Nicht für komplexe Reasoning-Tasks.
Entstehung & Geschichte
Microsoft Research veröffentlichte Phi-1 (Juni 2023) für Code, Phi-2 (Dez 2023) als General-Purpose SLM. Phi-3 (April 2024) erreichte GPT-3.5-Niveau bei 3.8B Parametern.
Abgrenzung & Vergleiche
Phi vs. Llama
Phi ist extrem klein (3-14B) für On-Device; Llama-Modelle sind größer (7-405B) mit breiterer Wissensbasis.
Phi vs. Gemini Nano
Phi ist Open Source und selbst hostbar; Gemini Nano ist Closed Source und nur auf Google-Geräten verfügbar.