ResNet
Eine CNN-Architektur mit Skip Connections (Residualverbindungen), die das Training sehr tiefer Netzwerke ermöglicht.
ResNet führte Skip Connections ein, die das Training extrem tiefer Netze ermöglichten – bis heute der Standard-Backbone für Transfer Learning in Computer Vision.
Erklärung
ResNets lösen das Vanishing-Gradient-Problem durch Residualverbindungen, die den Input direkt zu tieferen Schichten weiterleiten. Dies ermöglichte erstmals Netzwerke mit 100+ Schichten.
Relevanz für Marketing
ResNet ist der meistgenutzte Backbone für Transfer Learning in Computer Vision – von Feature Extraction bis Fine-Tuning.
Beispiel
Ein vortrainiertes ResNet-50 wird als Feature-Extraktor für eine Produktbild-Suchmaschine verwendet.
Häufige Fallstricke
Für einfache Tasks oft überdimensioniert. Tiefere Varianten (ResNet-152) nicht immer besser als flachere. Ohne Augmentation anfällig für Overfitting.
Entstehung & Geschichte
Kaiming He et al. (Microsoft Research) veröffentlichten ResNet 2015 und gewannen die ImageNet Challenge mit 152 Schichten – erstmals besser als menschliche Genauigkeit. Das Paper wurde eines der meistzitierten in der KI-Geschichte.
Abgrenzung & Vergleiche
ResNet vs. VGG
VGG nutzt nur gestapelte Convolutions (max 19 Schichten). ResNet nutzt Skip Connections und skaliert auf 100+ Schichten.
ResNet vs. Vision Transformer (ViT)
ResNet ist CNN-basiert mit lokalen Filtern. ViT nutzt globale Self-Attention. ViT braucht mehr Daten, skaliert aber besser.