Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    ResNet

    Auch bekannt als:
    Residual Network
    Residualnetzwerk
    ResNet-50
    ResNet-101
    Aktualisiert: 10.2.2026

    Eine CNN-Architektur mit Skip Connections (Residualverbindungen), die das Training sehr tiefer Netzwerke ermöglicht.

    Kurz erklärt

    ResNet führte Skip Connections ein, die das Training extrem tiefer Netze ermöglichten – bis heute der Standard-Backbone für Transfer Learning in Computer Vision.

    Erklärung

    ResNets lösen das Vanishing-Gradient-Problem durch Residualverbindungen, die den Input direkt zu tieferen Schichten weiterleiten. Dies ermöglichte erstmals Netzwerke mit 100+ Schichten.

    Relevanz für Marketing

    ResNet ist der meistgenutzte Backbone für Transfer Learning in Computer Vision – von Feature Extraction bis Fine-Tuning.

    Beispiel

    Ein vortrainiertes ResNet-50 wird als Feature-Extraktor für eine Produktbild-Suchmaschine verwendet.

    Häufige Fallstricke

    Für einfache Tasks oft überdimensioniert. Tiefere Varianten (ResNet-152) nicht immer besser als flachere. Ohne Augmentation anfällig für Overfitting.

    Entstehung & Geschichte

    Kaiming He et al. (Microsoft Research) veröffentlichten ResNet 2015 und gewannen die ImageNet Challenge mit 152 Schichten – erstmals besser als menschliche Genauigkeit. Das Paper wurde eines der meistzitierten in der KI-Geschichte.

    Abgrenzung & Vergleiche

    ResNet vs. VGG

    VGG nutzt nur gestapelte Convolutions (max 19 Schichten). ResNet nutzt Skip Connections und skaliert auf 100+ Schichten.

    ResNet vs. Vision Transformer (ViT)

    ResNet ist CNN-basiert mit lokalen Filtern. ViT nutzt globale Self-Attention. ViT braucht mehr Daten, skaliert aber besser.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!