- Künstliche Neuronale Netze (ANN)
- Backpropagation, Regularisierung
- Stochastischer Gradientenabstieg, verschiedene Optimierer
- Verschiedene Loss-Funktionen
- Initialisierung der Gewichte
- Epoche und Batch-Size
- Callbacks, Early Stopping
- Faltungsneuronale Netze (CNNs)
- Max Pooling, CNN Architekturen
- Padding und Stride
- Filter und Faltungsschichten
- Programmtechnische Umsetzung mit PyTorch und TensorFlow
- Transfer Learning und vortrainierte Netze
- Moderne Convolutional Netzwerke
- VGG16, VGG19, U-Net, ResNet50
- Klassifizierung von Bildern
- Softmax-Layer, Cross-Entropy Loss
- Detektion von Objekten durch Bounding Boxes (YOLO, Fast-RCNN, ....)
- Netzwerk mit zwei verschiedenen Outputs
- Mean-Squared-Error und Cross-Entropy Loss
- Trainingsgüte: Intersection over Union (IoU)
- Semantische Segmentierung (pixelweises Klassifizieren)
- Cross-Entropy Loss für Multiclass Segmentierung
- mean IoU in der semantischen Segmentierung
- Vorstellung bekannter Netzwerkarchitekturen: U-Net, ResNet50
- Up-Convolution und Transpose Convolution
- UNet, PSPNet, DeepLab, PAN, UNet++,
- Hyperparameter-Optimierung
- Training mit wenig Daten
- Erweiterung des Training-Datensatzes durch Data Augmentation
- Umsetzung in Keras
- Fine-Tuning
- Weitere bekannte Netzwerkarchitekturen: Inception-V3, ResNet,
- Code von (bereits trainierten) Netzwerken finden
- Verwendung von vortrainierten Netzwerken sowie nachtrainieren (Fine-Tuning)
Der Schwerpunkt des Seminars liegt auf der Durchführung von Übungen. In den folgenden Modulen werden die Programme (Python) auf Basis TensorFlow bzw. PyTorch entwickelt:
- Übung 1: Erstellung von Deep Learning-Trainingsdatensätzen
- Übung 2: Bildklassifizierung (z. B. Flüsse, Wald, Straßen,...)
- Übung 3: Landnutzung und Bodenbedeckung mit Hilfe von hyperspektralen Satellitenbildern
- Übung 4: Objekterkennung (z. B. Schwimmbäder, Autos, Flugzeuge...)
- Übung 5: Bildsegmentierung einzelner Klassen (z.B. Gebäudeerkennung...)
- Übung 6: Bildsegmentierung mehrerer Klassen (z.B. Landnutzung / Landbedeckung)