Der Kurs vermittelt wichtige Konzepte und Best Practices rund um Planung, Implementierung und Betrieb von (auto-)skalierbaren KI/ML Clustern mit NVIDIA GPUs auf Hypervisoren von VMware (vSphere), AWS und GCP, containerisiert mit Kubernetes und OpenShift. Dabei wird der Fokus auf langfristig planbaren und kosteneffizienten Betrieb mithilfe maximaler Automation (IaaS/IaC/Operatoren) gesetzt. Zudem werden die Vor- und Nachteile der jeweiligen Implementierungsvarianten beleuchtet. Im Rahmen der Schulung kann auch, soweit technisch, zeitlich und thematisch möglich, auf konkrete Problemstellungen der Teilnehmenden eingegangen werden.
Der Kurs vermittelt wichtige Konzepte und Best Practices rund um Planung, Implementierung und Betrieb von (auto-)skalierbaren KI/ML Clustern mit NVIDIA GPUs auf Hypervisoren von VMware (vSphere), AWS u ...
Mehr Informationen >>
Dieser Kurs richtet sich an Entscheider:innen, Architekten, Projektleitende und Admins/DevOps Teams aus dem Linux-Umfeld, die sich grundlegendes Verständnis über Architektur, Planung und Betrieb von (auto-)skalierbaren NVIDIA GPU-Accelerated Container Clustern (Kubernetes / OpenShift) als Plattform zum Betrieb von KI/ML Systemen aneignen möchten. Der Fokus liegt dabei ausdrücklich auf Operations/Infrastruktur, nicht auf Dev-spezifischen Belangen /ML-Coding.
Die Teilnehmenden sollten folgende Vorkenntnisse besitzen:
Grundlegende theoretische Vorkenntnisse im Bereich Container/Kubernetes, Virtualisierung und HA-Clustering sind hilfreich, aber nicht zwingend erforderlich.
Dieser Kurs richtet sich an Entscheider:innen, Architekten, Projektleitende und Admins/DevOps Teams aus dem Linux-Umfeld, die sich grundlegendes Verständnis über Architektur, Planung und Betrieb von ...
Mehr Informationen >>