Data Parallelism: How to Train Deep Learning Models on Multiple GPUs (DPHTDLM)

 

Kursüberblick

In diesem Workshop lernen Sie Techniken für datenparalleles Deep-Learning-Training auf mehreren GPUs kennen, um die Trainingszeit für datenintensive Anwendungen zu verkürzen. Sie arbeiten mit Deep-Learning-Tools, -Frameworks und -Workflows für das Training neuronaler Netze und lernen, wie Sie die Trainingszeit für Modelle durch die Verteilung von Daten auf mehrere GPUs verkürzen und gleichzeitig die Genauigkeit des Trainings auf einer einzigen GPU beibehalten können.

Bitte beachten Sie, dass eine einmal bestätigte Buchung nicht mehr rückerstattet werden kann. Das bedeutet, dass Sie Ihren Platz für eine Veranstaltung nach der Bestätigung nicht mehr stornieren können und keine Rückerstattung erfolgt, unabhängig von der Teilnahme an der Veranstaltung.

Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.

Voraussetzungen

Erfahrung mit Deep Learning Training mit Python

Kursziele

Durch die Teilnahme an diesem Workshop werden Sie:

  • Verstehen, wie datenparalleles Deep Learning-Training mit mehreren GPUs durchgeführt wird
  • Maximaler Durchsatz beim Training, um mehrere GPUs optimal nutzen zu können
  • Verteilen Sie das Training auf mehrere GPUs mit Pytorch Distributed Data Parallel
  • Algorithmische Überlegungen zur Multi-GPU-Trainingsleistung und -genauigkeit verstehen und anwenden

Weiterführende Kurse

Preise & Trainingsmethoden

Online Training

Dauer
1 Tag

Preis
  • auf Anfrage
Klassenraum-Training

Dauer
1 Tag

Preis
  • auf Anfrage

Derzeit gibt es keine Trainingstermine für diesen Kurs.