Kursüberblick
In diesem Workshop lernen Sie Techniken für datenparalleles Deep-Learning-Training auf mehreren GPUs kennen, um die Trainingszeit für datenintensive Anwendungen zu verkürzen. Sie arbeiten mit Deep-Learning-Tools, -Frameworks und -Workflows für das Training neuronaler Netze und lernen, wie Sie die Trainingszeit für Modelle durch die Verteilung von Daten auf mehrere GPUs verkürzen und gleichzeitig die Genauigkeit des Trainings auf einer einzigen GPU beibehalten können.
Bitte beachten Sie, dass eine einmal bestätigte Buchung nicht mehr rückerstattet werden kann. Das bedeutet, dass Sie Ihren Platz für eine Veranstaltung nach der Bestätigung nicht mehr stornieren können und keine Rückerstattung erfolgt, unabhängig von der Teilnahme an der Veranstaltung.
Voraussetzungen
Erfahrung mit Deep Learning Training mit Python
Kursziele
Durch die Teilnahme an diesem Workshop werden Sie:
- Verstehen, wie datenparalleles Deep Learning-Training mit mehreren GPUs durchgeführt wird
- Maximaler Durchsatz beim Training, um mehrere GPUs optimal nutzen zu können
- Verteilen Sie das Training auf mehrere GPUs mit Pytorch Distributed Data Parallel
- Algorithmische Überlegungen zur Multi-GPU-Trainingsleistung und -genauigkeit verstehen und anwenden
Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.