Kursüberblick
Heutige High-Performance-Computing (HPC)- und Deep-Learning-Anwendungen profitieren von der Rechenleistung von GPUs im Cluster und benötigen diese sogar. Das Schreiben von CUDA-Anwendungen, die GPUs in einem Cluster korrekt und effizient nutzen können, erfordert eine Reihe von Fähigkeiten. In diesem Workshop lernen Sie die Tools und Techniken kennen, die Sie zum Schreiben von CUDA C++ Anwendungen benötigen, die effizient auf Cluster von NVIDIA GPUs skalieren können.
Bitte beachten Sie, dass eine einmal bestätigte Buchung nicht mehr rückerstattet werden kann. Das bedeutet, dass Sie Ihren Platz für eine Veranstaltung nach der Bestätigung nicht mehr stornieren können und keine Rückerstattung erfolgt, unabhängig von der Teilnahme an der Veranstaltung.
Voraussetzungen
Mittlere Erfahrung im Schreiben von CUDA C/C++ Anwendungen.
Empfohlene Materialien, um die Voraussetzungen zu erfüllen:
- Grundlagen des beschleunigten Rechnens mit CUDA C/C++
- Beschleunigung von CUDA C++-Anwendungen mit mehreren GPUs
- Beschleunigung von CUDA C++-Anwendungen mit gleichzeitigen Streams
- Skalierung von Arbeitslasten über mehrere GPUs mit CUDA C++
Kursziele
Durch die Teilnahme an diesem Workshop werden Sie:
- Lernen Sie verschiedene Methoden zum Schreiben von Multi-GPU CUDA C++ Anwendungen
- Verwendung einer Vielzahl von Multi-GPU-Kommunikationsmustern und Verstehen der damit verbundenen Kompromisse
- Schreiben Sie portablen, skalierbaren CUDA-Code mit dem SPMD-Paradigma (Single Program Multiple Data) unter Verwendung von CUDA-fähigem MPI und NVSHMEM
- Verbessern Sie Multi-GPU SPMD-Code mit dem symmetrischen Speichermodell von NVSHMEM und seiner Fähigkeit, GPU-initiierte Datenübertragungen durchzuführen
- Üben Sie sich in gängigen Multi-GPU-Codierungsparadigmen wie Domänenzerlegung und Halo-Austausch
Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.