Model Parallelism: Building and Deploying Large Neural Networks (MPBDLNN)

 

Kursüberblick

Sehr grosse tiefe neuronale Netze (DNNs), ob sie nun für die Verarbeitung natürlicher Sprache (z. B. GPT-3), für das Sehen (z. B. huge Vision Transformers) oder für die Sprach-KI (z. B. Wave2Vec 2) eingesetzt werden, haben bestimmte Eigenschaften, die sie von ihren kleineren Gegenstücken unterscheiden. Da DNNs immer grösser werden und auf immer grösseren Datensätzen trainiert werden, können sie sich mit nur einer Handvoll Trainingsbeispielen an neue Aufgaben anpassen, was den Weg zur allgemeinen künstlichen Intelligenz beschleunigt. Das Trainieren von Modellen, die Dutzende bis Hunderte von Milliarden von Parametern auf riesigen Datensätzen enthalten, ist nicht trivial und erfordert eine einzigartige Kombination aus KI, High-Performance-Computing (HPC) und Systemwissen.

Bitte beachten Sie, dass eine einmal bestätigte Buchung nicht mehr rückerstattet werden kann. Das bedeutet, dass Sie Ihren Platz für eine Veranstaltung nach der Bestätigung nicht mehr stornieren können und keine Rückerstattung erfolgt, unabhängig von der Teilnahme an der Veranstaltung.

Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.

Voraussetzungen

Vertrautheit mit:

  • Gutes Verständnis von PyTorch
  • Gutes Verständnis von Deep Learning und datenparallelen Trainingskonzepten
  • Praxis mit Deep Learning und Datenparallelität sind nützlich, aber optional

Preise & Trainingsmethoden

Online Training

Dauer
1 Tag

Preis
  • auf Anfrage
Klassenraum-Training

Dauer
1 Tag

Preis
  • auf Anfrage

Derzeit gibt es keine Trainingstermine für diesen Kurs.