Kursüberblick
Lernen Sie, wie Sie eine durchgängige, hardwarebeschleunigte Pipeline für maschinelles Lernen für grosse Datensätze erstellen können. Während des gesamten Entwicklungsprozesses verwenden Sie Diagnosetools, um Verzögerungen zu erkennen und lernen, häufige Fallstricke zu entschärfen.
Bitte beachten Sie, dass eine einmal bestätigte Buchung nicht mehr rückerstattet werden kann. Das bedeutet, dass Sie Ihren Platz für eine Veranstaltung nach der Bestätigung nicht mehr stornieren können und keine Rückerstattung erfolgt, unabhängig von der Teilnahme an der Veranstaltung.
Voraussetzungen
- Grundlegende Kenntnisse eines standardmässigen Data-Science-Workflows für tabellarische Daten. Um ein angemessenes Verständnis zu erlangen, empfehlen wir diesen Artikel.
- Kenntnisse über verteiltes Rechnen mit Dask. Um ein angemessenes Verständnis zu erlangen, empfehlen wir die "Get Started"-Anleitung von Dask.
- Abschluss des DLI-Kurses "Fundamentals of Accelerated Data Science" oder die Fähigkeit, Daten mit cuDF zu manipulieren und einige Erfahrung in der Erstellung von Machine-Learning-Modellen mit cuML.
Kursziele
- Entwicklung und Bereitstellung einer beschleunigten End-to-End-Datenverarbeitungspipeline für grosse Datensätze
- Skalierung datenwissenschaftlicher Arbeitsabläufe mit verteilter Datenverarbeitung
- DataFrame-Transformationen durchführen, die die Vorteile der Hardwarebeschleunigung nutzen und versteckte Verlangsamungen vermeiden
- Verbessern Sie Lösungen für maschinelles Lernen durch Feature-Engineering und schnelles Experimentieren
- Verbesserung der Leistung der Datenverarbeitungspipeline durch Optimierung der Speicherverwaltung und der Hardwareauslastung
Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.