courseoutline_metadesc.tpl

Rapid Application Development Using Large Language Models (RADLLM) – Details

Detaillierter Kursinhalt

Einführung

  • Treffen Sie den Ausbilder.
  • Erstellen Sie ein Konto unter courses.nvidia.com/join

Vom Deep Learning zu grossen Sprachmodellen

  • Lernen Sie, wie grosse Sprachmodelle aufgebaut sind und wie man sie benutzt:
    • Überprüfen Sie das Deep Learning und die klassenbasierte Argumentation und sehen Sie, wie die Sprachmodellierung daraus hervorgeht.
    • Diskutieren Sie Transformator-Architekturen, -Schnittstellen und -Intuitionen sowie deren Skalierung und Veränderung, um moderne LLM-Lösungen zu entwickeln.

Spezialisierte Encoder-Modelle

  • Lernen Sie, wie Sie die verschiedenen Aufgabenspezifikationen betrachten können:
    • Entdecken Sie die modernsten HuggingFace-Drehgebermodelle.
    • Verwenden Sie bereits abgestimmte Modelle für interessante Aufgaben wie Token-Klassifizierung, Sequenzklassifizierung, Bereichsvorhersage und Zero-Shot-Klassifizierung.

Encoder-Decoder-Modelle für Seq2Seq

  • Erfahren Sie mehr über die Vorhersage von LLMs zur Vorhersage unbegrenzter Sequenzen:
    • Einführung einer Decoderkomponente für die autoregressive Texterzeugung.
    • Diskutieren Sie Cross-Attention für Sequenz-als-Kontext-Formulierungen.
    • Erörterung allgemeiner Ansätze für Multi-Tasking, Zero-Shot Reasoning.
    • Einführung in die multimodale Formulierung von Sequenzen und Untersuchung einiger Beispiele.

Decodermodelle für die Texterzeugung

  • Erfahren Sie mehr über reine Decodermodelle im GPT-Stil und wie sie spezifiziert und verwendet werden können:
    • Untersuchen Sie, wann ein reiner Decoder sinnvoll ist, und sprechen Sie über Probleme bei der Bildung.
    • Diskutieren Sie die Grösse des Modells, spezielle Einsatztechniken und Überlegungen.
    • Ziehen Sie einige grosse Textgenerierungsmodelle heran, um zu sehen, wie sie funktionieren.

Zustandsabhängige LLMs

  • Lernen Sie, wie man Sprachmodelle durch Kontextinjektion über stochastische Papageien erhebt:
    • Zeigen Sie moderne LLM-Kompositionstechniken für Geschichte und Zustandsverwaltung.
    • Erörterung der abrufgestützten Generierung (RAG) für den Zugriff auf die externe Umgebung.

Bewertung und Fragen und Antworten

  • Überprüfung der wichtigsten Erkenntnisse.
  • Nehmen Sie an einer codebasierten Prüfung teil, um ein Zertifikat zu erwerben.