Überblick
Die Prüfung zum Red Hat Certified Specialist in Event-Driven Development with Kafka testet Ihre Fähigkeiten und Kenntnisse in Bezug auf die Codierung ereignisgesteuerter Anwendungen mit Apache Kafka und die Entwicklung von Apache Kafka Streams. Die Prüfung konzentriert sich auf die grundlegenden Fähigkeiten, die für die Erstellung von Anwendungen mit ereignisgesteuerter Architektur erforderlich sind.
Mit dem Bestehen dieser Prüfung werden Sie zum Red Hat Certified Specialist in Event-Driven Development with Kafka, was auch für die Zertifizierung zum Red Hat Certified Architect (RHCA®) zählt.
Diese Prüfung basiert auf Red Hat® AMQ® Streams 1.8 mit Apache Kafka 2.8.
Zielgruppe
Die folgenden Zielgruppen könnten sich für den Erwerb des Zertifikats Red Hat Certified Specialist in Event-Driven Development with Kafka interessieren:
- Java-Entwickler und -Architekten, die ereignisgesteuerte Anwendungen mit Apache Kafka und Kubernetes implementieren.
- Red Hat-zertifizierte Fachleute, die die Zertifizierung zum Red Hat Certified Architect (RHCA) anstreben.
Voraussetzungen
- Vertrautheit mit der Verwendung von VSCode/VSCodium in einer Red Hat Enterprise Linux-Umgebung.
- Gute Erfahrung mit Java SE, einschliesslich Kenntnis und Verständnis der zentralen Java-Konzepte und APIs. Erforderlich sind z. B. Ausnahmen, Annotationen, Lambdas und Vertrautheit mit funktionaler Programmierung und der Collections-API.
- Eine gewisse Vertrautheit mit OpenShift/Kubernetes ist von Vorteil.
Red Hat empfiehlt, dass die Kandidaten für diese Prüfung den Titel Red Hat Certified Cloud-Native Developer (EX378) erwerben, bevor sie diese Prüfung ablegen, dies ist jedoch nicht erforderlich.
Produktbeschreibung
Lernpunkte für die Prüfung
Im Rahmen dieser Prüfung sollten Sie in der Lage sein, diese Aufgaben auszuführen:
Verstehen und Arbeiten mit ereignisgesteuerten Anwendungen mit AMQ Streams API.
- Wissen, wie man Daten aus Kafka sendet und liest.
- In der Lage sein, Microservices und andere Arten von Anwendungen zu entwickeln, um Daten mit extrem hohem Durchsatz und geringer Latenz gemeinsam zu nutzen.
Verstehen des Kafka-Ökosystems und der Architektur:
- Wie man Themen erstellt, konfiguriert und verwaltet.
- Wie man das Ökosystem so konfiguriert, dass Daten mit extrem hohem Durchsatz und geringer Latenz gemeinsam genutzt werden können.
- Wie skalieren und garantieren Sie die Nachrichtenbestellung?
- Nachrichtenverdichtung, um alte Datensätze zu entfernen, und wie man sie einstellt.
- Konfiguration und Nutzung der Replikation von Daten zur Steuerung der Fehlertoleranz.
- Speicherung grosser Datenmengen für den sofortigen Zugriff.
Verstehen und Arbeiten mit einer Quarkus-Anwendung, die mit Kafka verbunden ist
- Verbindung zu Kafka mit Reactive Messaging
- Verbindung zu Apache Kafka mit seiner nativen API
- Nachrichten produzieren und konsumieren und ereignisgesteuerte und datengesteuerte Anwendungen implementieren
- Sie sollten mit den von Quarkus verwendeten reaktiven Bibliotheken vertraut sein: Asynchronous Java oder Publisher API, RxJava oder Reactor APIs, Mutiny, usw.
Bereitstellen und Konfigurieren des Zugangs zu einem Kafka-Cluster.
- Sie müssen in der Lage sein, auf die externen Listener von Kafka in der Cloud zuzugreifen. Im Falle von Kubernetes oder Red Hat OpenShift stellen Sie die Verbindung über Knotenports, Load Balancer und extern über eine Ingress- oder OpenShift-Route her.
- Verstehen, wie man die Sicherheit der Kommunikation zwischen dem Kafka-Client und dem Cluster konfiguriert.
- Nachrichten produzieren und konsumieren und ereignisgesteuerte und datengesteuerte Anwendungen implementieren
- Verstehen und Bereitstellen der Kafka-Client-Konfiguration für die erforderliche Authentifizierungs- und Autorisierungssicherheit.
Bereitstellung und Verwendung des Schemas Red Hat Service Registry zur Entkopplung der Daten von Client-Anwendungen, gemeinsame Nutzung und Verwaltung der Datentypen zur Laufzeit:
- Verstehen und Arbeiten mit den verschiedenen Kafka Streams APIs wie Streams DSL und Processor API.
- Konfigurieren und Bereitstellen der richtigen Kafka SerDes (Serializer/Deserializer) für die Datensätze, um die Daten korrekt zu materialisieren
- In der Lage sein, Daten aus einem oder mehreren Eingabeströmen zu empfangen, komplexe Operationen wie Zuordnung, Filterung oder Verknüpfung, Neuaufteilung und/oder Gruppierung durchzuführen und die Ergebnisse in einen oder mehrere Ausgabeströme zu schreiben.
- Verstehen Sie die Stream-Table-Dualität und führen Sie zustandsabhängige Operationen wie Joins, Aggregationen und Windowed Joins durch.
- Verstehen, wie man benutzerdefinierte Prozessoren und Transformatoren definiert und verbindet, um mit Zustandsspeichern unter Verwendung der Prozessor-API zu interagieren.
- Verstehen Sie die Ereignismanipulation, die neue Sammlungen aus bestehenden ableitet und Änderungen zwischen ihnen beschreibt.
Datenintegration mit Kafka Connect:
- Verstehen Sie, wie Kafka Connect Zuverlässigkeit und Skalierbarkeit bei der Datenübertragung zwischen Kafka und anderen heterogenen Datensystemen bietet.
- Verstehen Sie, wie Kafka Connect die Datenkonvertierung, -umwandlung und das Offset-Management erleichtert.
- Wenden Sie die Erkennung und Erfassung von Datenänderungen (CDC) mit Debezium an.
- Verstehen der verschiedenen Einzelplatz-/Verteilungsbetriebsarten und ihrer Anwendungsfälle.
- Verwenden Sie die vorgefertigten AMQ-Streams-Konnektoren.
Verstehen und Anwenden fortgeschrittener ereignisgesteuerter Muster in Anwendungen, die auf Apache Kafka basieren:
- Erkennen und Arbeiten in einer Anwendung mit Event Sourcing und CQRS-Mustern
- Sie kennen und arbeiten mit fortgeschrittenen Techniken wie langlaufenden Geschäftstransaktionen mit Saga-Orchestrierung und Outbox-Patterns zum Austausch von Daten zwischen verschiedenen Diensten.
Behebung der häufigsten Probleme in ereignisgesteuerten Anwendungen, wie z. B. Aufrechterhaltung der Nachrichtenreihenfolge, Wiederholungen und Leerlauf, Behandlung doppelter Ereignisse, Implementierung von Streams-Testfällen
- Während der Prüfung werden Sie möglicherweise mit einer oder mehreren vorgefertigten Java-Anwendungen arbeiten müssen. Sie werden einige Teile des Anwendungscodes ändern müssen.
Wie bei allen leistungsbasierten Prüfungen von Red Hat müssen die Konfigurationen nach einem Neustart ohne Eingreifen bestehen bleiben.
Sonderregelung KIOSK/Remote Examen
Bitte beachten Sie die abweichenden Stornobedingungen für Red Hat Individual Examen (KIOSK / Remote).
Die Laufzeit von 365 Tagen beginnt ab dem Bestelldatum. Es ist kein Rücktritt vom Kauf möglich.
Alle Käufe von Red Hat KIOSK / Remote Examen sind Vorkasse pflichtig und nicht erstattungsfähig.
Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.