2 Tage EN / DE Max 16

Datenintegration mit Cloud Data Fusion

Dieser zweitägige Kurs führt die Teilnehmer in die Datenintegrationsfunktionen von Google Cloud mithilfe von Cloud Data Fusion ein. In diesem Kurs besprechen wir die Herausforderungen der Datenintegration und die Notwendigkeit einer Datenintegrationsplattform (Middleware). Anschließend erörtern wir, wie Cloud Data Fusion dabei helfen kann, Daten aus verschiedenen Quellen und Formaten effektiv zu integrieren und Erkenntnisse zu gewinnen. Wir werfen einen Blick auf die Hauptkomponenten von Cloud Data Fusion und deren Funktionsweise, wie man Batch-Daten und Echtzeit-Streaming-Daten mit visuellem Pipeline-Design, umfassender Nachverfolgung von Metadaten und Datenherkunft verarbeitet und wie man Datenpipelines auf verschiedenen Ausführungs-Engines bereitstellt.

€1.250,00 exkl. MwSt

Individuelle Terminplanung

Die Kurse finden als dedizierte Gruppen-Sessions statt. Nach Ihrer Buchung koordinieren wir einen Termin, der zu Ihrem Team passt.

Voraussetzungen

Den Teilnehmern wird empfohlen, „Einführung in das Data Engineering“ abgeschlossen zu haben.

Was Sie lernen werden

  • Den Bedarf an Datenintegration identifizieren.
  • Die Funktionen von Cloud Data Fusion als Datenintegrationsplattform verstehen.
  • Anwendungsfälle für eine mögliche Implementierung mit Cloud Data Fusion identifizieren.
  • Die Kernkomponenten von Cloud Data Fusion auflisten.
  • Batch- und Echtzeit-Datenverarbeitungs-Pipelines entwerfen und ausführen.
  • Mit Wrangler arbeiten, um Datentransformationen zu erstellen.
  • Konnektoren verwenden, um Daten aus verschiedenen Quellen und Formaten zu integrieren.
  • Ausführungsumgebung konfigurieren; Überwachung und Fehlerbehebung bei der Pipeline-Ausführung.
  • Die Beziehung zwischen Metadaten und Datenherkunft verstehen.

Kursablauf
Kurseinführung
Datenintegration: Was, warum, Herausforderungen In der Branche verwendete Datenintegrationstools Benutzerprofile Einführung in Cloud Data Fusion Kritische Funktionen der Datenintegration Cloud Data Fusion Benutzeroberflächenkomponenten
Cloud Data Fusion Architektur Kernkonzepte Datenpipelines und gerichtete azyklische Graphen (DAG) Lebenszyklus der Pipeline Entwerfen von Pipelines in Pipeline Studio
Verzweigen, Zusammenführen und Verbinden Aktionen und Benachrichtigungen Fehlerbehandlung und Makros Pipeline-Konfigurationen, Planung, Import und Export
Zeitpläne und Trigger Ausführungsumgebung: Rechenprofil und Bereitsteller Pipelines überwachen
Wrangler-Anweisungen Benutzerdefinierte Anweisungen
Die Datenintegrationsarchitektur verstehen Verschiedene Konnektoren auflisten Die Cloud Data Loss Prevention (DLP) API verwenden Die Referenzarchitektur von Streaming-Pipelines verstehen Eine Streaming-Pipeline erstellen und ausführen
Metadaten Datenherkunft
Kurszusammenfassung
Datenintegration mit Cloud Data Fusion