Datenintegration & ETL mit Talend Open Studio von 0 auf 100
What you'll learn
- verbinde deine Datenquellen - wie Dateien, Datenbanken, XML, Webservices, Google Drive und andere Formate - miteinander
- baue eigene Integrationsprozesse anhand von praktischen Beispielen und umfassenden Szenarien auf
- beherrsche die wichtigsten Transformationen, wie Mappings, Joins, Aggregationen und Sortierungen
- orchestriere deine Prozesse zu größeren Einheiten mit Hilfe von preJobs, postJobs, Variablen und Hierarchien
Requirements
- Interesse an Daten und an deren Zusammenführung
- Computer/Laptop mit 4+GB RAM und aktuelle Java Runtime
Description
Daten. Überall. Alle brav in ihrer eigenen Umgebung. Aber wer lässt sie eigentlich miteinander sprechen? Du! Mit Datenintegration. Werde zum Daten-Versteher und schaffe Mehrwert mit ETL und deinem neuen Wissen!
Talend Open Studio ist eine offene, flexible Lösung zur Datenintegration. Du baust deine Prozesse mit einem grafischen Editor und über 600 Komponenten sorgen für Flexibilität.
Jeder Abschnitt hat ein praktisches Beispiel und du erhältst dieses vollständige Material zu Beginn des Kurses. So kannst du jeden Abschnitt nicht nur ansehen, sondern auch mit deiner eigenen Lösung vergleichen. Dort sind auch umfangreiche, praktische Szenarien enthalten. Damit wirst du für die Praxis gut gerüstet sein!
Was sind die größten Themen, die dich erwarten?
Installation auf verschiedenen Betriebssystemen (Windows, Linux, Mac)
wichtige Datentypen verstehen und einsetzen
von Datenbanken lesen und schreiben
verschiedene Datei-Formate verarbeiten, wie Excel, XML, JSON, delimited, positional
Metadaten erzeugen und nutzen
Schemas aufbauen
hilfreiche Tastenkürzel verwenden
Daten von WebServices abrufen
mit GoogleDrive verbinden und Daten holen
Iteration und Schleifen einsetzen
Datenflüsse in Iterationen umwandeln
Job-Hierarchien aufbauen und verstehen
alle wichtigen Transformationen: Daten mappen, joinen, normalisieren, pivotieren und aggregieren
XML und JSON erzeugen und extrahieren
reguläre Ausdrücke einsetzen
Komponenten in Prozessen orchestrieren
Datenqualität überprüfen und verbessern
Fuzzy- und Interval-Matching einsetzen
Variablen für verschiedene Umgebungen einsetzen
Schema-Validierung vornehmen
Reject-Daten separat behandeln
Fehler schnell finden und beseitigen
aussagekräftige Logs schreiben
Warnungen und Abbrüche einbauen und darauf reagieren
Job-Hierarchien aufbauen und Daten zwischen verschiedenen Ebenen übergeben
eigene Annahmen implementieren und testen
dein Projekt für Logging, Versionierung und Context-Load konfigurieren
Best Practices kennenlernen und eigene etablieren
selbst dokumentieren und Dokumentation erzeugen lassen
Worauf wartest du noch? Bis gleich im Kurs!
Who this course is for:
- Du willst verschiedene Datentöpfe schnell und einfach zusammenführen
- Du hast die Herausforderung, deine Daten miteinander sprechen zu lassen
- Du bist an einer Karriere im Datenbereich interessiert
- zukünftige ETL-Entwickler
Instructor
Hi, my name is Samuel.
I am passionate developer in data universe and have been working in this field for over 10 years. Before that, I studied business informatics.
Now I am constantly getting more out of my data. To do this, I mainly use Java, SQL, Talend and JSON . But I also love to learn new things!
Besides work, I running a lot (ultra trails) and travel with my family. I have lived in 3 countries for a total of 3 years and am fluent in 2 foreign languages.
It's a pleasure for me to share my knowledge with you here!