Aufgaben
- Implementierung und Weiterentwicklung von Datenplattform-Komponenten auf Basis der Google Cloud Platform
- Aufbau und Betrieb von Batch- und Streaming-Pipelines
- Umsetzung von ETL- / ELT-Prozessen, inklusive CDC und SCD Type 1 & 2
- Datenmodellierung, insbesondere Schema-Modellierung und Dimension Tables
- Vorbereitung von Analysedaten sowie Freigabe- und Konsumschichten
- Arbeiten mit Streaming- und Realtime-Technologien
- Infrastrukturdefinition und -anpassung mittels Terraform -Infrastructure as Code
- Entwicklung datenverarbeitender Komponenten mit Python
- Mitarbeit an service-nahen Komponenten unter Einsatz von Java
Profil
- Fundierte Erfahrung im Cloud-Umfeld, insbesondere mit Google Cloud Platform -GCP
- Sehr gute Kenntnisse in Python -Muss-Kriterium
- Erfahrung mit BigQuery, insbesondere im Kontext von Analyticsdatenbanken und Kostenoptimierung
- Praxiserfahrung mit Batch- und Streaming-Datenverarbeitung
- Kenntnisse in Pub/Sub sowie Dataflow / Apache Beam
- Erfahrung mit ETL / ELT, inkl. CDC und Slowly Changing Dimensions -Typ 1 & 2-
- Sicher in Datenmodellierung -Schema-Design, Dimensionstabellen
- Erfahrung mit Terraform und Infrastructure-as-Code-Ansätzen
- Java-Kenntnisse für servicebasierte Komponenten
Benefits
- Durch Ihre Kandidatur über Hays sind Sie Teil einer kleinen, passgenauen Auswahl, die dem Kunden für diese Position präsentiert wird
- Erhöhen Sie Ihre Chancen zu einem Vorstellungsgespräch eingeladen zu werden
- Hays legt großen Wert auf die Kandidatenqualität und Passgenauigkeit der Profile
- Bevor wir Ihren Lebenslauf bei unserem Kunden vorstellen, prüfen wir mit Ihnen, ob die Vakanz zu Ihnen passt