Projektinformationen
- Kein Sub-Contracting möglich, ausschliesslich Personalverleih über die Hays (Schweiz)
Aufgaben
- Entwicklung und Wartung von Datenpipelines mit Apache Airflow zur Befüllung der CMDB
- Erstellung und Optimierung von PL/SQL-Prozeduren zur Datenverarbeitung
- Integration von Datenquellen über MuleSoft und andere Plattformen
- Modellierung von Inventardaten nach dem Common Information Model (CIM)
- Umsetzung von ETL-Prozessen zur Datenbereitstellung entlang der Wertschöpfungskette
- Nutzung von NoSQL-Datenbanken zur Verarbeitung großer Datenmengen
- Durchführung von Datenabgleichen zur Sicherstellung der Datenqualität
- Zusammenarbeit mit Fachbereichen zur Definition von Datenanforderungen und Schnittstellen
Profil
- Erfahrung im operativen Datenengineering und Datenmodellierung
- Fundierte Kenntnisse in Apache Airflow, PL/SQL, Python/Perl sowie NoSQL (z.B. MongoDB)
- Vertraut mit SACM-Prozessen (z.B. Microfocus Asset Manager, Peregrine Asset Center)
- Tiefes Verständnis des Common Information Model (CIM)
- Erfahrung mit MuleSoft oder vergleichbaren Integrationsplattformen
- Kenntnisse in Containerlösungen (iKube 2.0 bevorzugt, alternativ Kubernetes)
- Erfahrung im Aufbau von Web-Frontends und Backend-Ladeprozessen
- Analytisches Denken, strukturierte Arbeitsweise und Teamfähigkeit
Benefits
- Verantwortungsvolle und abwechslungsreiche Tätigkeit in einem technisch spannenden Umfeld
- Zugang zu modernsten Technologien und Tools
- Remote-Möglichkeit
- Ihr Umfeld und Ihr Arbeitsalltag werden engagiert und abwechslungsreich sein