Aufgaben
- Betrieb und Entwicklung von Data & AI Plattformen und LLM-Umgebung
- Automatisierung von Daten- und Modellpipelines sowie Sicherstellung des Betriebs
-
Implementierung von z.B. Monitoring-Systeme
- Weiterentwicklung der Prozesse und Etablierung von DataOps-Methoden zur Optimierung der Infrastruktur
- Übernahme der fachlichen Führung
Profil
- Erfahrung im Betrieb oder in der Entwicklung von IT-Infrastrukturen sowie Cloud Umgebung GCP
- Erfahrung mit Container-Technologien wie Docker oder Kubernetes
- Erfahrung mit Automatisierungstools wie Git, CI/CD oder Terraform
- Wünschenswert sind erste praktische Erfahrungen mit Tools aus dem DataOps- oder MLOps-Umfeld (z.?B. Airflow, MLflow, dbt)
- Fließende Deutsch- und Englisch-Kenntnisse
Benefits
- 32 Urlaubstage
- Flexible Arbeitszeiten und Home-Office-Regelung
- JobRad
- Bezuschusstes Deutschland- und regionales JobTicket
- Corporate Benefits
- Verschiedene Gesundheitsmaßnahmen
- Umfassende Weiterbildungsmöglichkeiten
Gehaltsinformationen
- Budget bis 100.000 €