- Sie haben ein Studium der Informatik oder eine vergleichbare Qualifikation mit technischem Schwerpunkt erfolgreich abgeschlossen
- Sie können ETL-Strecken entwickeln, pflegen und überwachen sowie mit strukturierten, semi-strukturierten und unstrukturierten Daten arbeiten
- Sie bringen einschlägige Erfahrung in der Entwicklung und dem Betrieb von Datenplattformen (z.B. relational, NoSQL, Apache Spark, s3) mit
- Sie haben weiterhin fundiertes Wissen in SQL (SQLScript wünschenswert) sowie in mindestens einer Form der Datenmodellierung (Kimball/3NF/Data Vault)
- Ihre Kenntnisse in Orchestrierungs- und Container-Tools (z.B. Docker, Docker Swarm, Apache Airflow) sind gut
- Sie sind erfahren mit Versionskontrolle in Git (Gitlab/Gitlab Pipelines).
Das finden Sie beim Kunden unseres Kooperationspartner