Mitarbeit am Design und der Entwicklung der neuen Datenplattform in der Azure Cloud
Erstellung von Datenmodellen entsprechend den Anforderungen und Anwendungsfällen der Data Analytics
Organisation und Strukturierung von Datenbeständen mit Hilfe verschiedener moderner Cloud- und Big-Data-Technologien
Anbindung von Datenquellen und Entwicklung von Transformations- und Datenintegrationsabläufen
Enge Zusammenarbeit in einer agilen Umgebung mit Verantwortung für spezifische Themen wie EDW, Data Lake oder Datenarchitektur
Das bringst du mit
Fach-/Hochschulabschluss als Informatiker oder eine vergleichbare Ausbildung
Sehr gute Erfahrung mit Cloud-Technologien (idealerweise in der Azure Cloud mit Data Lake Storage, Data Factory, Event Hub und Azure DevOps)
Solide Kenntnisse von Datenmodellierungs-, Datenspeicherungs- und Datenzugangstechniken mit Erfahrung in Big-Data-Architekturen und Integrationsmodellen
Sehr gute Programmierkenntnisse in Python, Java oder Scala und SQL
Gute Arbeitserfahrung mit dezentralen Systemen und Beherrschung von Tools wie Apache Spark, Apache Flink oder Apache Beam
Deutsch- oder Französisch- und gute Englischkenntnisse sind Voraussetzung
Diese Stelle besetzen wir ohne externe Personaldienstleister