Stellenbeschreibung
Die Herausforderung
- Du arbeitest an der Entwicklung und Implementierung der neuen Daten Plattform, dabei liegt dein besonderes Augenmerk auf der Betreuung und Weiterentwicklung unserer ETL-Pipelines mit Apache Airflow und Azure Data Factory
- Dabei verwendest Du Technologien wie zum Beispiel Airflow, Kubernetes, Azure, Terraform und Python
- Du entwickelst robuste und skalierbare ETL-Pipelines, schreibst eigene Airflow Dags und Operatoren und sorgst für die bestmögliche Funktionsfähigkeit unserer Airflow Instanz. Dazu gehören: Optimierung der Skalierung und Infrastruktur, Sicherstellung der Verfügbarkeit, Versionsupgrades, Evaluierung und Nutzung neuer Features
- Du entwickelst hoch parametrisierte, metadatengetriebene Azure Data Factory Pipelines, definierst robuste Ladeketten und moderne Integrationen.
- Unsere Kernkomponenten, wie Azure Data Lake, AKS, Apache Airflow, dbt und Snowflake betreust und entwickelst Du mit dem Team kontinuierlich weiter.
- Du implementierst und erstellst dabei stets CI/CD Pipelines mit Azure DevOps für die Datenpipelines, Datenprodukte und eigene Software
Ein Background, der überzeugt
- Du hast ein abgeschlossenes Studium der (Wirtschafts-) Informatik, eine Ausbildung zum Fachinformatiker oder eine vergleichbare Qualifikation im IT-Umfeld
- Kenntnisse im Bereich Software-Architektur und Cloud-Nutzung kannst Du vorweisen
- Du bringst 3-5 Jahre relevante Berufserfahrung in der Softwareentwicklung sowie Erfahrung im Data Engineering insbesondere im Umgang mit Python, Unix, Docker, Kubernetes und Microsoft Azure mit, dabei schreckst Du auch vor SQL nicht zurück
- Erfahrung in Software Best Practices in den Bereichen Code Reviews, Standards, Versionskontrolle, testgetriebener Entwicklung, objektorientierter Entwicklung sowie Infrastructure as Code hast Du bereits sammeln können
- Du verfügst über umfangreiche praktische Erfahrung in der Betreuung und Weiterentwicklung von Frameworks wie Apache Airflow und der Azure Data Factory
- Dich zeichnen eine strukturierte Arbeitsweise, analytische Fähigkeiten, Durchsetzungsvermögen sowie großes Organisationsgeschick und hohe Lösungskompetenz aus
- Sehr gute Sprachkenntnisse (B2) in Deutsch und Englisch runden Dein Profil ab
Unser Toolstack
Snowflake, dbt, Azure DevOps, Azure Data Factory, git, Airflow, Kubernetes & vieles mehr
Ein Umfeld, das begeistert
- Ein innovatives und dynamisches Umfeld zur Gestaltung einer nachhaltigen Energiewelt von Morgen
- Flexible Arbeitszeitregelung und hybrides Arbeitsmodell mit einem Mix aus Präsenzarbeit und Remote Working (auch zeitweise im Ausland)
- Eine professionelle und freundliche Arbeitsatmosphäre mit Du-Kultur
- Ein breit gefächertes Weiterbildungsangebot inklusive Förderprogrammen
- Attraktive finanzielle Zusatzleistungen in Form von betrieblicher Altersvorsorge und vermögenswirksamen Leistungen
- Zahlreiche Vergünstigungen wie beispielsweise ein Mitarbeiteraktienprogramm, das Jobrad sowie Mitarbeiterrabatte bei bekannten Marken und Anbietern
Inklusion
Uns ist wichtig, Menschen mit Behinderung ein faires Bewerbungsverfahren zu ermöglichen, in dem sie ihr Bestes zeigen können. Daher wird unsere Schwerbehindertenvertretung frühzeitig in das Verfahren einbezogen. Bitte teile uns über das Bewerbungsformular mit, ob du technische oder organisatorische Anpassungen für das Bewerbungsverfahren benötigst. Wir stellen diese gern zur Verfügung.
Wenn es dir nicht möglich ist, dich online zu bewerben und du stattdessen mit jemandem sprechen möchtest, kontaktiere bitte deinen lokalen Recruiter.