Data Engineer (m,w,d)

Company:
Location: Stuttgart

*** Mention DataYoshi when applying ***

Informationen zur Vakanz

Deine Aufgaben:

  • Erstellung und Pflege einer optimalen Datenpipeline-Architektur und Zusammenstellung großer, komplexer Datensätze, die funktionalen / nicht-funktionalen Geschäftsanforderungen entsprechen;
  • Aufbau der erforderlichen Infrastruktur für die optimale Extraktion, Transformation und das Laden von Daten aus einer Vielzahl von Datenquellen mit SQL (sowohl auf On-Premise- als auch auf Cloud-Plattformen einschließlich AWS und Azure);
  • Kundenanforderung verstehen, funktionale/technische Spezifikation erstellen, die Datenarchitektur, Datenpipeline und ETL-Logik bei Bedarf klar umreißen;
  • Erstellung von Analysetools, die die Datenpipeline nutzen, um aussagekräftige Einblicke in die Kundenakquise, die betriebliche Effizienz und andere wichtige Kennzahlen für die Unternehmensleistung zu geben;
  • Zusammenarbeit mit dem Kunden, um datenbezogene technische Probleme zu lösen und ihre Anforderungen an die Dateninfrastruktur zu unterstützen;
  • Zusammenarbeit mit Daten- und Analyseexperten, um mehr Funktionalität in unseren Datensystemen zu erreichen;
  • Erstellung und Pflege einer optimalen Datenpipelinearchitektur für Ingestion, Verarbeitung von Daten;
  • Erstellung der notwendigen Infrastruktur für ETL-Jobs aus unterschiedlichsten Datenquellen;
  • Synchrone Zusammenarbeit mit internen und externen Teammitgliedern wie Datenarchitekten, Data Scientists, Data Analysts, um alle möglichen technischen Fragen zu bearbeiten;
  • Erhebung von Datenanforderungen, Pflege von Metadaten zu Daten und Überwachung Datensicherheit und Governance mit modernen Sicherheitskontrollen;

Das solltest Du mitbringen:

  • Abgeschlossenes Studium Informatik, Technik oder relevantem Gebiet;
  • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift;
  • 5+ Jahre Erfahrung in einer Data Engineer Rolle mit Erfahrung in folgenden Bereichen:
  • Advanced Data Modeling Techniques and Developing Conceptual, logical and physical data models
  • Relational SQL and NoSQL databases, einschließlich Postgres und Cassandra
  • Data Pipeline- und Workflow-Management-Tools wie z. B. Airflow
  • Developing ETL Pipelines in Cloud Platforms (AWS und Microsoft Azure)
  • Building and optimizing ‘big data' data pipelines, architectures and data sets
  • Stream-Verarbeitungssysteme: Storm, Spark-Streaming, etc.
  • Object-oriented/object function scripting languages: Python, Java, C++, Scala, etc.
  • Cloud-Services: AWS und Azure - Komponenten umfassen EC2, EMR, RDS, Redshift, Azure Data Factory, Azure HDInsight, Azure Cosmos DB, etc.
  • Datentransformation, Datenstrukturen, Metadaten, Abhängigkeits- und Workload-Management
  • Apache Hadoop, Apache Spark, Kafka;
  • Datenbanken - SQL- und NoSQL-Datenbanken;
  • Cloud-Plattformen - AWS und Azure - Zu den Komponenten gehören EC2, EMR, RDS, Redshift, Azure Data Factory, Azure HDInsight, Azure Cosmos DB usw;
  • Object-oriented/object function scripting languages: Python, Java, C++, Scala, etc.;
  • Data Warehousing Solutions - AWS Redshift,Azure Cosmos DB, SAP HANA;
  • ETL Tools - Cloud Native Tools auf AWS und Azure, auch Kenntnisse in ODI, Informatica (bevorzugt);

Deine Arbeitsumgebung

Du arbeitest bei einem innovativen Unternehmen in der Automotive Branche.

Hier hast Du ein spannendes Einsatzgebiet, jede Menge Spielräume und vielfältige Entwicklungsmöglichkeiten.

Jetzt teilen!

Für dich nicht das Richtige, aber für jemand anderes der Traumjob? Teile diese Stelle einfach auf Social Media.

*** Mention DataYoshi when applying ***

Offers you may like...

  • Myticas Consulting

    BHJOB15656_16490 - Senior Data Engineer
    Remote
  • MarketDial

    Data Engineer
    Salt Lake City, UT 84101
  • Applied Research Associates, Inc

    Senior Data Engineer
    Fort Belvoir, VA 22060
  • PBT Group

    Cloud Data Engineer
    Johannesburg, Gauteng
  • PBT Group

    Data Engineer
    Johannesburg, Gauteng