We are hiring our new Data Engineer to join our DHT team in our Lyon (France), Harwell (UK) or Munich (Germany) Team.
Let's talk about the role:
As part of a data-driven organization, the primary role of the Data Engineer is to unlock the full potential of our data by development/Operations and maintenance of the data platform & ultimately putting data at the fingertips of various stakeholders in the world. You will share in the ownership of our data platform, from ingress through transformation and access/integration.
Let’s talk about responsibilities:
- Work with the US and APAC teams and make sure that the EU data platform follows the same standards and the same architecture.
- Help other teams in APAC and US to investigate data platform and data pipeline related issues.
- Work with various teams to define & document data platform architecture across integrated Enterprise Systems
- Assemble large, complex data that meet functional/non-functional business requirements
- Use the infrastructure/services required for optimal extraction, transformation, and loading of data from a wide variety of data sources using SQL and AWS services.
- Support & maintain data pipeline integrations and solutions, incorporating highly scalable cloud computing and large-scale data stores including data lakes, data warehouses, and data marts
- Bring the best-practice experience to proactively and continuously build data-related practices within the team
- Contribute to the scalability of both data infrastructure and team processes, standards, and workflow
- Work with stakeholders to assist with data-related technical issues and support their data requirement needs.
- Perform Snowflake database administration tasks, AWS admin tasks and related technology admin tasks.
Let’s talk about qualifications and experience:
Required:
- Minimum of 5 years of experience working on Enterprise Systems
- Advanced SQL knowledge and experience working with relational databases
- Experience in developing scalable ETLs and data processes
- Good experience in Oracle EBS/ERP databases and/or Oracle cloud and/or Oracle Fusion
- Good understanding of shell scripts
- Experience with AWS cloud services, including S3, EC2, Lambda, IAM etc.
Preferred:
- Bachelor’s degree in Mathematics, Economics, Statistics, Biology, Computer Science, or other relevant fields
- Minimum of 10 years of related experience
- Proficiency in Snowflake
- Exposure to Terraform, Airflow and SOS-Berlin Job Scheduler (JS7)
- Exposure to Kafka, DBT
- Experience administering any database and database security. Snowflake or Oracle or Teradata is preferred
Additional information:
- At Resmed, all employees benefit from a bonus plan, the percentage of which depends on your position within the organisation.
- Working from home flexibility
- You also have access to a referral bonus and to ResMed's preferred shareholding programme
- Competitive benefits (Pension, Long-Term Illness Protection, Health Insurance...)
- Internal career opportunity - joining an international fast-pace and massively growing company
Ok, so what's next?
Joining us is more than saying “yes” to making the world a healthier place. It’s discovering a career that’s challenging, supportive and inspiring. Where a culture driven by excellence helps you not only meet your goals, but also create new ones. We focus on creating a diverse and inclusive culture, encouraging individual expression in the workplace and thrive on the innovative ideas this generates. If this sounds like the workplace for you, apply now!
Nous recrutons notre futur(e) Data Engineer H/F pour rejoindre notre équipe DHT sur notre site de Saint-Priest.
Parlons du poste :
Dans le cadre d'une organisation axée sur les données, le rôle principal du Data Engineer est de libérer le plein potentiel de nos données par le développement et la maintenance de la plate-forme de données et de mettre les données à la portée de diverses parties prenantes dans le monde. Vous partagerez la responsabilité de notre plate-forme de données, de l'entrée à la transformation et à l'accès/l'intégration.
Parlons des responsabilités :
- Travailler avec les équipes des États-Unis et de l'APAC et s'assurer que la plate-forme de données de l'UE suit les mêmes normes et la même architecture.
- Aider d'autres équipes de l'APAC et des États-Unis à enquêter sur les problèmes liés à la plate-forme de données et au pipeline de données.
- Travailler avec diverses équipes pour définir et documenter l'architecture de la plate-forme de données dans les systèmes d'entreprise intégrés
- Assembler des données volumineuses et complexes qui répondent aux exigences fonctionnelles/non fonctionnelles de l'entreprise
- Utilisez l'infrastructure/les services requis pour optimiser l'extraction, la transformation et le chargement des données à partir d'une grande variété de sources de données à l'aide des services SQL et AWS.
- Soutenir et maintenir les intégrations et les solutions de pipeline de données, en incorporant un cloud computing hautement évolutif et des magasins de données à grande échelle, y compris des lacs de données, des entrepôts de données et des magasins de données
- Apporter l'expérience des meilleures pratiques pour développer de manière proactive et continue des pratiques liées aux données au sein de l'équipe
- Contribuer à l'évolutivité de l'infrastructure de données et des processus, normes et flux de travail de l'équipe
- Travailler avec les parties prenantes pour résoudre les problèmes techniques liés aux données et répondre à leurs besoins en matière de données.
- Effectuez des tâches d'administration de base de données Snowflake, des tâches d'administration AWS et des tâches d'administration de technologie associées.
Parlons des qualifications et de l'expérience :
Obligatoire:
- Minimum de 5 ans d'expérience de travail sur des systèmes d'entreprise
- Maîtrise de l'anglais indispensable
- Connaissance avancée de SQL et expérience de travail avec des bases de données relationnelles
- Expérience dans le développement d'ETL et de processus de données évolutifs
- Bonne expérience des bases de données Oracle EBS/ERP et/ou Oracle cloud et/ou Oracle Fusion
- Bonne compréhension des scripts shell
- Expérience avec les services cloud AWS, y compris S3, EC2, Lambda, IAM etc.
Souhaitées :
- Diplôme en mathématiques, économie, statistiques, biologie, informatique ou autres domaines pertinents
- Minimum de 10 ans d'expérience connexe
- Exposition à Terraform, Airflow et SOS-Berlin Job Scheduler (JS7)
- Maîtrise de Snowflake
- Exposition à Kafka, DBT
- Expérience de l'administration de toute base de données et de la sécurité des bases de données. Snowflake ou Oracle ou Teradata est préférable
Autres avantages et informations :
- Proche des transports en commun – Arrêt T2 Parc Technologique de Saint Priest
- Chez Resmed, tous les employés bénéficient d’un plan de bonus dont le pourcentage dépend de votre emploi au sein de l’organisation.
- Vous bénéficierez aussi de l’intéressement et de la participation aux conditions fixées par nos accords internes.
- Vous avez également accès à une prime de cooptation et au programme d’actionnariat privilégié de ResMed.
- Enfin, tickets restaurants, salle de repas sur place, mutuelle, remboursement de la moitié des transports en commun et activités du CE font également parti de vos avantages.
OK, quelle est la prochaine étape?
Rejoindre ResMed, signifie bien plus que dire oui à l'idée de faire du monde un endroit plus sain. C'est découvrir une carrière pleine de défis, de soutien et d'inspiration. Une culture axée sur l'excellence qui vous aide non seulement à atteindre vos objectifs, mais aussi à en créer de nouveaux. Nous nous attachons à créer une culture diversifiée et inclusive, à encourager l'expression individuelle sur le lieu de travail et à prospérer grâce aux idées novatrices qui en découlent. Si ce lieu de travail vous convient, postulez dès maintenant !