CONEXIONHR

Ssr. Data Engineer

Job description

Requerimientos del puesto:
Graduado, estudiante o persona con experiencia en carreras afines a informática, tecnologías de la información e ingeniería en sistemas.
Conocimiento y experiencia en ANSI SQL. Trabajo con bases de datos relacionales. Familiaridad con tipos de datos no estructurados.
Experiencia en la construcción y operacionalización de procesos de Extracción, transformación y carga de datos para datos estructurados y no estructurados (Jsons, Csv, etcétera)
Conocimientos en procesos y transformaciones típicas que son necesarias realizarles a los datos crudos para convertirlas en información útil: data cleansing y data enrichment.
Conocimiento de tecnologías de procesamiento distribuido a gran escala. Especialmente Apache Spark.
Conocimientos en Git y Github.
Conocimiento y utilización de procesos de integración de datos. Por ejemplo, Azure Data Factory, AWS Data Pipeline, SSIS, Pentaho Data Integration, Talend Data Integration.
Experiencia y predisposición al armado de la documentación pertinente de los procesos: diagramas de flujo de las transformaciones, pipelines de datos y casos de uso.
Buena capacidad comunicativa, especialmente de manera escrita. Esto quiere decir: brevedad, economía de lenguaje y precisión.
Capacidad de trabajar de manera remota, asíncrona y autónoma.
Capacidad de aprender de otros y realizar cambios respecto a sus comentarios.

Conocimientos extra valorados:
Conocimiento en lenguaje de programación Scala. Si trabajas en Python también es útil.
Conocimiento en buenas prácticas de desarrollo de software. No sólo conocimiento en el desarrollo de ETLs
Conocimiento en Apache Hadoop.
Conocimiento en entornos Cloud. Especialmente en Azure.
Conocimientos en Azure Data Factory.

Funciones principales:
Realizar tareas de procesamiento de datos a fuentes de datos semi estructuradas.
Generar procesos de control del trackeo de la información que funciona como proceso generador de las fuentes de datos.
Optimización del procesamiento de datos a través de mejores usos de los clusters en un entorno cloud.
Analizar y resolver problemáticas asociadas a la calidad de los datos a través de la unificación de las fuentes de datos primarias.
Integrar diferentes tipos de datos: Información de ítems, seller, categorías en una sola fuente de información consumible.
Trabajar con grandes volúmenes y diversas fuentes de información.
Operacionalización de los diferentes procesamientos a través de Azure Data Factory.

Please let the company know that you found this position on this Job Board as a way to support us, so we can keep posting cool jobs.