Liderança técnica referente ao ecossistema Data & Analytics;
Implementação end-to-end de aplicação analítica;
Orientar/ensinar as áreas de negócio na utilização das tecnologias do ecossistema Data & Analytics;
Comunicação do andamento dos projetos e da área com todos os níveis da organização;
Acompanhamento da saúde tecnológica da aplicação, buscando a eficiência e continuidade de negócio. Implementação de guias de uso, monitoramento reativo e proativo através de indicadores;
Comunicação com os órgãos/fóruns regulatórios e grupos de trabalho;
Comunicação com outros times de tecnologia do banco e fornecedores das tecnologias;
Comunicação com outras instituições financeiras para troca de experiência;
Utilização da metodologia do banco, atentando-se aos processos e seguindo os procedimentos de forma plena, cumprindo as normas e adequando-se aos controles internos e externos, utilizando ferramental apropriado;
Vivência em metodologias ágeis.
Requisitos Imprescindíveis:
Organização e disciplina, com capacidade de organizar as próprias atividades;
Capacidade de propor, comunicar e mensurar indicadores e propor melhorias;
Boa comunicação e ser um bom ouvinte adequando-se a cada interlocutor;
Bom relacionamento interpessoal para tratamento com outras áreas do banco;
Capacidade de negociação;
Experiência em Linux, ambiente Openshift e Devops;
Experiência prática na implementação de sistemas utilizando Spark Streaming e Batch;
Experiência em integração de sistemas, monitoramento e segurança;
Experiência em fluxos de dados streaming e arquitetura fast;
Vivência em:
SQL, Oracle/Exadata;
Cloud, preferencialmente Azure
Desenho e construção de ETLs para dados em batch ou stream
Modelagem de dados (relacional, multidimensional e grafos)
Transformações de dados com processamento distribuído e paralelo ou grandes volumes com uso de Databricks ou outra distribuição do spark
Virtualização e plataformas de self-service para Bi/analytics com low-code
Shell script, Python, Scala, Java ou SAS
Experiência:
Conteinerização, (Kubernets, Openshift, etc.);
Devops, Dataops e MLOps
SRE, DevSecOps
Framework Kedro
Orquestração de Pipelines (Jenkins, Airflow, Data Factory) e monitoramento
Linux
Requisitos desejáveis:
Conhecimentos em Scala ou Python;
Conhecimentos em fluxos de dados streaming e arquitetura fast;
Conhecimento micros serviços;
Conhecimento em machine learning;
Inglês ou Espanhol;
Certificações Cloud (Databricks Engineering, DataBricks Analytics, Microsoft AZ900, DP900 e AI900);