Experiência sólida em ambiente AWS, com domínio de serviços como:
S3, RDS, Glue, RedShift, Lambda, Athena, Lake Formation, EMR;
Programação avançada em Python e/ou Scala (desejável ambos);
Domínio de linguagens SQL e NoSQL, com capacidade de escrever consultas complexas e otimizadas;
Conhecimento avançado em Java ou Scala (especialmente em ambientes distribuídos);
Experiência com Apache Airflow e/ou ferramentas similares de orquestração de dados;
Vivência com frameworks de Big Data como Apache Spark, Databricks ou EMR;
Familiaridade com a cultura DevOps, CI/CD, versionamento de código e automações de deploy;
Conhecimento em arquitetura REST para criação e consumo de APIs de dados;
Prática com metodologias ágeis, como Scrum e Kanban, e uso de ferramentas como Jira, Confluence ou similares;
Esperamos que você:
Já tenha atuado em grandes projetos de dados, desde a ingestão até a camada analítica;
Souber criar pipelines de dados automatizadas e escaláveis, com foco em performance e confiabilidade;
Possuir experiência em soluções de extração, transformação e centralização de dados, além de atuar com qualidade, governança e geração de métricas para o negócio;
Tiver habilidade para implantar pipelines em ambientes AWS, seguindo boas práticas de arquitetura;
Contribuir com a revisão de código do time, promovendo qualidade e aprendizado coletivo;
Participar ativamente da discussão de roadmap com o cliente, contribuindo com visão técnica e estratégica;
Estiver sempre propondo melhorias e
Localização
Esta é uma localização aproximada e pode não representar a posição exata. Por favor, utilize esta informação como referência e verifique a localização exata se necessário.
Interessado em saber mais?
Entre em contato com o anunciante através dos seguintes canais de comunicação