Sólidos conhecimentos em ambientes AWS (S3, RDS, Glue, RedShift, Lambda, Athena, Lake Formation, EMR, entre outros);
Domínio em linguagem SQL para análise e transformação de dados;
Programação em Python (ou similar) voltada para automação e manipulação de dados;
Experiência em construção e orquestração de pipelines com Apache Airflow;
Conhecimento em processamento distribuído com Spark, Databricks ou EMR;
Familiaridade com Metabase ou outras ferramentas de visualização para apoiar o consumo dos produtos de dados;
Mentalidade orientada a produto, com interesse genuíno em criar soluções que geram valor e impacto.
É desejável que você tenha:
Experiência em desenvolvimento e manutenção de produtos de dados reutilizáveis e governados;
Vivência com contratos de dados (data contracts), versionamento e SLAs de dados;
Conhecimento em pipelines de dados e ETL/ELT com ferramentas como Airflow, dbt, Spark ou similares;
Domínio em modelagem de dados analítica (Kimball, Data Vault ou star schema);
Conhecimento em boas práticas de governança, DataOps e confiabilidade de dados;
Familiaridade com métricas de produto de dados (uso, latência, disponibilidade, aderência);
Experiência com bancos de dados relacionais e não relacionais (SQL, NoSQL);
Habilidade com ferramentas de visualização e consumo de dados (Metabase, Tableau, Power BI ou similares);
Capacidade de alinhar aspectos técnicos e de negócio, atuando como ponte entre engenharia e áreas estratégicas.
Localização
Esta é uma localização aproximada e pode não representar a posição exata. Por favor, utilize esta informação como referência e verifique a localização exata se necessário.
Interessado em saber mais?
Entre em contato com o anunciante através dos seguintes canais de comunicação