Experiência sólida com AWS (S3, Glue, Redshift, Athena, Lambda, etc.).
Proficiência em PySpark para processamento distribuído de dados.
Familiaridade com Jupyter Notebooks para análise de dados e prototipagem.
Sólidos conhecimentos de SQL e banco de dados relacionais e não-relacionais.
Experiência com SSIS para integração de dados e automação de processos ETL.
Experiência em ETL e automação de processos de dados.
Conhecimento em arquiteturas de dados em nuvem e boas práticas de segurança de dados.
Experiência com ferramentas de orquestração de workflows (Apache Airflow, AWS Step Functions).
Habilidade em programação com Python ou outras linguagens de integração de dados.
Bacharelado em Ciência da Computação, Engenharia de Dados ou áreas afins (ou experiência equivalente).
Diferenciais:
Certificação AWS (Solutions Architect, Big Data, etc.).
Experiência com Data Lakes e processamento de dados em larga escala.
Conhecimento de frameworks de análise de dados, como Pandas, Matplotlib, ou Plotly.
Localização
Esta é uma localização aproximada e pode não representar a posição exata. Por favor, utilize esta informação como referência e verifique a localização exata se necessário.
Interessado em saber mais?
Entre em contato com o anunciante através dos seguintes canais de comunicação