Contato
E-mail: rh***@***.br - Seja Premium para ver
11/12/2025 | 1 Vaga
Descrição
Responsabilidades:
Desenvolver e otimizar pipelines de dados para garantir o fluxo contínuo e a qualidade das informações no ambiente de produção.
Integrar dados de diversas fontes, incluindo APIs externas, sistemas internos, bancos de dados relacionais e não relacionais.
Colaborar com times de produto, ciência de dados e análise de negócios para fornecer soluções escaláveis e eficientes.
Manter e aprimorar as infraestruturas de dados, garantindo a confiabilidade, segurança e performance.
Trabalhar com tecnologias de big data, como Hadoop, Spark, Kafka, entre outras, para lidar com grandes volumes de dados transacionais e analíticos.
Garantir que os dados estejam formatados e limpos, utilizando práticas como ETL/ELT, processamento de dados em batch e stream.
Monitorar e resolver problemas relacionados à ingestão de dados, performance de consultas e disponibilidade dos sistemas de dados.
Implementar boas práticas de versionamento, documentação e controle de mudanças no fluxo de dados.
Desenvolver e otimizar pipelines de dados para garantir o fluxo contínuo e a qualidade das informações no ambiente de produção.
Integrar dados de diversas fontes, incluindo APIs externas, sistemas internos, bancos de dados relacionais e não relacionais.
Colaborar com times de produto, ciência de dados e análise de negócios para fornecer soluções escaláveis e eficientes.
Manter e aprimorar as infraestruturas de dados, garantindo a confiabilidade, segurança e performance.
Trabalhar com tecnologias de big data, como Hadoop, Spark, Kafka, entre outras, para lidar com grandes volumes de dados transacionais e analíticos.
Garantir que os dados estejam formatados e limpos, utilizando práticas como ETL/ELT, processamento de dados em batch e stream.
Monitorar e resolver problemas relacionados à ingestão de dados, performance de consultas e disponibilidade dos sistemas de dados.
Implementar boas práticas de versionamento, documentação e controle de mudanças no fluxo de dados.
Requisitos
Experiência preferencialmente em empresas do mercado financeiro ou fintechs.
Bacharelado em Ciência da Computação, Engenharia, Estatística, Matemática ou áreas correlatas.
Conhecimento avançado em SQL e em bancos de dados relacionais e não relacionais (ex: PostgreSQL, MySQL, MongoDB, Cassandra, etc.).
Experiência com ETL/ELT, incluindo ferramentas como Apache NiFi, Talend, Airflow ou dbt.
Conhecimento de ferramentas de Big Data (ex: Hadoop, Spark, Kafka).
Experiência com processamento de dados em batch e stream, com boas práticas de performance.
Familiaridade com Python e/ou Java para manipulação de dados e desenvolvimento de scripts.
Experiência com Cloud Computing (ex: AWS, Google Cloud, Azure) e serviços de armazenamento de dados, como S3, BigQuery, Redshift ou Snowflake.
Compreensão de conceitos de segurança de dados, incluindo criptografia, autenticação e compliance regulatório, como LGPD, GDPR, etc.
Habilidade em criar e otimizar consultas e procedimentos armazenados.
Inglês técnico para leitura de documentação e comunicação com times internacionais (caso necessário).
Conhecimento em Docker e Kubernetes será considerado um diferencial para deploy e orquestração de pipelines.
Bacharelado em Ciência da Computação, Engenharia, Estatística, Matemática ou áreas correlatas.
Conhecimento avançado em SQL e em bancos de dados relacionais e não relacionais (ex: PostgreSQL, MySQL, MongoDB, Cassandra, etc.).
Experiência com ETL/ELT, incluindo ferramentas como Apache NiFi, Talend, Airflow ou dbt.
Conhecimento de ferramentas de Big Data (ex: Hadoop, Spark, Kafka).
Experiência com processamento de dados em batch e stream, com boas práticas de performance.
Familiaridade com Python e/ou Java para manipulação de dados e desenvolvimento de scripts.
Experiência com Cloud Computing (ex: AWS, Google Cloud, Azure) e serviços de armazenamento de dados, como S3, BigQuery, Redshift ou Snowflake.
Compreensão de conceitos de segurança de dados, incluindo criptografia, autenticação e compliance regulatório, como LGPD, GDPR, etc.
Habilidade em criar e otimizar consultas e procedimentos armazenados.
Inglês técnico para leitura de documentação e comunicação com times internacionais (caso necessário).
Conhecimento em Docker e Kubernetes será considerado um diferencial para deploy e orquestração de pipelines.
Engenheiro de Dados
Área: Dados
Plataforma: Python
Especialidade: ETL
Nível: Junior
Contratação CLT.
A Empresa e Benefícios
Se você possui experiência comprovada em projetos de engenharia de dados, arquitetura de dados escalável e pipelines complexos, e deseja fazer parte de uma equipe dinâmica e inovadora, venha contribuir com a criação de soluções modernas e de alta performance para nossos clientes.
Contratação CLT
Híbrido em SP (Zona Sul)
Benefícios:
- Plano médico e odontológico.
- Vale refeição e/ou vale alimentação.
- Plataforma Starbem.
- Wellhub/TotalPass.
- Oportunidades de crescimento profissional e desenvolvimento de habilidades.
- Ambiente de trabalho flexível e inclusivo.
Contratação CLT
Híbrido em SP (Zona Sul)
Benefícios:
- Plano médico e odontológico.
- Vale refeição e/ou vale alimentação.
- Plataforma Starbem.
- Wellhub/TotalPass.
- Oportunidades de crescimento profissional e desenvolvimento de habilidades.
- Ambiente de trabalho flexível e inclusivo.
Vagas Relacionadas