Arquiteto de Dados Sênior Big Data 4798

Contato
R$ 22.412,00 à R$ 22.412,00

Agradecemos seu interesse! No momento, não estamos aceitando novas candidaturas para esta vaga, mas temos várias outras oportunidades esperando por você.

10/05/2023 | 1 Vaga
Descrição
Definir, desenvolver e manter a arquitetura de soluções em ambientes on premise e em nuvem, adequada para a obtenção, armazenamento, transformação, visualização e manutenção de dados estruturados e não estruturados em grande volume e variedade de formatos; projetar e construir arquiteturas escaláveis para processamento de algoritmos em tempo real, manter pipelines de dados automatizados e apoiar a infraestrutura na manutenção de soluções de Big Data, Cloud e Inteligência Artificial.
Requisitos
Graduação completa em qualquer área + Pós em TI (carga horária mínimo 360 horas), experiência sólida na área de TI e experiência consolidada em Big Data + quaisquer uma das certificações abaixo:
- São necessários 9 anos de experiência mínima em TI, sendo no mínimo 2 anos com foco em projetos de Big Data (ou 1 ano + uma das certificações abaixo)
HDP Certified Developer Big Data Hadoop;/ Amazon Web Services (AWS) Certified Big Data – Specialty; / IBM Certified Data Architect – Big Data; / IBM Certified Data Engineer – Big Data; / SAS® Certified Big Data Professional. HDP Certified Developer Big Data Hadoop; / Amazon Web Services (AWS) Certified Big Data – Specialty; / IBM Certified Data Architect – Big Data; / IBM Certified Data Engineer – Big Data;/ SAS® Certified Big Data Professional.
Experiência em: o Linguagens Python, Java, Scala ou SQL; Bancos de dados NoSql (MongoDB, Cassandra etc.), relacional (Oracle, PostgreSQL, MySql etc.), chave-valor (DynamoDB, Redis, Riak etc.), orientado a grafo (Node4J, ArangoDB, OrientDB etc.) e orientado a Documentos (SolR, Elastic, MongoDB etc.); Softwares de manipulação de BigData (ferramentas Apache Hadoop, Spark, Kafka, Scoop, Hive, Yarn, Ambari, Zookeeper, Oozie, HDFS, Map Reduce, Flume, NIFI, SolR, Linguagem Pig, ELK Stack etc.); Data Lakes (AWS, Azure, Google, Cloudera, Databricks, Snowflake etc.); Ferramentas de Segurança de Big Data (Apache Ranger, Knox, Sentry etc.); Softwares de ETL/ELT (Oracle OBI, Pentaho, DBT etc.); Ferramentas de governança e gestão da informação (Apache Atlas, Alation, Cloudera Navigator, SAS, IBM Infosphere etc.); Formatos de intercâmbio de dados (XML, JSON, CSV, Apache Parquet etc.); Controle de versão de código-fonte e outros artefatos com uso da ferramenta GIT versão 2 ou superior. (pelo menos 5 itens)
Conhecimentos em: Definição e evolução de arquitetura de referência em nuvem; Mecanismos de integração de dados; Modelagem e design de dados; Utilização de repositório de ativos de informação (dados e metadados); Gestão de Banco de dados distribuídos; Projetos de processamento em tempo real; Construção de pipeline de dados; Coleta, manipulação, integração e transformação de dados para auxiliar na criação de pipelines de dados." (pelo menos 3 itens)
Atividades: Definir, desenvolver e manter a arquitetura de soluções em ambientes on premise e em nuvem, adequada para a obtenção, armazenamento, transformação, visualização e manutenção de dados estruturados e não estruturados em grande volume e variedade de formatos; projetar e construir arquiteturas escaláveis para processamento de algoritmos em tempo real, manter pipelines de dados automatizados e apoiar a infraestrutura na manutenção de soluções de Big Data, Cloud e Inteligência Artificial.
Área: Sistemas
Plataforma: Hadoop
Especialidade: Big Data
Nível: Senior
Contratação CLT.
A Empresa e Benefícios
G4F- VA, Plano de Saúde, Odontológico e Seguro de Vida
Vagas Relacionadas


Cursos de TI Nerdin Cursos de TI Nerdin