Problemas complexos exigem experiência certa
O correto armazenamento e processamento de dados, considerando os 3Vs (Volume, Velocidade e Variedade), é um dos maiores desafios da atualidade.
Nessa área, a tecnologia de Big Data desenvolve e implementa arquiteturas e soluções de software que tratam da captura, ingestão, armazenamento e gestão de dados críticos de grandes clusters de informação.
Tiramos partido de frameworks avançados como Spark, Kafka, Hive/Impala, Azure Data Services ou MongoDB, utilizando Java e Scala para interagir com esses frameworks.
Responsabilidades
1. Desenvolver soluções de software, aplicando as melhores práticas em termos de design e arquitetura de sistemas distribuídos de grande escala;
2. Garantir o desempenho e a escalabilidade do software que interage com os sistemas backend Big Data, contribuindo para a manutenção da performance geral do sistema;
3. Implementar soluções em arquiteturas distribuídas, onde a performance de tratamento de grandes volumes de dados é fulcral;
4. Desenhar e desenvolver soluções de software robustas e escaláveis, independentemente da quantidade de dados a processar;
5. Implementar boas práticas e padrões de design das soluções Big Data no software produzido;
6. Analisar problemas complexos que necessitam de soluções eficientes para manipular grandes quantidades de informação;
7. Desenvolver modelos e organização de estruturas de dados que otimizem as operações de