Valorizamos estabilidade profissional no CV.
Requisitos:
Inglês obrigatório e Português.
Excelente comunicação e estabilidade profissional.
1. Experiência comprovada em desenvolver e manter pipelines de dados seguros e eficientes utilizando tecnologias como Azure Data Factory, Azure Synapse, Microsoft Fabric, Databricks, Azure SQL.
2. Fortes capacidades e orientação à programação em linguagens como PySpark e SQL.
3. Projetar, implementar e otimizar processos em SQL, funções, stored procedures para atender às necessidades de análise e processamento de dados.
4. Capacidade de colaborar com cientistas de dados e outros engenheiros de dados para garantir a qualidade e integridade dos dados.
5. Implementar soluções de modelação de BI para suportar a tomada de decisões baseada em dados.
6. Monitorizar e melhorar o desempenho de processos de transformação de dados ETL e ELT.
7. Experiência em projetos com novas arquiteturas de dados voltadas para a Cloud e que se suportam em sistemas como Lakehouses.
8. Seguir as boas práticas definidas para cada tecnologia e sentido crítico para melhorar.
9. Sentido de responsabilidade na resposta a equipas e hierarquias.
10. Postura orientada à consultoria.
11. Conhecimentos em outras tecnologias como SQL Server, SSIS, SSAS, SSRS, mais vocacionadas para sistemas onPremise.
12. Outras tecnologias adjacentes às de dados como Azure Logic Apps, Functions, Key Vault, Log Analytics, etc. são altamente valorizadas.
13. Capacidade de análise das necessidades dos projetos na componente técnica.
14. Implementação de outras atividades fora do domínio da engenharia como modelação e visualizações.
15. Conhecimentos em PowerBI (modelação semântica e DAX) são altamente valorizados.
16. Conhecimentos em outras tecnologias como Snowflake, DBT, Airflow ou outros Cloud Providers são valorizados.
17. Conhecimento em práticas de DevOps e CI/CD para pipelines de dados.
#J-18808-Ljbffr