Description
Le rôle
* Développer et maintenir les modèles de données existants construits avec les notebooks PySpark
* Gérer le codebase, l’extraction de données, les jeux de données et les flux de données dans Azure
* Analyser les ensembles de données et fournir des informations sur les données
* Conserver toutes les données et ressources informatiques dans un environnement sécurisé et conforme
* Coder les notebooks PySpark pour créer des datamarts dans Azure
* Coder les requêtes SQL, créer des vues, des procédures stockées et des fonctions
* Enrichir les modèles de données existants avec des cas d’utilisation et des règles métier supplémentaires
* Gérer les pools Spark serverless, workspaces Power BI, d’automatisation de workflows, pipelines, déclencheurs, et de stockage de données
* Gérer les groupes en Entra IDs, rôles et autorisations des ressources Azure
* Documenter la base de code, les bases de données, les lacs de données et les processus ETL
Qualifications
Les exigences
* Curiosité de comprendre le domaine commercial et de transformer les ensembles de données en modèles de données
* Rigueur et attention aux détails pour documenter la base de code et les jeux de données
* Compétences avancées de développement PySpark
* Commande du développement SQL
* Empathie avec les utilisateurs et les collègues informatiques lors de la prise en charge du lac de données
* Excellente maîtrise du français et de l’anglais conversationnel
* Commande de l’anglais écrit pour documenter le matériel technique
* Script PySpark dans Azure Synapse
* Développement T-SQL pour les grandes bases de données transactionnelles dans SQL Server
* Contrôle de version Git pour les bases de code de grande taille
* Méthode Agile framework Scrum
#J-18808-Ljbffr