Description Le rôle Développer et maintenir les modèles de données existants construits avec les notebooks PySpark Gérer le codebase, l'extraction de données, les jeux de données et les flux de données dans Azure Analyser les ensembles de données et fournir des informations sur les données Conserver toutes les données et ressources informatiques dans un environnement sécurisé et conforme Coder les notebooks PySpark pour créer des datamarts dans Azure Coder les requêtes SQL, créer des vues, des procédures stockées et des fonctions Enrichir les modèles de données existants avec des cas d'utilisation et des règles métier supplémentaires Gérer les pools Spark serverless, workspaces Power BI, d'automatisation de workflows, pipelines, déclencheurs, et de stockage de données Gérer les groupes en Entra IDs, rôles et autorisations des ressources Azure Documenter la base de code, les bases de données, les lacs de données et les processus ETL Qualifications Les exigences Curiosité de comprendre le domaine commercial et de transformer les ensembles de données en modèles de données Rigueur et attention aux détails pour documenter la base de code et les jeux de données Compétences avancées de développement PySpark Commande du développement SQL Empathie avec les utilisateurs et les collègues informatiques lors de la prise en charge du lac de données Excellente maîtrise du français et de l'anglais conversationnel Commande de l'anglais écrit pour documenter le matériel technique Script PySpark dans Azure Synapse Développement T-SQL pour les grandes bases de données transactionnelles dans SQL Server Contrôle de version Git pour les bases de code de grande taille Méthode Agile framework Scrum #J-18808-Ljbffr