Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les performances de décisionnel haut de gamme dépendent de la façon dont les données sont préparées et fournies à partir de Lakehouse. En adoptant des modèles architecturaux, en appliquant une structure sémantique et en utilisant des optimisations ciblées, vous pouvez réduire la complexité des requêtes, améliorer la réactivité du tableau de bord et réduire les coûts de calcul.
Le tableau suivant récapitule les pratiques recommandées, leur impact attendu, la documentation associée et les éléments d’action associés. Ce contenu est destiné aux ingénieurs données, aux développeurs décisionnels et aux auteurs de tableaux de bord qui conçoivent, optimisent et gèrent les charges de travail d’analyse dans Lakehouse.
Préparation des données
| Meilleure pratique | Impact | Docs | Éléments d’action |
|---|---|---|---|
| Adopter une architecture de médaillon | Accélère la transformation des données brutes en produits de données prêts à l’emploi et fiables pour faciliter la consommation. | Examiner et implémenter les couches de médaillon | |
| Utiliser le clustering liquide | Améliore les performances des requêtes grâce au saut des fichiers et des données. | Appliquer à des tables volumineuses avec des modèles de filtre | |
| Utiliser des tables managées | Azure Databricks régit automatiquement et optimise les performances de la couche de stockage et des requêtes. | Créer des tables managées pour vos données | |
| Utiliser l’optimisation prédictive ou optimiser les tables manuellement | Améliore les performances des requêtes en optimisant les tailles et la disposition des fichiers, en supprimant les anciens fichiers et en mettant à jour les statistiques. | Activer pour les tables de production ou planifier l’optimisation régulière et analyser les tables après les modifications de données | |
| Données modélisées dans un schéma en étoile. | Facilite l’interrogation et l’utilisation des données. | Concevoir des tables de faits et de dimensions | |
| Éviter les types de données larges et les colonnes à cardinalité élevée | Optimise la taille et la consommation de mémoire du modèle de données et améliore l’efficacité des requêtes. | Passer en revue les types de données et la cardinalité | |
| Déclarer des clés primaires et étrangères (avec RELY) | Optimise les requêtes en éliminant les jointures et les agrégations inutiles. | Définir des clés sur des tables de faits et de dimensions | |
| Utiliser des colonnes générées automatiquement | Réduit la nécessité de calculer des valeurs au moment de la requête. | Identifier les champs fréquemment calculés | |
| Utiliser des vues matérialisées et des tables persistantes | Améliore les performances en pré-agrégeant les données pour les requêtes les plus courantes et gourmandes en ressources. | Créer des vues agrégées pour les requêtes courantes |