Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cette page présente les exigences et les limitations pour le calcul dédié. La plupart des limitations de calcul dédiées dépendent du runtime, car la prise en charge des fonctionnalités a été ajoutée au fil du temps.
Important
Les scripts d’initialisation et les bibliothèques ont différentes prises en charge selon les modes d’accès et les versions de Databricks Runtime. Consultez Où peuvent être installés les scripts d’initialisation ? et Bibliothèques à l’échelle du calcul.
Le calcul dédié affecté à un groupe présente des limitations supplémentaires. Consultez les limitations d’accès au groupe.
Prise en charge du contrôle d’accès affiné
Le contrôle d’accès affiné est pris en charge sur le calcul dédié avec certaines exigences :
- Votre espace de travail doit être activé pour le calcul serverless.
- Les opérations de lecture sont prises en charge sur Databricks Runtime 15.4 LTS et versions ultérieures.
- Les opérations d’écriture sont prises en charge sur Databricks Runtime 16.3 et versions ultérieures. Consultez la prise en charge de DDL, SHOW, DESCRIBE et d’autres commandes.
- Si votre espace de travail a été déployé avec un pare-feu ou a des restrictions réseau sortantes, vous devez ouvrir les ports 8443 et 8444 pour activer le contrôle d’accès affiné sur le calcul dédié. Consultez Déployer Azure Databricks dans votre réseau virtuel Azure (injection de réseau virtuel).
Si votre calcul dédié s’exécute sur Databricks Runtime 15.3 ou ci-dessous :
- Vous ne pouvez pas accéder à une table qui présente un filtre de ligne ou un masque de colonne.
- Vous ne pouvez pas accéder aux vues dynamiques.
- Pour lire à partir d’une vue, vous devez avoir
SELECTsur toutes les tables et vues référencées par la vue.
Exigences de diffusion en continu et de vue matérialisée sur le calcul dédié
- Pour interroger une table créée par un autre utilisateur à l’aide de pipelines déclaratifs Spark Lakeflow, y compris les tables de diffusion en continu et les vues matérialisées, votre espace de travail doit être activé pour le calcul serverless et votre calcul dédié doit se trouver sur Databricks Runtime 15.4 ou version ultérieure.
- Le point de contrôle asynchrone est pris en charge sur Databricks Runtime 12.2 LTS et versions ultérieures.
- L’utilisation
StreamingQueryListenerpour interagir avec les objets gérés par Unity Catalog est prise en charge sur Databricks Runtime 15.1 et versions ultérieures.