Partager via


Calculer

Le calcul Azure Databricks fait référence à la sélection de ressources informatiques disponibles sur Azure Databricks pour exécuter vos charges de travail d’ingénierie, de science des données et d’analytique. Choisissez parmi le calcul serverless pour la mise à l’échelle à la demande, le calcul classique pour les ressources personnalisables ou les entrepôts SQL pour une analytique optimisée.

Vous pouvez afficher et gérer les ressources de calcul dans la section Calcul de votre espace de travail :

Informatique sans serveur

À la demande, le calcul géré automatiquement est mis à l’échelle en fonction des besoins de votre charge de travail.

Sujet Descriptif
Calcul serverless pour les notebooks Exécution interactive de Python et SQL dans les notebooks avec mise à l’échelle automatique et aucune gestion de l’infrastructure.
Calcul serverless pour les travaux Exécutez des travaux Lakeflow sans configurer ni déployer l’infrastructure. Provisionne et met automatiquement à l’échelle les ressources de calcul.
Pipelines serverless Exécutez des pipelines déclaratifs Spark Lakeflow sans configurer ou déployer l’infrastructure. Provisionne et met automatiquement à l’échelle les ressources de calcul.
Limitations du calcul serverless Comprendre les limitations et les exigences relatives aux charges de travail serverless et aux configurations prises en charge.

Calcul classique

Ressources de calcul approvisionnées que vous créez, configurez et gérez pour vos charges de travail.

Sujet Descriptif
Vue d’ensemble du calcul classique Vue d’ensemble des personnes pouvant accéder aux ressources de calcul classiques et les créer.
Configurer le calcul Créez et configurez le calcul pour l’analyse interactive des données dans des notebooks ou des workflows automatisés avec des travaux Lakeflow.
Calcul standard Calcul multi-utilisateur avec des ressources partagées pour une collaboration rentable. Lakeguard assure une isolation sécurisée des utilisateurs.
Calcul dédié Ressource de calcul affectée à un seul utilisateur ou groupe.
Pools d’instances Instances préconfigurées qui réduisent le temps de démarrage du calcul et offrent des économies de coûts pour les charges de travail fréquentes.

Entrepôts SQL

Ressources de calcul optimisées pour des cas d’usage spécifiques et des fonctionnalités avancées. Les entrepôts SQL peuvent être configurés comme serverless ou classique.

Sujet Descriptif
Entrepôts SQL Calcul optimisé pour les requêtes SQL , l’analytique et les charges de travail décisionnels avec des options serverless ou classiques .
Types d’entrepôt SQL Comprendre les différences entre les options serverless et l’entrepôt SQL classique pour choisir le type approprié pour vos charges de travail.

Rubriques supplémentaires

Sujet Descriptif
Qu’est-ce que Photon ? Moteur de requête hautes performances qui accélère les charges de travail SQL et fournit un traitement plus rapide des données.
Qu’est-ce que Lakeguard ? Infrastructure de sécurité qui fournit la gouvernance des données et le contrôle d’accès pour les ressources de calcul.

Pour plus d’informations sur l’utilisation du calcul à l’aide de la ligne de commande ou des API, consultez Qu’est-ce que l’interface CLI Databricks et la référence de l’API REST Databricks.

Ports réservés

Certains ports sur le nœud de contrôleur sont réservés pour les services internes de Databricks. Pour éviter les conflits, ne liez pas les services aux ports suivants :

  • 1023
  • 6059
  • 6060
  • 6061
  • 6062 : Occupé par ipywidgets par défaut. Vous pouvez modifier le port si nécessaire. Voir ipywidgets.
  • 7071
  • 7077
  • 10000
  • 15001
  • 15002
  • 36423
  • 38841
  • 39909
  • 40000
  • 40001
  • 41063