Modifier

Partager via


FAQ sur les paramètres d’administration de l’espace de travail Apache Spark

Cet article répertorie des réponses aux questions fréquemment posées sur les paramètres d’administration de l’espace de travail Apache Spark.

Comment utiliser les rôles RBAC pour configurer les paramètres de mon espace de travail Spark ?

Utilisez le menu Gérer l’accès pour ajouter des autorisations d’Administration pour des utilisateurs, des groupes de distribution ou des groupes de sécurité spécifiques. Vous pouvez également utiliser ce menu pour apporter des modifications à l’espace de travail et accorder l’accès pour ajouter, modifier ou supprimer les paramètres de l’espace de travail Spark.

Les modifications apportées aux propriétés Spark au niveau de l’environnement s’appliquent-elles aux sessions de notebook actives ou aux travaux Spark planifiés ?

Lorsque vous apportez une modification de configuration au niveau de l’espace de travail, elle n’est pas appliquée aux sessions Spark actives. Cela inclut les sessions par lots ou basées sur un notebook. Vous devez démarrer un nouveau notebook ou une session par lots après avoir enregistré les nouveaux paramètres de configuration pour que les paramètres prennent effet.

Puis-je configurer la famille de nœuds, le runtime Spark et les propriétés Spark au niveau de la capacité ?

Oui, vous pouvez modifier le runtime ou gérer les propriétés Spark à l’aide des paramètres Ingénieurs de données/Science dans le cadre de la page paramètres d’administration de la capacité. Vous avez besoin de l’accès administrateur de capacité pour afficher et modifier ces paramètres de capacité.

Puis-je choisir différentes familles de nœuds pour différents notebooks et définitions de travail Spark dans mon espace de travail ?

Actuellement, vous pouvez uniquement sélectionner la famille de nœuds basée sur la mémoire optimisée pour l’ensemble de l’espace de travail.

Puis-je configurer ces paramètres au niveau du notebook ?

Oui, vous pouvez utiliser %%configure pour personnaliser les propriétés au niveau de la session Spark dans les notebooks

Puis-je configurer le nombre minimal et maximal de nœuds pour la famille de nœuds sélectionnée ?

Oui, vous pouvez choisir les nœuds min. et max. en fonction des limites de rafale autorisées de la capacité Fabric liée à l’espace de travail Fabric.

Puis-je activer la mise à l’échelle automatique pour les pools Spark dans une famille de nœuds GPU à mémoire optimisée ou avec accélération matérielle ?

La mise à l’échelle automatique est disponible pour les pools Spark, et permet au système d’effectuer automatiquement un scale-up du calcul en fonction des phases de travail pendant l’exécution. Les GPU sont actuellement indisponibles. Cette fonctionnalité sera activée dans les prochaines versions.

La mise en cache intelligente pour les pools Spark est-elle prise en charge ou activée par défaut pour un espace de travail ?

La mise en cache intelligente est activée par défaut pour les pools Spark pour tous les espaces de travail.