Bearbeiten

Häufig gestellte Fragen zu den Verwaltungseinstellungen für Apache Spark-Arbeitsbereiche

In diesem Artikel finden Sie Antworten auf häufig gestellte Fragen zu den Arbeitsbereichs-Verwaltungseinstellungen für Apache Spark.

Wie werden die RBAC-Rollen verwendet, um Spark-Arbeitsbereichseinstellungen zu konfigurieren?

Verwenden Sie das Menü Zugriff verwalten, um Administrator-Berechtigungen für bestimmte Benutzer, Verteilergruppen oder Sicherheitsgruppen hinzuzufügen. Sie können dieses Menü außerdem verwenden, um Änderungen am Arbeitsbereich vorzunehmen und den Zugriff zum Hinzufügen, Ändern oder Löschen der Spark-Arbeitsbereichseinstellungen zu erteilen.

Gelten die Änderungen an den Spark-Eigenschaften auf Arbeitsbereichsebene für die aktiven Notebooksitzungen oder für geplante Spark-Aufträge?

Wenn Sie eine Konfigurationsänderung auf Arbeitsbereichsebene vornehmen, wird sie nicht auf aktive Spark-Sitzungen angewendet. Dies schließt Batch- oder Notebook-basierte Sitzungen ein. Sie müssen nach dem Speichern der neuen Konfigurationseinstellungen ein neues Notebook oder eine Batchsitzung starten, damit die Einstellungen wirksam werden.

Kann ich die Knotenfamilie, die Spark-Runtime und die Spark-Eigenschaften auf Kapazitätsebene konfigurieren?

Ja, Sie können die Runtime ändern oder die Spark-Eigenschaften mithilfe der Einstellungen für Datentechnik/Data Science als Teil der Seite „Kapazitätsadministratoreinstellungen“ verwalten. Sie benötigen den Kapazitätsadministratorzugriff, um diese Kapazitätseinstellungen anzuzeigen und zu ändern.

Kann ich verschiedene Knotenfamilien für verschiedene Notebooks und Spark-Auftragsdefinitionen in meinem Arbeitsbereich auswählen?

Derzeit können Sie nur die auf Speicheroptimierung basierende Knotenfamilie für den gesamten Arbeitsbereich auswählen.

Welche Versionen von Spark werden unterstützt?

Derzeit ist Spark Version 3.3 die einzige unterstützte Version. Weitere Versionen werden in kommenden Releases verfügbar sein.

Lassen sich diese Einstellungen auf Notebookebene konfigurieren?

Derzeit sind die Spark-Verwaltungseinstellungen nur auf Arbeitsbereichs- und Kapazitätsebene verfügbar.

Kann ich die minimale und maximale Anzahl von Knoten für die ausgewählte Knotenfamilie konfigurieren?

Derzeit ist die Knotenlimitkonfiguration nicht verfügbar. Diese Funktion wird in zukünftigen Releases aktiviert.

Kann ich die automatische Skalierung für die Spark-Pools in einer speicheroptimierten oder hardwarebeschleunigten GPU-basierten Knotenfamilie aktivieren?

Die automatische Skalierung ist derzeit nicht verfügbar. Diese Funktion wird in zukünftigen Releases aktiviert.

Wird intelligentes Zwischenspeichern für die Spark-Pools für einen Arbeitsbereich standardmäßig unterstützt oder aktiviert?

Intelligentes Zwischenspeichern ist standardmäßig für die Spark-Pools für alle Arbeitsbereiche aktiviert.