Häufig gestellte Fragen zu Den Verwaltungseinstellungen des Apache Spark-Arbeitsbereichs

In diesem Artikel werden Antworten auf häufig gestellte Fragen zu Verwaltungseinstellungen für Apache Spark-Arbeitsbereiche aufgeführt.

Wichtig

Microsoft Fabric befindet sich in der Vorschau.

Gewusst wie die RBAC-Rollen verwenden, um meine Spark-Arbeitsbereichseinstellungen zu konfigurieren?

Verwenden Sie das Menü Zugriff verwalten, um Admin Berechtigungen für bestimmte Benutzer, Verteilergruppen oder Sicherheitsgruppen hinzuzufügen. Sie können dieses Menü auch verwenden, um Änderungen am Arbeitsbereich vorzunehmen und den Zugriff zum Hinzufügen, Ändern oder Löschen der Spark-Arbeitsbereichseinstellungen zu gewähren.

Gelten die Änderungen an den Spark-Eigenschaften auf Arbeitsbereichsebene für die aktiven Notebooksitzungen oder geplanten Spark-Aufträge?

Wenn Sie eine Konfigurationsänderung auf Arbeitsbereichsebene vornehmen, wird sie nicht auf aktive Spark-Sitzungen angewendet. Dies schließt Batch- oder Notebook-basierte Sitzungen ein. Sie müssen nach dem Speichern der neuen Konfigurationseinstellungen ein neues Notebook oder eine Batchsitzung starten, damit die Einstellungen wirksam werden.

Kann ich die Knotenfamilie, die Spark-Runtime und die Spark-Eigenschaften auf Kapazitätsebene konfigurieren?

Ja, Sie können die Laufzeit ändern oder die Spark-Eigenschaften mithilfe der einstellungen Datentechnik/Science als Teil der Seite kapazitätsadministratoreinstellungen verwalten. Sie benötigen den Kapazitätsadministratorzugriff, um diese Kapazitätseinstellungen anzuzeigen und zu ändern.

Kann ich verschiedene Knotenfamilien für verschiedene Notebooks und Spark-Auftragsdefinitionen in meinem Arbeitsbereich auswählen?

Derzeit können Sie nur speicheroptimiert basierende Knotenfamilie für den gesamten Arbeitsbereich auswählen.

Welche Versionen von Spark werden unterstützt?

Derzeit ist Spark Version 3.3 die einzige unterstützte Version. Zusätzliche Versionen werden in der kommenden Version verfügbar sein.

Kann ich diese Einstellungen auf Notebookebene konfigurieren?

Derzeit sind die Spark-Verwaltungseinstellungen nur auf Arbeitsbereichs- und Kapazitätsebene verfügbar.

Kann ich die minimale und maximale Anzahl von Knoten für die ausgewählte Knotenfamilie konfigurieren?

Derzeit ist die Knotenlimitkonfiguration nicht verfügbar. Diese Funktion wird in zukünftigen Releases aktiviert.

Kann ich die automatische Skalierung für die Spark-Pools in einer speicheroptimierten oder hardwarebeschleunigten GPU-basierten Knotenfamilie aktivieren?

Die automatische Skalierung ist derzeit nicht verfügbar. Diese Funktion wird in zukünftigen Releases aktiviert.

Wird intelligentes Zwischenspeichern für die Spark-Pools für einen Arbeitsbereich standardmäßig unterstützt oder aktiviert?

Intelligentes Zwischenspeichern ist standardmäßig für die Spark-Pools für alle Arbeitsbereiche aktiviert.