Freigeben über


Spark-Computekonfigurationseinstellungen in Fabric-Umgebungen

Microsoft Fabric Datentechnik- und Data Science-Umgebungen werden auf einer vollständig verwalteten Spark-Computeplattform ausgeführt. Diese Plattform wurde entwickelt, um unvergleichliche Geschwindigkeit und Effizienz zu bieten. Dies umfasst Startpools und benutzerdefinierte Pools.

Eine Fabric-Umgebung enthält eine Sammlung von Konfigurationen, u. a. Spark-Computeeigenschaften, mit denen Benutzer*innen die Spark-Sitzung konfigurieren können, nachdem sie an Notebooks und Spark-Aufträge angefügt wurden. Eine Umgebung ermöglicht die flexible Anpassung von Computekonfigurationen zum Ausführen Ihrer Spark-Aufträge. In einer Umgebung können Sie die Eigenschaften der Spark-Sitzungsebene konfigurieren, um den Arbeitsspeicher und die Kerne von Executors basierend auf Workloadanforderungen anzupassen.

Arbeitsbereichsadministrator*innen können Computeanpassungen mithilfe des Switchs Computekonfigurationen für Elemente anpassen auf der Registerkarte Pool im Abschnitt Datentechnik/Data Science des Bildschirms Arbeitsbereichseinstellungen aktivieren oder deaktivieren.

Arbeitsbereichsadministrator*innen können den Mitgliedern und Mitwirkenden das Ändern der Standardcomputekonfigurationen auf Sitzungsebene in der Fabric-Umgebung ermöglichen, indem sie diese Einstellung aktivieren.

Screenshot der Computeanpassungsoption auf Elementebene in den Arbeitsbereichseinstellungen.

Wenn Arbeitsbereichsadministrator*innen diese Option in den Arbeitsbereichseinstellungen deaktivieren, wird der Computebereich der Umgebung deaktiviert, und für die Ausführung von Spark-Aufträge werden die Standardcomputekonfigurationen des Pools für den Arbeitsbereich verwendet.

Anpassen von Computeeigenschaften auf Sitzungsebene in einer Umgebung

Als Benutzer*in können Sie einen Pool für die Umgebung aus der Liste der im Fabric-Arbeitsbereich verfügbaren Pools auswählen. Fabric-Arbeitsbereichsadministrator*innen erstellen den Standardstartpool und benutzerdefinierte Pools.

Screenshot, der zeigt, wo Pools im Abschnitt „Compute“ der Umgebung ausgewählt werden sollen.

Nachdem Sie einen Pool im Abschnitt Compute ausgewählt haben, können Sie die Kerne und den Arbeitsspeicher für die Executors innerhalb der Grenzen der Knotengrößen und Grenzwerte des ausgewählten Pools optimieren.

Beispiel: Sie wählen einen benutzerdefinierten Pool mit der Knotengröße L (entspricht 16 virtuellen Spark-Kernen) als Umgebungspool aus. Anschließend können Sie für den Treiber-/Executorkern abhängig von ihrer Anforderung auf Auftragsebene den Wert „4“, „8“ oder „16“ auswählen. Für den für Treiber und Executors zugewiesenen Arbeitsspeicher können Sie 28 g, 56 g oder 112 g auswählen. Diese Werte liegen alle innerhalb der Arbeitsspeichergrenzwerte für große Knoten.

Screenshot, der zeigt, wo die Anzahl der Kerne im Abschnitt

Weitere Informationen zu Spark-Computegrößen und ihren Kernen oder Speicheroptionen finden Sie unter Was ist Spark-Compute in Microsoft Fabric?.