Udostępnij za pośrednictwem


Ustawienia administracyjne obszaru roboczego inżynierii danych w Microsoft Fabric

Dotyczy:✅ Inżynieria danych sieci szkieletowej i nauka o danych

Podczas tworzenia obszaru roboczego w Microsoft Fabric zostanie automatycznie utworzona pula starter skojarzona z tym obszarem roboczym. W przypadku uproszczonej konfiguracji w Microsoft Fabric nie ma potrzeby wybierania rozmiaru węzła lub maszyny, ponieważ te opcje są obsługiwane za kulisami. Ta konfiguracja zapewnia szybsze (5–10 sekund) środowisko uruchamiania sesji platformy Apache Spark dla użytkowników w celu rozpoczęcia i uruchamiania zadań platformy Apache Spark w wielu typowych scenariuszach bez konieczności martwienia się o skonfigurowanie obliczeń. W przypadku zaawansowanych scenariuszy z określonymi wymaganiami obliczeniowymi użytkownicy mogą utworzyć niestandardową pulę platformy Apache Spark i rozmiar węzłów na podstawie potrzeb związanych z wydajnością.

Aby wprowadzić zmiany w ustawieniach platformy Apache Spark w obszarze roboczym, musisz mieć rolę administratora dla tego obszaru roboczego. Aby dowiedzieć się więcej, zobacz Role w obszarach roboczych.

Aby zarządzać ustawieniami platformy Spark dla puli skojarzonej z obszarem roboczym:

  1. Przejdź do ustawień obszaru roboczego i wybierz opcję Inżynieria Danych/Nauka, aby rozwinąć menu.

    Zrzut ekranu pokazujący, gdzie wybrać Inżynierię danych w menu ustawień obszaru roboczego.

  2. W menu po lewej stronie zostanie wyświetlona opcja Spark Compute :

    Plik GIF przedstawiający różne sekcje obliczeń platformy Apache Spark w ustawieniach obszaru roboczego.

    Uwaga

    Jeśli zmienisz domyślną pulę z Starter Pool na niestandardową pulę Spark, czas rozpoczęcia sesji może być dłuższy (około 3 minuty).

Pula

Domyślna pula dla obszaru roboczego

Możesz użyć automatycznie utworzonej puli startowej lub utworzyć pule niestandardowe dla obszaru roboczego.

  • Pula startowa: Wstępnie nawodnione pule na żywo, automatycznie tworzone dla szybszego działania. Te klastry mają średni rozmiar. Pula początkowa jest ustawiona na domyślną konfigurację na podstawie zakupionej jednostki SKU pojemności Fabric. Administratorzy mogą dostosować maksymalne węzły i funkcje wykonawcze na podstawie wymagań dotyczących skalowania obciążeń platformy Spark. Aby dowiedzieć się więcej, zobacz Konfigurowanie pul startowych

  • Niestandardowa pula platformy Spark: można określać rozmiar węzłów, skalowanie automatyczne i dynamicznie przydzielać funkcje wykonawcze na podstawie wymagań dotyczących zadań platformy Spark. Aby utworzyć niestandardową pulę platformy Spark, administrator pojemności powinien włączyć opcję Dostosowane pule obszarów roboczych w sekcji Obliczenia platformy Spark w ustawieniach administratora pojemności.

Uwaga

Kontrolka poziomu pojemności dla niestandardowych pul obszarów roboczych jest domyślnie włączona. Aby dowiedzieć się więcej, zobacz Konfigurowanie i zarządzanie ustawieniami inżynierii danych i nauki o danych dla pojemności Fabric.

Administratorzy mogą tworzyć niestandardowe pule platformy Spark na podstawie ich wymagań obliczeniowych, wybierając opcję Nowa pula .

Zrzut ekranu przedstawiający opcje tworzenia puli niestandardowej.

Platforma Apache Spark dla Microsoft Fabric obsługuje klastry z jednym węzłem, co pozwala użytkownikom wybrać minimalną konfigurację węzła 1 w tym przypadku sterownik i funkcja wykonawcza uruchamiana w jednym węźle. Te klastry z jednym węzłem oferują wysoką dostępność podczas awarii węzłów i lepszą niezawodność zadań dla obciążeń z mniejszymi wymaganiami obliczeniowymi. Możesz również włączyć lub wyłączyć opcję skalowania automatycznego dla niestandardowych pul platformy Spark. Po włączeniu automatycznego skalowania pula uzyska nowe węzły w ramach maksymalnego limitu węzłów określonego przez użytkownika i wycofa je po wykonaniu zadania w celu uzyskania lepszej wydajności.

Możesz również wybrać opcję dynamicznego przydzielania egzekutorów, aby automatycznie dostosować ich optymalną liczbę w ramach określonego limitu maksymalnego, bazując na wolumenie danych, dla uzyskania lepszej wydajności.

Zrzut ekranu przedstawiający opcje tworzenia puli niestandardowej na potrzeby skalowania automatycznego i alokacji dynamicznej.

Dowiedz się więcej o przetwarzaniu Apache Spark w Fabric.

  • Dostosowywanie konfiguracji obliczeń dla elementów: Jako administrator obszaru roboczego możesz zezwolić użytkownikom na dostosowywanie konfiguracji obliczeniowych (właściwości na poziomie sesji, które obejmują rdzeń sterownika/wykonawcy, pamięć sterownika/wykonawcy) dla poszczególnych elementów, takich jak notesy i definicje zadań Spark, z wykorzystaniem środowiska.

Zrzut ekranu pokazujący przełącznik umożliwiający dostosowanie obliczeń dla elementów.

Jeśli ustawienie zostanie wyłączone przez administratora obszaru roboczego, domyślna pula i jej konfiguracje obliczeniowe są używane dla wszystkich środowisk w obszarze roboczym.

Środowisko

Środowisko udostępnia elastyczne konfiguracje uruchamiania zadań platformy Spark (notesy, definicje zadań platformy Spark). W środowisku można skonfigurować właściwości obliczeniowe, wybrać różne środowisko uruchomieniowe, skonfigurować zależności pakietów biblioteki na podstawie wymagań dotyczących obciążenia.

Na karcie Środowisko jest dostępna opcja ustawienia środowiska domyślnego. Możesz wybrać wersję platformy Spark, której chcesz użyć dla obszaru roboczego.

Jako administrator obszaru roboczego Fabric, możesz wybrać Środowisko jako domyślne środowisko dla obszaru roboczego.

Możesz również utworzyć nowy za pomocą listy rozwijanej Środowisko .

Zrzut ekranu przedstawiający tworzenie środowiska za pomocą listy rozwijanej załączników w ustawieniach WS.

Jeśli wyłączysz opcję posiadania domyślnego środowiska, możesz wybrać wersję uruchomieniową Fabric z dostępnych wersji uruchomieniowych wymienionych na liście rozwijanej.

Zrzut ekranu przedstawiający miejsce wybierania wersji środowiska uruchomieniowego.

Dowiedz się więcej o środowiskach uruchomieniowych platformy Apache Spark.

Stanowiska

Ustawienia zadań umożliwiają administratorom kontrolowanie logiki przyjęcia zadania dla wszystkich zadań platformy Spark w obszarze roboczym.

Zrzut ekranu przedstawiający ustawienia zadań.

Domyślnie wszystkie obszary robocze są włączone z optymistycznym przyjmowaniem zadań. Dowiedz się więcej o przyjęciu zadań dla Spark w Microsoft Fabric.

Możesz włączyć ustawienie Rezerwa maksymalnych rdzeni dla aktywnych zadań platformy Spark, aby wyłączyć podejście oparte na optymistycznym przyjęciu zadań i zarezerwować maksymalną liczbę rdzeni dla zadań Spark.

Możesz również ustawić limit czasu sesji platformy Spark, aby dostosować wygaśnięcie wszystkich sesji interakcyjnych notesu.

Uwaga

Domyślny czas wygaśnięcia sesji jest ustawiony na 20 minut dla interakcyjnych sesji platformy Spark.

Wysoka współbieżność

Tryb wysokiej współbieżności umożliwia użytkownikom współużytkowanie tych samych sesji Spark w Apache Spark dla obciążeń związanych z inżynierią danych i nauką o danych. Element podobny do notebooka używa sesji Spark do jej realizacji i po włączeniu umożliwia użytkownikom udostępnianie jednej sesji Spark w wielu notebookach.

Zrzut ekranu przedstawiający stronę ustawień wysokiej współbieżności.

Dowiedz się więcej o wysokiej współbieżności w usłudze Apache Spark for Fabric.

Automatyczne rejestrowanie modeli i eksperymentów Machine Learning

Administratorzy mogą teraz włączyć automatyczne rejestrowanie dla modeli i eksperymentów uczenia maszynowego. Ta opcja automatycznie przechwytuje wartości parametrów wejściowych, metryk wyjściowych i elementów wyjściowych modelu uczenia maszynowego podczas trenowania. Dowiedz się więcej na temat automatycznego rejestrowania.

Zrzut ekranu przedstawiający stronę ustawień autologu.