Administrasjonsinnstillinger for Spark workspace i Microsoft Fabric

Gjelder for: Dataingeniør ing og datavitenskap i Microsoft Fabric

Når du oppretter et arbeidsområde i Microsoft Fabric, opprettes et startutvalg som er knyttet til arbeidsområdet automatisk. Med det forenklede oppsettet i Microsoft Fabric er det ikke nødvendig å velge noden eller maskinstørrelsene, da disse alternativene håndteres for deg bak kulissene. Denne konfigurasjonen gir en raskere (5–10 sekunder) Startopplevelse for Spark-økt for brukere å komme i gang og kjøre Spark-jobber i mange vanlige scenarioer uten å måtte bekymre seg for å konfigurere databehandlingen. For avanserte scenarier med spesifikke beregningskrav kan brukere opprette et egendefinert Spark-utvalg og endre størrelsen på nodene basert på deres ytelsesbehov.

Hvis du vil gjøre endringer i Spark-innstillingene i et arbeidsområde, bør du ha administratorrollen for dette arbeidsområdet. Hvis du vil ha mer informasjon, kan du se Roller i arbeidsområder.

Slik administrerer du Spark-innstillingene for utvalget som er knyttet til arbeidsområdet:

  1. Gå til innstillingene for arbeidsområdet i arbeidsområdet, og velg alternativet Dataingeniør ing/vitenskap for å utvide menyen:

    Screenshot showing where to select Data Engineering in the Workspace settings menu.

  2. Du ser Spark Compute-alternativet i menyen til venstre:

    Gif showing different sections of the spark compute in workspace settings.

    Merk

    Hvis du endrer standardutvalget fra Startutvalg til et egendefinert spark-utvalg, kan det hende du ser lengre øktstart (~3 minutter).

Utvalg

Standardutvalg for arbeidsområdet

Du kan bruke det automatisk opprettede startutvalget eller opprette egendefinerte utvalg for arbeidsområdet.

  • Startutvalg: Forhåndshydrerte live-bassenger opprettes automatisk for raskere opplevelse. Disse klyngene er middels store. Startutvalget er satt til en standardkonfigurasjon basert på SKU-en for stoffkapasitet som er kjøpt. Administratorer kan tilpasse maksimalt antall noder og eksekutorer basert på kravene for Spark-arbeidsbelastningsskala. Hvis du vil ha mer informasjon, kan du se Konfigurere startutvalg

  • Egendefinert sparkutvalg: Du kan endre størrelsen på nodene, autoskalaen og dynamisk tildele eksekutorer basert på kravene til Spark-jobben. Hvis du vil opprette et egendefinert Spark-utvalg, bør kapasitetsadministratoren aktivere alternativet Egendefinerte arbeidsområdeutvalg i Spark Compute-delen av innstillingene for kapasitetsadministrator.

Merk

Kapasitetsnivåkontrollen for egendefinerte arbeidsområdeutvalg er aktivert som standard. Hvis du vil ha mer informasjon, kan du se Spark Compute Innstillinger for Fabric Capacities.

Administratorer kan opprette egendefinerte Spark-utvalg basert på databehandlingskravene ved å velge alternativet Nytt utvalg .

Screenshot showing custom pool creation options.

Microsoft Fabric Spark støtter enkeltnodeklynger, som gjør det mulig for brukere å velge en minimumsnodekonfigurasjon på 1 i så fall driveren og eksekutoren kjører i én enkelt node. Disse enkeltnodeklyngene tilbyr gjenopprettelig høy tilgjengelighet i tilfelle nodefeil og bedre jobbpålitelighet for arbeidsbelastninger med mindre databehandlingskrav. Du kan også aktivere eller deaktivere alternativet for autoskalering for de egendefinerte Spark-bassengene. Når det er aktivert med autoskala, henter utvalget nye noder innenfor den maksimale nodegrensen som er angitt av brukeren, og trekker dem tilbake etter jobbkjøringen for bedre ytelse.

Du kan også velge alternativet for dynamisk tildeling av eksekutorer til å samle automatisk optimalt antall eksekutorer innenfor den maksimale grensen som er angitt basert på datavolumet for bedre ytelse.

Screenshot showing custom pool creation options for autoscaling and dynamic allocation.

Mer informasjon om Spark Compute for Fabric.

  • Tilpass beregningskonfigurasjon for elementer: Som administrator for arbeidsområdet kan du tillate brukere å justere beregningskonfigurasjoner (egenskaper på øktnivå som inkluderer Driver/Executor Core, Driver/Executor Memory) for individuelle elementer, for eksempel notatblokker, utløse jobbdefinisjoner ved hjelp av Miljø.

Screenshot showing switch to customize compute for items.

Hvis innstillingen er deaktivert av administratoren for arbeidsområdet, brukes standardutvalget og databehandlingskonfigurasjonene for alle miljøer i arbeidsområdet.

Miljø

Miljøet gir fleksible konfigurasjoner for å kjøre Spark-jobber (notatblokker, spark jobbdefinisjoner). I et miljø kan du konfigurere beregningsegenskaper, velge ulike kjøretids-, installasjonsbibliotekpakkeavhengigheter basert på arbeidsbelastningskravene dine.

I miljøfanen har du muligheten til å angi standardmiljøet. Du kan velge hvilken versjon av Spark du vil bruke for arbeidsområdet.

Som administrator for fabric-arbeidsområdet kan du velge et miljø som standardmiljø for arbeidsområdet.

Du kan også opprette en ny gjennom rullegardinlisten Miljø .

Environment creation through attachment dropdown in WS setting

Hvis du deaktiverer alternativet for å ha et standardmiljø, kan du velge Fabric Runtime-versjonen fra de tilgjengelige kjøretidsversjonene som er oppført i rullegardinlisten.

Screenshot showing where to select runtime version.

Mer informasjon om Spark runtimes

Høy samtidighet

Med høy samtidighetsmodus kan brukere dele de samme Spark-øktene i Fabric Spark for datateknikk og datavitenskapelige arbeidsbelastninger. Et element som en notatblokk bruker en Spark-økt for kjøringen, og når det er aktivert, kan brukere dele én enkelt spark-økt på tvers av flere notatblokker.

Screenshot showing high concurrency settings page.

Mer informasjon om Høy samtidighet i Fabric Spark

Automatisk logging for machine Læring modeller og eksperimenter

Administratorer kan nå aktivere autologging for maskinlæringsmodeller og eksperimenter. Dette alternativet registrerer automatisk verdiene for inndataparametere, utdatadata og utdataelementer i en maskinlæringsmodell etter hvert som den blir opplært. Mer informasjon om autologging.

Screenshot showing autolog settings page.