Microsoft Fabric-terminologi

Få mere at vide om definitioner af begreber, der bruges i Microsoft Fabric, herunder begreber, der er specifikke for Synapse Data Warehouse, Synapse Dataudvikler ing, Synapse Data Science, Synapse Real-Time Analytics, Data Factory og Power BI.

Generelle ord

  • Kapacitet: Kapacitet er et dedikeret sæt ressourcer, der er tilgængelige på et givet tidspunkt, og som skal bruges. Kapacitet definerer en ressources mulighed for at udføre en aktivitet eller producere output. Forskellige elementer bruger forskellig kapacitet på et bestemt tidspunkt. Fabric tilbyder kapacitet via Fabric SKU og Trials. Du kan få flere oplysninger under Hvad er kapacitet?

  • Oplevelse: En samling af funktioner, der er målrettet til en bestemt funktionalitet. Fabric-oplevelserne omfatter Synapse Data Warehouse, Synapse Dataudvikler ing, Synapse Data Science, Synapse Real-Time Analytics, Data Factory og Power BI.

  • Element: Et element et sæt funktioner i en oplevelse. Brugerne kan oprette, redigere og slette dem. Hver elementtype indeholder forskellige funktioner. Den Dataudvikler oplevelse omfatter f.eks. lakehouse-, notesbog- og Spark-jobdefinitionselementer.

  • Lejer: En lejer er en enkelt forekomst af Fabric for en organisation og er justeret i forhold til et Microsoft Entra-id.

  • Arbejdsområde: Et arbejdsområde er en samling elementer, der samler forskellige funktioner i et enkelt miljø, der er udviklet til samarbejde. Den fungerer som en objektbeholder, der bruger kapacitet til det arbejde, der udføres, og indeholder kontrolelementer til, hvem der har adgang til elementerne i den. I et arbejdsområde opretter brugerne f.eks. rapporter, notesbøger, semantiske modeller osv. Du kan få flere oplysninger i artiklen Arbejdsområder .

Synapse-dataengineering

  • Lakehouse: Et lakehouse er en samling filer, mapper og tabeller, der repræsenterer en database over en datasø, der bruges af Apache Spark-programmet og SQL-programmet til big data-behandling. Et lakehouse indeholder forbedrede funktioner til ACID-transaktioner, når du bruger Delta-formaterede tabeller med åben kildekode. Lakehouse-elementet hostes i en entydig arbejdsområdemappe i Microsoft OneLake. Den indeholder filer i forskellige formater (struktureret og ustruktureret), der er organiseret i mapper og undermapper. Du kan få flere oplysninger under Hvad er et lakehouse?

  • Notesbog: En Fabric-notesbog er et interaktivt programmeringsværktøj til flere sprog med omfattende funktioner. Hvilket omfatter oprettelse af kode og markdown, kørsel og overvågning af et Spark-job, visning og visualisering af resultatet og samarbejde med teamet. Det hjælper datateknikere og dataforskere med at udforske og behandle data og bygge eksperimenter med maskinel indlæring med både kode- og lavkodeoplevelse. Det kan nemt transformeres til en pipelineaktivitet til orkestrering.

  • Spark-program: Et Apache Spark-program er et program, der er skrevet af en bruger ved hjælp af et af Sparks API-sprog (Scala, Python, Spark SQL eller Java) eller Microsoft-tilføjede sprog (.NET med C# eller F#). Når et program kører, er det opdelt i et eller flere Spark-job, der kører parallelt for at behandle dataene hurtigere. Du kan få flere oplysninger under Overvågning af Spark-program.

  • Apache Spark-job: Et Spark-job er en del af et Spark-program, der køres parallelt med andre job i programmet. Et job består af flere opgaver. Du kan få flere oplysninger under Spark-jobovervågning.

  • Definition af Apache Spark-job: En Spark-jobdefinition er et sæt parametre, der er angivet af brugeren, og som angiver, hvordan et Spark-program skal køres. Det giver dig mulighed for at sende batch- eller streamingjob til Spark-klyngen. Du kan få flere oplysninger under Hvad er en Apache Spark-jobdefinition?

  • V-order: En skriveoptimering til parquet-filformatet, der muliggør hurtige læsninger og giver omkostningseffektivitet og bedre ydeevne. Alle Fabric-programmer skriver som standard v-sorterede parketfiler.

Data Factory

  • Forbind or: Data Factory tilbyder et omfattende sæt connectors, der giver dig mulighed for at oprette forbindelse til forskellige typer datalagre. Når du har oprettet forbindelse, kan du transformere dataene. Du kan få flere oplysninger under connectorer.

  • Datapipeline: I Data Factory bruges en datapipeline til at orkestrere dataflytning og -transformation. Disse pipelines er forskellige fra udrulningspipelines i Fabric. Du kan få flere oplysninger under Pipelines i oversigten over datafabrikker.

  • Dataflow Gen2: Dataflow giver en grænseflade med lav kode til hentning af data fra hundredvis af datakilder og transformering af dine data. Dataflow i Fabric kaldes Dataflow Gen2. Dataflow Gen1 findes i Power BI. Dataflow Gen2 tilbyder ekstra funktioner sammenlignet med dataflow i Azure Data Factory eller Power BI. Du kan ikke opgradere fra Gen1 til Gen2. Du kan få flere oplysninger under Dataflow i oversigten over datafabrikker.

Synapse-datavidenskab

  • Data Wrangler: Data Wrangler er et notesbogbaseret værktøj, der giver brugerne en fordybende oplevelse til at udføre udforskende dataanalyser. Funktionen kombinerer en gitterlignende datavisning med dynamisk oversigtsstatistik og et sæt almindelige datarensningshandlinger, der alle er tilgængelige med nogle få valgte ikoner. Hver handling genererer kode, der kan gemmes tilbage i notesbogen som et script, der kan genbruges.

  • Eksperiment: Et maskinel indlæringseksperiment er den primære enhed i organisationen og styringen af alle relaterede machine learning-kørsler. Du kan få flere oplysninger under Eksperimenter med maskinel indlæring i Microsoft Fabric.

  • Model: En model til maskinel indlæring er en fil, der er oplært til at genkende visse typer mønstre. Du oplærer en model over et sæt data, og du giver den en algoritme, som den bruger til at begrunde og lære af dette datasæt. Du kan få flere oplysninger under Model til maskinel indlæring.

  • Kør: En kørsel svarer til en enkelt udførelse af modelkoden. I MLflow er sporing baseret på eksperimenter og kørsler.

Synapse-data warehouse

  • SQL-analyseslutpunkt: Hver Lakehouse har et SQL-analyseslutpunkt, der gør det muligt for en bruger at forespørge deltatabeldata med TSQL via TDS. Du kan finde flere oplysninger i SQL Analytics-slutpunktet.

  • Synapse Data Warehouse: Synapse Data Warehouse fungerer som et traditionelt data warehouse og understøtter de fulde transaktions-T-SQL-funktioner, du ville forvente fra et virksomhedsdata warehouse. Du kan få flere oplysninger under Synapse Data Warehouse.

Synapse-analyse i realtid

  • KQL-database: KQL-databasen indeholder data i et format, som du kan udføre KQL-forespørgsler mod. Du kan få flere oplysninger under Forespørg om en KQL-database.

  • KQL-forespørgselssæt: KQL-forespørgselssættet er det element, der bruges til at køre forespørgsler, få vist resultater og manipulere forespørgselsresultater på data fra din Data Explorer-database. Forespørgselssættet indeholder databaserne og tabellerne, forespørgslerne og resultaterne. Med KQL-forespørgselssættet kan du gemme forespørgsler til fremtidig brug eller eksportere og dele forespørgsler med andre. Du kan få flere oplysninger under Forespørgselsdata i KQL-forespørgselssættet

  • Hændelsesstream: Funktionen Microsoft Fabric-hændelsesstreams giver et centralt sted på Fabric-platformen, hvor du kan registrere, transformere og dirigere begivenheder i realtid til destinationer uden kode. En hændelsesstream består af forskellige streamingdatakilder, indtagelsesdestinationer og en hændelsesprocessor, når transformationen er nødvendig. Du kan få flere oplysninger under Microsoft Fabric-hændelsesstrømme.

OneLake

  • Genvej: Genveje er integrerede referencer i OneLake, der peger på andre fillagerplaceringer. De gør det muligt at oprette forbindelse til eksisterende data uden at skulle kopiere dem direkte. Du kan få flere oplysninger under OneLake-genveje.