Condividi tramite


Terminologia di Microsoft Fabric

Informazioni sulle definizioni dei termini usati in Microsoft Fabric, inclusi termini specifici per Synapse Data Warehouse, Synapse Ingegneria dei dati, Synapse Data Science, Intelligenza in tempo reale, Data Factory e Power BI.

Condizioni generali

  • Capacità: la capacità è un set dedicato di risorse disponibili in un determinato momento da usare. La capacità definisce l'abilità di una risorsa di eseguire un'attività o di produrre output. Diversi elementi usano capacità diverse in un determinato momento. Fabric offre capacità tramite lo SKU e le versioni di valutazione di Fabric. Per altre informazioni, vedere Che cos'è la capacità?

  • Esperienza: una raccolta di funzionalità destinate a una funzionalità specifica. Le esperienze di infrastruttura includono Synapse Data Warehouse, Synapse Ingegneria dei dati, Synapse Data Science, Intelligence in tempo reale, Data Factory e Power BI.

  • Elemento: un elemento di un set di funzionalità all'interno di un'esperienza. Gli utenti possono creare, modificare ed eliminarli. Ogni tipo di elemento offre funzionalità diverse. Ad esempio, l'esperienza di Ingegneria dei dati include gli elementi lakehouse, notebook e definizione del processo Spark.

  • Tenant: un tenant è una singola istanza di Fabric per un'organizzazione ed è allineato a un ID Microsoft Entra.

  • Area di lavoro: un'area di lavoro è una raccolta di elementi che riunisce diverse funzionalità in un singolo ambiente progettato per la collaborazione. Funge da contenitore che usa la capacità per il lavoro eseguito e fornisce controlli per chi può accedere agli elementi in esso contenuti. Ad esempio, in un'area di lavoro, gli utenti creano report, notebook, modelli semantici e così via. Per altre informazioni, vedere l'articolo Aree di lavoro .

Ingegneria dei dati in Synapse

  • Lakehouse: una lakehouse è una raccolta di file, cartelle e tabelle che rappresentano un database su un data lake usato dal motore Apache Spark e dal motore SQL per l'elaborazione di Big Data. Una lakehouse include funzionalità avanzate per le transazioni ACID quando si usano le tabelle con formattazione Delta open source. L'elemento lakehouse è ospitato all'interno di una cartella dell'area di lavoro univoca in Microsoft OneLake. Contiene file in vari formati (strutturati e non strutturati) organizzati in cartelle e sottocartelle. Per altre informazioni, vedere Che cos'è una lakehouse?

  • Notebook: un notebook di Fabric è uno strumento di programmazione interattiva multi-linguaggio con funzioni avanzate. Tra cui la creazione di codice e markdown, l'esecuzione e il monitoraggio di un processo Spark, la visualizzazione e la visualizzazione dei risultati e la collaborazione con il team. Consente ai data engineer e ai data scientist di esplorare ed elaborare i dati e di creare esperimenti di Machine Learning con esperienza di codice e di basso codice. Può essere facilmente trasformato in un'attività della pipeline per l'orchestrazione.

  • Applicazione Spark: un'applicazione Apache Spark è un programma scritto da un utente usando uno dei linguaggi API di Spark (Scala, Python, Spark SQL o Java) o linguaggi aggiunti da Microsoft (.NET con C# o F#). Quando un'applicazione viene eseguita, viene suddivisa in uno o più processi Spark eseguiti in parallelo per elaborare i dati più velocemente. Per altre informazioni, vedere Monitoraggio delle applicazioni Spark.

  • Processo Apache Spark: un processo Spark fa parte di un'applicazione Spark eseguita in parallelo con altri processi nell'applicazione. Un processo è costituito da più attività. Per altre informazioni, vedere Monitoraggio dei processi Spark.

  • Definizione del processo Apache Spark: una definizione di processo Spark è un set di parametri, impostato dall'utente, che indica come deve essere eseguita un'applicazione Spark. Consente di inviare processi batch o di streaming al cluster Spark. Per altre informazioni, vedere Che cos'è una definizione di processo Apache Spark?

  • V-order: ottimizzazione della scrittura nel formato di file parquet che consente letture veloci e offre efficienza dei costi e prestazioni migliori. Per impostazione predefinita, tutti i motori Fabric scrivono file Parquet ordinati v.

Data Factory

  • Connettore: Data Factory offre un set completo di connettori che consentono di connettersi a diversi tipi di archivi dati. Dopo la connessione, è possibile trasformare i dati. Per altre informazioni, vedere Connettori.

  • Pipeline di dati: in Data Factory viene usata una pipeline di dati per orchestrare lo spostamento e la trasformazione dei dati. Queste pipeline sono diverse dalle pipeline di distribuzione in Fabric. Per altre informazioni, vedere Pipeline nella panoramica di Data Factory.

  • Flusso di dati Gen2: i flussi di dati offrono un'interfaccia a basso codice per l'inserimento di dati da centinaia di origini dati e la trasformazione dei dati. I flussi di dati in Fabric sono definiti Dataflow Gen2. Dataflow Gen1 esiste in Power BI. Dataflow Gen2 offre funzionalità aggiuntive rispetto ai flussi di dati in Azure Data Factory o Power BI. Non è possibile eseguire l'aggiornamento da Gen1 a Gen2. Per altre informazioni, vedere Flussi di dati nella panoramica di Data Factory.

  • Trigger: funzionalità di automazione in Data Factory che avvia pipeline in base a condizioni specifiche, ad esempio pianificazioni o disponibilità dei dati.

Data Science in Synapse

  • Data Wrangler: Data Wrangler è uno strumento basato su notebook che offre agli utenti un'esperienza immersiva per eseguire l'analisi esplorativa dei dati. La funzionalità combina una visualizzazione di dati simile a una griglia con statistiche di riepilogo dinamiche e un set di operazioni comuni di pulizia dei dati, tutte disponibili con alcune icone selezionate. Ogni operazione genera codice che può essere salvato di nuovo nel notebook come script riutilizzabile.

  • Esperimento: un esperimento di Machine Learning è l'unità principale dell'organizzazione e il controllo per tutte le esecuzioni di Machine Learning correlate. Per altre informazioni, vedere Esperimenti di Machine Learning in Microsoft Fabric.

  • Modello: un modello di Machine Learning è un file sottoposto a training per riconoscere determinati tipi di modelli. Si esegue il training di un modello su un set di dati e si fornisce un algoritmo usato per ragionare e apprendere da tale set di dati. Per altre informazioni, vedere Modello di Machine Learning.

  • Esecuzione: un'esecuzione corrisponde a una singola esecuzione del codice del modello. In MLflow il rilevamento si basa su esperimenti ed esecuzioni.

Data warehouse synapse

  • Endpoint di analisi SQL: ogni Lakehouse ha un endpoint di analisi SQL che consente a un utente di eseguire query sui dati della tabella differenziale con TSQL su TDS. Per altre informazioni, vedere Endpoint di analisi SQL.

  • Synapse Data Warehouse: Synapse Data Warehouse funziona come data warehouse tradizionale e supporta le funzionalità T-SQL transazionali complete previste da un data warehouse aziendale. Per altre informazioni, vedere Synapse Data Warehouse.

Intelligence in tempo reale

  • Database KQL: il database KQL contiene dati in un formato su cui è possibile eseguire query KQL. Per altre informazioni, vedere Eseguire query su un database KQL.

  • KQL Queryset: L'oggetto Queryset KQL è l'elemento usato per eseguire query, visualizzare i risultati e modificare i risultati delle query sui dati del database Esplora dati. Il set di query include i database e le tabelle, le query e i risultati. Il set di query KQL consente di salvare le query per un uso futuro o di esportare e condividere query con altri utenti. Per altre informazioni, vedere Eseguire query sui dati nel set di query KQL

  • Flusso di eventi: la funzionalità flussi di eventi di Microsoft Fabric offre una posizione centralizzata nella piattaforma Fabric per acquisire, trasformare e instradare gli eventi in tempo reale alle destinazioni senza codice. Un flusso di eventi è costituito da varie origini dati di streaming, destinazioni di inserimento e un processore di eventi quando è necessaria la trasformazione. Per altre informazioni, vedere Flussi di eventi di Microsoft Fabric.

OneLake

  • Collegamento: i collegamenti sono riferimenti incorporati all'interno di OneLake che puntano ad altri percorsi dell'archivio file. Forniscono un modo per connettersi ai dati esistenti senza doverli copiare direttamente. Per altre informazioni, vedere Collegamenti a OneLake.