Condividi tramite


Terminologia di Microsoft Fabric

Informazioni sulle definizioni dei termini usati in Microsoft Fabric, inclusi termini specifici per Synapse Data Warehouse, Synapse Ingegneria dei dati, Synapse Data Science, Intelligenza in tempo reale, Data Factory e Power BI.

Condizioni generali

  • Capacità: la capacità è un set dedicato di risorse disponibile per l'uso in un momento specifico. La capacità definisce l'abilità di una risorsa di eseguire un'attività o di produrre output. Diversi elementi usano capacità diverse in un determinato momento. Fabric offre capacità tramite lo SKU e le versioni di valutazione di Fabric. Per ulteriori informazioni, vedere Che cos'è la capacità?

  • Esperienza: una raccolta di funzionalità destinate a una funzionalità specifica. Le esperienze di Fabric includono Synapse Data Warehouse, Synapse Ingegneria dei dati, Synapse Data Science, Intelligence in tempo reale, Data Factory e Power BI.

  • Elemento: un elemento di un set di funzionalità all'interno di un'esperienza. Gli utenti possono crearli, modificarli ed eliminarli. Ogni tipo di elemento offre funzionalità diverse. Ad esempio, l'esperienza di Ingegneria dei dati include gli elementi lakehouse, notebook e definizione del processo Spark.

  • Tenant: un tenant è una singola istanza di Fabric per un'organizzazione, allineata a Microsoft Entra ID.

  • Area di lavoro: un'area di lavoro è una raccolta di elementi che riunisce diverse funzionalità in un singolo ambiente progettato per la collaborazione. Funge da contenitore che usa la capacità per il lavoro eseguito e fornisce controlli relativi a chi può accedere agli elementi. Ad esempio, in un'area di lavoro, gli utenti creano report, notebook, modelli semantici e così via. Per altre informazioni, vedere l'articolo Aree di lavoro.

Ingegneria dei dati in Synapse

  • Lakehouse: un lakehouse è una raccolta di file, cartelle e tabelle che rappresentano un database su un data lake usato dal motore Apache Spark e dal motore SQL per l'elaborazione di Big Data. Un lakehouse include funzionalità avanzate per le transazioni ACID quando si usano le tabelle con formattazione Delta open source. L'elemento lakehouse è ospitato all'interno di una cartella dell'area di lavoro univoca in Microsoft OneLake. Contiene file in vari formati (strutturati e non strutturati) organizzati in cartelle e sottocartelle. Per altre informazioni, vedere Che cos'è un lakehouse?

  • Notebook: un notebook di Fabric è uno strumento di programmazione interattiva multi-linguaggio con funzioni avanzate. Tra cui la creazione di codice e markdown, l'esecuzione e il monitoraggio di un processo Spark, la visione e la visualizzazione dei risultati e la collaborazione con il team. Consente ai data engineer e ai data scientist di esplorare ed elaborare i dati e di creare esperimenti di Machine Learning con esperienza di codice e di basso codice. Può essere facilmente trasformato in un'attività della pipeline per l'orchestrazione.

  • Applicazione Spark: un'applicazione Apache Spark è un programma scritto da un utente usando uno dei linguaggi API di Spark (Scala, Python, Spark SQL o Java) o linguaggi aggiunti da Microsoft (.NET con C# o F#). Quando un'applicazione viene eseguita, viene suddivisa in uno o più processi Spark eseguiti in parallelo per elaborare i dati più velocemente. Per ulteriori informazioni, vedere Monitoraggio delle applicazioni Spark.

  • Processo Apache Spark: un processo Spark fa parte di un'applicazione Spark eseguita in parallelo con altri processi nell'applicazione. Un processo è costituito da più attività. Per ulteriori informazioni, vedere Monitoraggio del processo di Spark.

  • Definizione del processo Apache Spark: una definizione di processo Spark è un set di parametri, impostato dall'utente, che indica come deve essere eseguita un'applicazione Spark. Consente di inviare processi batch o di streaming al cluster Spark. Per altre informazioni, vedere Che cos'è una definizione di processo Apache Spark?

  • V-order: ottimizzazione della scrittura nel formato di file parquet che consente letture veloci e offre efficienza dei costi e prestazioni migliori. Per impostazione predefinita, tutti i motori Fabric scrivono file Parquet ordinati v.

Data Factory

  • Connettore: Data Factory offre un set completo di connettori che consentono di connettersi a diversi tipi di archivi dati. Una volta connessi, è possibile trasformare i dati. Per altre informazioni, vedere i connettori.

  • Pipeline di dati: in Data Factory viene usata una pipeline di dati per orchestrare lo spostamento e la trasformazione dei dati. Queste pipeline sono diverse dalle pipeline di distribuzione in Fabric. Per altre informazioni, vedere Pipeline nella panoramica di Data Factory.

  • Flusso di dati Gen2: i flussi di dati offrono un'interfaccia a basso codice per l'inserimento di dati da centinaia di origini dati e la trasformazione dei dati. I flussi di dati in Fabric sono definiti Dataflow Gen2. Dataflow Gen1 esiste in Power BI. Dataflow Gen2 offre funzionalità aggiuntive rispetto ai flussi di dati in Azure Data Factory o Power BI. Non è possibile eseguire l'aggiornamento da Gen1 a Gen2. Per altre informazioni, vedere Flussi di dati nella panoramica di Data Factory.

  • Trigger: funzionalità di automazione in Data Factory che avvia pipeline in base a condizioni specifiche, ad esempio pianificazioni o disponibilità dei dati.

Data Science in Synapse

  • Data Wrangler: Data Wrangler è uno strumento basato su notebook che offre agli utenti un'esperienza immersiva per eseguire l'analisi esplorativa dei dati. La funzionalità combina una visualizzazione di dati simile a una griglia con statistiche di riepilogo dinamiche e un set di operazioni comuni di pulizia dei dati, tutte disponibili con alcune icone selezionate. Ogni operazione genera codice che può essere salvato nel notebook come script riutilizzabile.

  • Esperimento: un esperimento di Machine Learning è l'unità principale dell'organizzazione e il controllo per tutte le esecuzioni di Machine Learning correlate. Per altre informazioni, vedere Esperimenti i di Machine Learning con PREDICT in Microsoft Fabric.

  • Modello: Un modello di Machine Learning è un file sottoposto a training per il riconoscimento di determinati tipi di criteri. Si esegue il training di un modello su un insieme di dati e gli si fornisce un algoritmo che utilizza per ragionare e imparare da quell'insieme di dati. Per altre informazioni, vedere Modello di Machine Learning.

  • Esecuzione: un'esecuzione corrisponde a una singola esecuzione del codice del modello. In MLflow, il rilevamento si basa su esperimenti ed esecuzioni.

Data Warehouse in Synapse

  • Endpoint di analisi SQL: ogni Lakehouse ha un endpoint di analisi SQL che consente a un utente di eseguire query sui dati della tabella differenziale con TSQL su TDS. Per altre informazioni, vedere Endpoint di Analisi SQL.

  • Synapse Data Warehouse: Synapse Data Warehouse funziona come un data warehouse tradizionale e supporta tutte le funzionalità transazionali T-SQL che ci si aspetta da un data warehouse aziendale. Per altre informazioni, vedere Synapse Data Warehouse.

Intelligence in tempo reale

  • Database KQL: il database KQL contiene dati in un formato su cui è possibile eseguire query KQL. Per altre informazioni, vedere Query di un database KQL.

  • Set di query KQL: il set di query KQL è un elemento usato per eseguire query, visualizzare e modificare i risultati delle query sui dati del database Esplora dati. Il set di query include i database e le tabelle, le query e i risultati. Il set di query KQL consente di salvare le query per un uso futuro o di esportare e condividere query con altri utenti. Per altre informazioni, vedere Eseguire query sui dati nel set di query KQL.

  • Flusso di eventi: la funzionalità flussi di eventi di Microsoft Fabric offre una posizione centralizzata nella piattaforma Fabric per acquisire, trasformare e instradare gli eventi in tempo reale alle destinazioni senza codice. Un flusso di eventi è costituito da varie origini dati di streaming, destinazioni di inserimento e un processore di eventi quando è necessaria la trasformazione. Per altre informazioni, vedere Flussi di eventi Microsoft Fabric.

OneLake

  • Collegamento: i collegamenti sono riferimenti incorporati all'interno di OneLake che puntano ad altri percorsi dell'archivio file. Forniscono un modo per connettersi ai dati esistenti senza doverli copiare direttamente. Per ulteriori informazioni, vedere Collegamenti di OneLake.