Anteprima code-first di AutoML |
In Data Science di Fabric la nuova funzionalità AutoML consente l'automazione del flusso di lavoro di Machine Learning. AutoML o Machine Learning automatizzato è un set di tecniche e strumenti che possono eseguire automaticamente il training e l'ottimizzazione dei modelli di Machine Learning per qualsiasi tipo di dati e attività. |
Esperienza utente a basso codice autoML in Fabric (anteprima) |
AutoML, o Machine Learning automatizzato, è un processo che automatizza le attività complesse e dispendiose in termini di tempo per lo sviluppo di modelli di Machine Learning. La nuova esperienza AutoML a basso codice supporta un'ampia gamma di attività, tra cui regressione, previsione, classificazione e classificazione multiclasse. Per iniziare, creare modelli con Machine Learning automatizzato (anteprima). |
Elemento di Azure Data Factory |
È ora possibile trasferire l'istanza esistente di Azure Data Factory (ADF) nell'area di lavoro infrastruttura. Questa nuova funzionalità di anteprima consente di connettersi ad Azure Data Factory esistente dall'area di lavoro infrastruttura. Selezionare "Crea Azure Data Factory" all'interno dell'area di lavoro Di Fabric Data Factory ed è possibile gestire le data factory di Azure direttamente dall'area di lavoro Infrastruttura. |
Anteprima dei pool di capacità |
Gli amministratori delle capacità possono ora creare pool personalizzati (anteprima) in base ai requisiti del carico di lavoro, fornendo un controllo granulare sulle risorse di calcolo. I pool personalizzati per ingegneria dei dati e data science possono essere impostati come opzioni del pool di Spark nelle impostazioni Spark dell’area di lavoro e negli elementi dell'ambiente. |
Anteprima dell'ottimizzazione degli iperparametri Code-First |
In Data Science di Fabric FLAML è ora integrato per l'ottimizzazione degli iperparametri, attualmente una funzionalità di anteprima. La funzionalità flaml.tune di Fabric semplifica questo processo, offrendo un approccio conveniente ed efficiente all'ottimizzazione degli iperparametri. |
Copilot in Fabric è disponibile in tutto il mondo |
Copilot in Fabric è ora disponibile per tutti i clienti, tra cui Copilot per Power BI, Data Factory, Data Science e ingegneria dei dati e Intelligence in tempo reale. Per altre informazioni, vedere la panoramica su Copilot in Fabric. |
Copia processo |
Il processo di copia (anteprima) presenta vantaggi rispetto al attività Copy legacy. Per altre informazioni, vedere Annuncio dell'anteprima: Copia processo in Microsoft Fabric. Per un'esercitazione, vedere Informazioni su come creare un processo di copia (anteprima) in Data Factory per Microsoft Fabric. |
Anteprima dei processi Apache Airflow di Data Factory |
Il processo Apache Airflow (anteprima) in Data Factory, basato su Apache Airflow, offre un'esperienza di creazione, pianificazione e monitoraggio senza problemi per i processi di dati basati su Python definiti come grafici Aciclici diretti (DAG). Per altre informazioni, vedere Avvio rapido: Creare un flusso di lavoro dati. |
Funzionalità della pipeline di dati in Copilot per Data Factory (anteprima) |
Le nuove funzionalità della pipeline di dati in Copilot per Data Factory sono ora disponibili in anteprima. Queste funzionalità funzionano come esperti di intelligenza artificiale per aiutare gli utenti a creare, risolvere i problemi e gestire le pipeline di dati. |
Anteprima di Data Wrangler per i DataFrame Spark |
Data Wrangler supporta ora i DataFrame Spark in anteprima, gli utenti ora possono modificare i DataFrame Spark oltre ai DataFrame pandas con Data Wrangler. |
Competenza IA data science (anteprima) |
Ora è possibile creare esperienze di IA generativa sui dati in Fabric con la competenza di intelligenza artificiale (anteprima)! È possibile creare sistemi IA di domande e risposte su lakehouse e warehouse. Per altre informazioni, vedere Introduzione alle competenze di intelligenza artificiale in Microsoft Fabric: ora in anteprima. Per iniziare, provare l'esempio relativo alla competenza IA con il set di dati AdventureWorks. |
Flusso di dati Gen2 con integrazione CI/CD e Git |
Dataflow Gen2 supporta ora l'integrazione continua/distribuzione continua (CI/CD) e l'integrazione Git. Questa funzionalità di anteprima consente di creare, modificare e gestire flussi di dati in un repository Git connesso all'area di lavoro infrastruttura. È anche possibile usare la funzionalità pipeline di distribuzione per automatizzare la distribuzione dei flussi di dati dall'area di lavoro ad altre aree di lavoro. È anche possibile usare l'API CREATE, Read, Update, Delete e List (CRUDL) di Fabric Create, Read, Update, And List (CRUDL) per gestire Dataflow Gen2. |
Mapping delle colonne delta nell'endpoint di analisi SQL |
L'endpoint di analisi SQL supporta ora tabelle Delta con mapping di colonne abilitato. Per altre informazioni, vedere Mapping delle colonne Delta e Limitazioni dell'endpoint di analisi SQL. Questa funzionalità è attualmente disponibile solo in anteprima. |
Domini in OneLake (anteprima) |
I domini in OneLake permettono di organizzare i dati in una mesh di dati logica, consentendo la governance federata e l'ottimizzazione per le esigenze aziendali. È ora possibile creare sottodomini, domini predefiniti per gli utenti e spostare le aree di lavoro tra domini. Per altre informazioni, vedere Domini Fabric. |
Modalità di concorrenza elevata per notebook in pipeline (anteprima) |
La modalità di concorrenza elevata per notebook in Pipeline consente agli utenti di condividere sessioni Spark tra più notebook all'interno di una pipeline. Con la modalità di concorrenza elevata, gli utenti possono attivare processi di pipeline e questi processi vengono automaticamente compressi in sessioni di concorrenza elevata esistenti. |
Il gateway di Fabric consente collegamenti di OneLake ai dati locali |
Connettersi alle origini dati locali con un gateway dati locale di Fabric in un computer nell'ambiente, con visibilità di rete dell'origine dati compatibile con S3 o Google Cloud Storage. Creare quindi il collegamento e selezionare il gateway. Per altre informazioni, vedere Creare collegamenti ai dati locali. |
Connettore Spark Fabric per Data Warehouse Fabric nel runtime Spark (anteprima) |
Il connettore Di Fabric Spark per Data Warehouse (anteprima) consente a uno sviluppatore Spark o a un data scientist di accedere e lavorare sui dati da un endpoint di analisi sql o di un warehouse del lakehouse (dall'interno della stessa area di lavoro o da più aree di lavoro) con un'API Spark semplificata. |
Fabric Spark Diagnostic Emitter (anteprima) |
L'emettitore di diagnostica Apache Spark di Infrastruttura (anteprima) consente agli utenti di Apache Spark di raccogliere log, log eventi e metriche dalle applicazioni Spark e inviarli a varie destinazioni, tra cui Hub eventi di Azure, Archiviazione di Azure e Azure Log Analytics. |
Database SQL dell'infrastruttura (anteprima) |
Il database SQL in Microsoft Fabric (anteprima) è un database transazionale descrittivo per gli sviluppatori, basato su database SQL di Azure, che consente di creare facilmente il database operativo in Fabric. Un database SQL in Fabric usa il motore di database SQL come database SQL di Azure. Esaminare una Guida decisionale per i database SQL. |
Anteprima della cartella nell'area di lavoro |
Come unità organizzativa nell'area di lavoro, la cartella risolve questa criticità fornendo una struttura gerarchica per organizzare e gestire gli elementi. Per altre informazioni, vedere Creare cartelle nelle aree di lavoro (anteprima). |
Dati iceberg in OneLake con Snowflake e collegamenti (anteprima) |
È ora possibile utilizzare dati in formato Iceberg in Microsoft Fabric senza spostamento o duplicazione dei dati, oltre a Snowflake ha aggiunto la possibilità di scrivere tabelle Iceberg direttamente in OneLake. Per altre informazioni, vedere Usare tabelle Iceberg con OneLake. |
Aggiornamento incrementale per Dataflow Gen2 (anteprima) |
L'aggiornamento incrementale per Dataflows Gen2 in Fabric Data Factory è progettato per ottimizzare l'inserimento e la trasformazione dei dati, in particolare quando i dati continuano ad espandersi. Per altre informazioni, vedere Annuncio dell'anteprima: Aggiornamento incrementale in Dataflow Gen2. |
Richiamare la pipeline remota (anteprima) nella pipeline di dati |
È ora possibile usare l'attività Invoke Pipeline (anteprima) per chiamare le pipeline da pipeline di Azure Data Factory o Synapse Analytics. Questa funzionalità consente di usare le pipeline di ADF o Synapse esistenti all'interno di una pipeline di Fabric chiamandola inline tramite questa nuova attività Invoke Pipeline. |
Funzionalità Schemi Lakehouse |
La funzionalità Schemi Lakehouse (anteprima) introduce il supporto della pipeline di dati per la lettura delle informazioni sullo schema dalle tabelle Lakehouse e supporta la scrittura di dati in tabelle con schemi specificati. Gli schemi Lakehouse consentono di raggruppare le tabelle per migliorare l'individuazione dei dati, il controllo di accesso e altro ancora. |
Supporto di Lakehouse per le pipeline di integrazione e distribuzione Git (anteprima) |
Il lakehouse ora si integra con le funzionalità di gestione del ciclo di vita in Microsoft Fabric, offrendo una collaborazione standardizzata tra tutti i membri del team di sviluppo durante tutta la vita del prodotto. La gestione del ciclo di vita facilita un processo efficace di controllo delle versioni e rilascio dei prodotti offrendo continuamente funzionalità e correzioni di bug in più ambienti. |
Reti virtuali gestite (anteprima) |
Le reti virtuali gestite sono reti virtuali create e gestite da Microsoft Fabric per ogni area di lavoro Fabric. |
Il connettore Microsoft 365 supporta ora l'inserimento di dati in Lakehouse (anteprima) |
Il connettore Microsoft 365 supporta ora l'inserimento di dati nelle tabelle Lakehouse. |
API di amministrazione di Microsoft Fabric |
Le API di amministrazione di Fabric sono progettate per semplificare le attività amministrative. Il set iniziale di API di amministrazione di Fabric è personalizzato per semplificare l'individuazione di aree di lavoro, gli elementi Fabric e i dettagli di accesso degli utenti. |
Anteprima del mirroring in Microsoft Fabric |
Con il mirroring del database in Fabric, è possibile inserire facilmente i database in OneLake in Microsoft Fabric, abilitando zero-ETL senza problemi, informazioni dettagliate quasi in tempo reale sui dati e sblocco di warehousing, BI, intelligenza artificiale e altro ancora. Per altre informazioni, vedere Cos’è il mirroring in Fabric?. |
Motore di esecuzione nativo in runtime 1.3 (anteprima) |
Il motore di esecuzione nativo per Fabric Runtime 1.3 è ora disponibile in anteprima, offrendo prestazioni di query superiori nell'elaborazione dei dati, ETL, data science e query interattive. Non sono necessarie modifiche al codice per velocizzare l'esecuzione dei processi Apache Spark quando si usa il motore di esecuzione nativo. |
Espressioni di tabella comuni annidate (CTEs) (anteprima) |
Fabric Warehouse e endpoint di analisi SQL supportano entrambi gli endpoint standard, sequenziali e annidati. Sebbene le CTE siano disponibili a livello generale in Microsoft Fabric, le espressioni di tabella comuni annidate (CTE) nel data warehouse di Fabric sono attualmente una funzionalità di anteprima. |
Debug del notebook all'interno di vscode.dev (anteprima) |
È ora possibile inserire punti di interruzione ed eseguire il debug del codice del notebook con l'estensione Synapse VS Code - Remote in vscode.dev. Questo aggiornamento inizia prima con Fabric Runtime 1.3. |
Ruoli di accesso ai dati OneLake |
I ruoli di accesso ai dati di OneLake per lakehouse sono in anteprima. Le autorizzazioni dei ruoli e le assegnazioni di utenti/gruppi possono essere facilmente aggiornate tramite una nuova interfaccia utente per la sicurezza delle cartelle. |
OneLake SAS (anteprima) |
Il supporto per la firma di accesso condiviso OneLake delegata dall'utente è ora disponibile in anteprima. Questa funzionalità consente alle applicazioni di richiedere una chiave di delega utente supportata da Microsoft Entra ID e quindi usare questa chiave per costruire un token di firma di accesso condiviso Di OneLake. Questo token può essere consegnato per fornire l'accesso delegato a un altro strumento, nodo o utente, garantendo l'accesso sicuro e controllato. |
Aprire il mirroring (anteprima) |
Il mirroring aperto consente a qualsiasi applicazione di scrivere i dati delle modifiche direttamente in un database con mirroring in Fabric, in base alle API pubbliche e all'approccio open mirroring. Il mirroring aperto è progettato per essere estendibile, personalizzabile e aperto. Si tratta di una funzionalità potente che estende il mirroring in Fabric in base al formato di tabella Delta Lake aperto. Per iniziare, vedere Esercitazione: Configurare database con mirroring aperti di Microsoft Fabric. |
Anteprima Servizi di Azure AI predefiniti in Fabric |
L'anteprima dei servizi di intelligenza artificiale predefiniti in Fabric è un'integrazione con i Servizi di Azure AI, in precedenza noti come Servizi cognitivi di Azure. I Servizi di Azure AI predefiniti consentono di migliorare con facilità i dati con modelli di intelligenza artificiale predefiniti senza prerequisiti. Attualmente, i servizi di intelligenza artificiale predefiniti sono in anteprima e includono il supporto per il servizio OpenAI di Microsoft Azure, Lingua di Azure AI e Traduttore per Azure AI. |
I criteri di prevenzione della perdita dei dati di Purview sono stati estesi ai lakehouse di Fabric |
L'estensione dei criteri di prevenzione della perdita dei dati (DLP) di Microsoft Purview in Fabric lakehouses è ora disponibile in anteprima. |
I criteri di prevenzione della perdita dei dati di Purview supportano ora l'azione limita l'accesso per i modelli semantici |
La limitazione dell'accesso in base al contenuto sensibile per i modelli semantici, ora in anteprima, consente di rilevare automaticamente le informazioni riservate durante il caricamento in lakehouse e modelli semantici di Fabric. |
Dashboard in tempo reale e i database KQL sottostanti accedono alla separazione (anteprima) |
Con autorizzazioni separate per i dashboard e i dati sottostanti, gli amministratori hanno ora la flessibilità necessaria per consentire agli utenti di visualizzare i dashboard senza concedere l'accesso ai dati non elaborati. |
Riservare core massimi per i processi (anteprima) |
Una nuova impostazione a livello di area di lavoro consente di riservare core massimi per i processi attivi per i carichi di lavoro Spark. Per altre informazioni, vedere Modalità di concorrenza elevata in Apache Spark per Fabric. |
Anteprima API REST per le pipeline di Data Factory di Fabric |
Le API REST per le pipeline di Data Factory di Fabric sono ora disponibili in anteprima. Le API REST per le pipeline di Data Factory consentono di estendere la funzionalità predefinita di Fabric con cui creare, leggere, aggiornare, eliminare ed elencare le pipeline. |
Proteggere lo streaming di dati con endpoint privati gestiti in Eventstream (anteprima) |
Creando un endpoint privato gestito dell'infrastruttura, è ora possibile connettere in modo sicuro Eventstream ai servizi di Azure, ad esempio Hub eventi di Azure o hub IoT, all'interno di una rete privata o dietro un firewall. Per altre informazioni, vedere Proteggere lo streaming di dati con endpoint privati gestiti in Eventstream (anteprima).For more information, see Secure Data Streaming with Managed Private Endpoints in Eventstream (Preview). |
Attività di aggiornamento del modello semantico (anteprima) |
Usare l'attività di aggiornamento del modello semantico per aggiornare un set di dati di Power BI (anteprima), il modo più efficace per aggiornare i modelli semantici di Fabric. |
Controllo scadenza sessione nelle impostazioni dell'area di lavoro per le esecuzioni interattive del notebook (anteprima) |
Un nuovo controllo di scadenza della sessione nelle impostazioni Ingegneria dei dati/Area di lavoro per l'analisi scientifica consente di impostare il limite massimo di scadenza per le sessioni interattive del notebook. Per impostazione predefinita, le sessioni scadono dopo 20 minuti, ma è ora possibile personalizzare la durata massima di scadenza. |
Funzionalità di condivisione per la competenza di intelligenza artificiale infrastruttura (anteprima) |
La funzionalità "Condividi" per la competenza infrastruttura di intelligenza artificiale (anteprima) consente di condividere la competenza di intelligenza artificiale con altri utenti usando un'ampia gamma di modelli di autorizzazione. |
Condividere la competenza infrastruttura per intelligenza artificiale (anteprima) |
La funzionalità di condivisione per la competenza infrastruttura di intelligenza artificiale (anteprima) consente di condividere la competenza di intelligenza artificiale con altri utenti usando un'ampia gamma di modelli di autorizzazione. |
Anteprima Analisi delle serie di esecuzione Spark |
Le funzionalità di analisi delle serie di esecuzione di monitoraggio Spark consentono di analizzare la tendenza della durata dell'esecuzione e il confronto delle prestazioni per le istanze di esecuzione ricorrenti dell'attività Spark pipeline e le attività di esecuzione ripetitive di Spark, dallo stesso notebook o dalla definizione del processo Spark. |
Anteprima del componente aggiuntivo Splunk |
Il componente aggiuntivo Microsoft Fabric per Splunk consente agli utenti di inserire log della piattaforma Splunk in un database KQL di Fabric usando l'SDK per Python Kusto. |
Tag |
I tag (anteprima) consentono agli amministratori di classificare e organizzare i dati, migliorando la ricerca dei dati e aumentando i tassi di successo e l'efficienza per gli utenti finali. |
Flussi di attività in Microsoft Fabric (anteprima) |
L'anteprima dei flussi di attività in Microsoft Fabric è abilitata per tutti gli utenti di Microsoft Fabric. Con i flussi di attività Fabric, quando si progetta un progetto dati, non è più necessario usare un Whiteboard per tracciare le diverse parti del progetto e le relative relazioni. È invece possibile usare un flusso di attività per compilare e inserire queste informazioni chiave nel progetto stesso. |
Supporto di varchar(max) e varbinary(max) in anteprima |
Il supporto per i tipi di dati varchar(max) e varbinary(max) in Warehouse è ora in anteprima. Per altre informazioni, vedere Annuncio dell'anteprima pubblica dei tipi VARCHAR(MAX) e VARBINARY(MAX) in Fabric Data Warehouse. |
Provider Terraform per Fabric (anteprima) |
Il provider Terraform per Microsoft Fabric è ora disponibile in anteprima. Il provider Terraform per Microsoft Fabric supporta la creazione e la gestione di molte risorse di Fabric. Per altre informazioni, vedere Annuncio del nuovo provider Terraform per Microsoft Fabric. |
Supporto T-SQL nei notebook di Fabric (anteprima) |
La funzionalità notebook T-SQL in Microsoft Fabric (anteprima) consente di scrivere ed eseguire codice T-SQL all'interno di un notebook. È possibile usarli per gestire query complesse e scrivere una documentazione markdown migliore. Consente anche l'esecuzione diretta di T-SQL nel warehouse connesso o nell'endpoint di analisi SQL. Per altre informazioni, vedere Creare ed eseguire notebook T-SQL. |
Punti di ripristino warehouse e ripristino sul posto |
È ora possibile creare punti di ripristino ed eseguire un ripristino sul posto di un warehouse a un determinato punto nel passato. Il ripristino sul posto è una parte essenziale del ripristino del data warehouse, e consente di ripristinare il data warehouse in uno stato affidabile e noto precedente sostituendo o sovrascriendo il data warehouse esistente da cui è stato creato il punto di ripristino. |
Controllo del codice sorgente del warehouse (anteprima) |
Usando l’integrazione Git e/o le pipeline di distribuzione con il warehouse, è possibile gestire lo sviluppo e la distribuzione di oggetti warehouse con controllo delle versioni. È possibile usare l'estensione progetti di database SQL disponibile in Azure Data Studio e Visual Studio Code. Per altre informazioni sul controllo del codice sorgente del warehouse, vedere CI/CD con warehouse in Microsoft Fabric. |