AutoML-Codevorschau |
In Fabric Data Science ermöglicht das neue AutoML-Feature die Automatisierung Ihres maschinellen Lernworkflows. AutoML oder automatisiertes Maschinelles Lernen ist eine Reihe von Techniken und Tools, die automatisch Machine Learning-Modelle für bestimmte Daten und Aufgabentypen trainieren und optimieren können. |
Benutzerfreundlichkeit von AutoML mit geringem Code in Fabric (Vorschau) |
AutoML oder Automated Machine Learning ist ein Prozess, der die zeitaufwendigen und komplexen Aufgaben der Entwicklung von Machine Learning-Modellen automatisiert. Die neue AutoML-Erfahrung mit geringem Code unterstützt eine Vielzahl von Aufgaben, einschließlich Regression, Prognose, Klassifizierung und Mehrklassenklassifizierung. Erstellen Sie zunächst Modelle mit Automatisiertem ML (Vorschau). |
Azure Data Factory-Element |
Sie können jetzt Ihre vorhandene Azure Data Factory (ADF) in Ihren Fabric-Arbeitsbereich übertragen. Mit dieser neuen Vorschaufunktion können Sie über Ihren Fabric-Arbeitsbereich eine Verbindung mit Ihrer vorhandenen Azure Data Factory herstellen. Wählen Sie im Fabric Data Factory-Arbeitsbereich „Azure Data Factory erstellen“ aus, und Sie können Ihre Azure-Datenfabriken direkt über den Fabric-Arbeitsbereich verwalten. |
Vorschau für Kapazitätspools |
Kapazitätsadministratoren können jetzt benutzerdefinierte Pools (Vorschau) basierend auf ihren Workloadanforderungen erstellen und so eine differenzierte Kontrolle über Computeressourcen ermöglichen. Benutzerdefinierte Pools für Datentechnik und Data Science können als Spark Pool-Optionen in den Spark-Einstellungen des Arbeitsbereichs und in Umgebungselementen festgelegt werden. |
Code-First Hyperparameter Optimierung Vorschau |
In Fabric Data Science ist FLAML jetzt für die Hyperparameteroptimierung integriert, derzeit eine Previewfunktion. Das flaml.tune Feature von Fabric optimiert diesen Prozess und bietet einen kostengünstigen und effizienten Ansatz für die Hyperparameteroptimierung. |
Copilot in Fabric ist weltweit verfügbar |
Copilot in Fabric ist jetzt verfügbar für alle Kunden, einschließlich Copilot für Power BI, Data Factory, Data Science & Datentechnik und Echtzeitintelligenz. Lesen Sie mehr in unserer Übersicht über Copilot in Fabric. |
Kopierauftrag |
Der Kopierauftrag (Vorschau) hat Vorteile gegenüber der Legacy-Copy-Aktivität. Weitere Informationen finden Sie unter Ankündigung der Vorschau: Copy Job in Microsoft Fabric. Ein Tutorial finden Sie unter Informationen zum Erstellen eines Kopierauftrags (Vorschau) in Data Factory für Microsoft Fabric. |
Vorschau von Data Factory Apache Airflow-Aufträgen |
Apache Airflow-Auftrag (Vorschau) in Data Factory, unterstützt von Apache Airflow, bietet nahtlose Berichterstellungs-, Planungs- und Überwachungserfahrungen für Python-basierte Datenprozesse, die als „Directed Acyclic Graphs“ (DAGs) definiert sind. Weitere Informationen finden Sie unter Schnellstart: Erstellen eines Datenworkflows. |
Datenpipelinefunktionen in Copilot für Data Factory (Vorschau) |
Die neuen Datenpipelinefunktionen in Copilot für Data Factory sind jetzt in der Vorschau verfügbar. Diese Features dienen als KI-Experte, um Benutzern bei der Erstellung, Problembehandlung und Wartung von Datenpipelines zu helfen. |
Data Wrangler für Spark-Datenrahmen (Vorschau) |
Data Wrangler unterstützt ab sofort Spark DataFrames in der Vorschau, zudem können Benutzer jetzt Spark DataFrames zusätzlich zu Pandas DataFrames mit Data Wrangler bearbeiten. |
KI-Kenntnisse in Data Science (Vorschau) |
Sie können jetzt ihre eigenen generativen KI-Erfahrungen über Ihre Daten in Fabric mit KI-Skill (Vorschau) erstellen! Sie können KI-Systeme über Ihre Lakehouses und Warehouses bauen, die Fragen erstellen und beantworten. Weitere Informationen finden Sie unter Einführung von KI-Fähigkeiten in Microsoft Fabric: Jetzt in der Vorschau. Probieren Sie zunächst ein Beispiel für KI-Skill mit dem AdventureWorks-Dataset aus. |
Dataflow Gen2 mit CI/CD- und Git-Integration |
Dataflow Gen2 unterstützt jetzt Continuous Integration/Continuous Deployment (CI/CD) und Git-Integration. Mit dieser Previewfunktion können Sie Datenflüsse in einem Git-Repository erstellen, bearbeiten und verwalten, das mit Ihrem Fabric-Arbeitsbereich verbunden ist. Darüber hinaus können Sie das Bereitstellungspipelinefeature verwenden, um die Bereitstellung von Datenflüssen von Ihrem Arbeitsbereich zu anderen Arbeitsbereichen zu automatisieren. Außerdem können Sie die FABRIC Create-, Read-, Update-, Delete- und List-API (CRUDL) verwenden, um Dataflow Gen2 zu verwalten. |
Delta-Spaltenzuordnung im SQL-Analyseendpunkt |
SQL Analytics-Endpunkt unterstützt jetzt Delta-Tabellen mit aktivierter Spaltenzuordnung. Weitere Informationen finden Sie unter Delta-Spaltenzuordnung und Einschränkungen des SQL-Analyseendpunkts. Diese Funktion befindet sich derzeit in der Vorschau. |
Domänen in OneLake (Vorschau) |
Domänen in OneLake helfen Ihnen, Ihre Daten in einem logischen Datengitter zu organisieren, sodass Verbundgovernance und Optimierung im Einklang mit den geschäftlichen Anforderungen ermöglicht werden. Sie haben ab sofort die Möglichkeit, Unterdomänen und Standarddomänen für Benutzer’innen zu erstellen und Arbeitsbereiche zwischen Domänen zu verschieben. Weitere Informationen finden Sie unter Fabric-Domänen. |
Der Modus für hohe Parallelität für Notebooks in Pipelines (Vorschau) |
Der Modus für hohe Parallelität für Notebooks in Pipelines ermöglicht Benutzern das Freigeben von Spark-Sitzungen an mehrere Notebooks in einer Pipeline. Mit dem Modus für hohe Parallelität können Benutzer Pipelineaufträge auslösen und diese Aufträge werden automatisch in vorhandene Sitzungen mit hoher Parallelität verpackt. |
Fabric-Gateway ermöglicht OneLake-Verknüpfungen mit lokalen Daten |
Stellen Sie eine Verbindung mit lokalen Datenquellen über ein lokales Fabric-Datengateway auf einem Computer in Ihrer Umgebung her, mit Netzwerksichtbarkeit Ihrer S3-kompatiblen Datenquelle oder der Google Cloud Storage-Datenquelle. Erstellen Sie dann Ihre Verknüpfung und wählen Sie dieses Gateway aus. Weitere Informationen finden Sie unter Erstellen von Verknüpfungen zu lokalen Daten. |
Fabric Spark-Connector für Fabric Data Warehouse in Spark Runtime (Vorschau) |
Über den Fabric Spark-Connector für Data Warehouse (Vorschau) können Spark-Entwickler oder Data Scientists mit einer vereinfachten Spark-API auf Daten von einem Warehouse oder SQL-Analyseendpunkt des Lakehouse (entweder aus demselben Arbeitsbereich oder über Arbeitsbereiche hinweg) zugreifen und damit arbeiten. |
Fabric Spark Diagnostic Emitter (Vorschau) |
Mit dem Fabric Apache Spark Diagnostic Emitter (Vorschau) können Apache Spark-Benutzer Protokolle, Ereignisprotokolle und Metriken aus ihren Spark-Anwendungen sammeln und an verschiedene Ziele senden, einschließlich Azure Event Hubs, Azure Storage und Azure Log Analytics. |
Fabric SQL-Datenbank (Vorschau) |
Die SQL-Datenbank in Microsoft Fabric (Preview) ist eine entwicklerfreundliche Transaktionsdatenbank, die auf Azure SQL-Datenbank basiert, mit der Sie Ihre betriebsbereite Datenbank in Fabric problemlos erstellen können. Eine SQL-Datenbank in Fabric verwendet das SQL-Datenbankmodul als Azure SQL-Datenbank. Überprüfen Sie einen Entscheidungsleitfaden für SQL-Datenbanken. |
Ordner in Arbeitsbereichsvorschau |
Als Organisationseinheit im Arbeitsbereich adressiert der Ordner diesen Schmerzpunkt, indem eine hierarchische Struktur zum Organisieren und Verwalten Ihrer Elemente bereitgestellt wird. Weitere Informationen finden Sie unter Erstellen von Arbeitsbereichen im Portal (Vorschau). |
Iceberg-Daten in OneLake mit Snowflake und Tastenkombinationen (Vorschau) |
Sie können jetzt Iceberg-formatierte Daten in Microsoft Fabric ohne Datenverschiebung oder Duplizierung nutzen. Außerdem hat Snowflake hat die Möglichkeit hinzugefügt, Iceberg-Tabellen direkt in OneLake zu schreiben. Weitere Informationen finden Sie unter Verwenden von Iceberg-Tabellen in OneLake. |
Inkrementelle Aktualisierung für Dataflow Gen2 (Vorschau) |
Die inkrementelle Aktualisierung für Dataflows Gen2 in Fabric Data Factory wurde entwickelt, um die Datenerfassung und -transformation zu optimieren, insbesondere, wenn Ihre Daten weiter wachsen. Weitere Informationen finden Sie unter Ankündigung der Vorschau: Inkrementelle Aktualisierung in Dataflow Gen2. |
Aufrufen der Remotepipeline (Vorschau) in der Datenpipeline |
Sie können jetzt die Aktivität Invoke Pipeline (Vorschau) verwenden, um Pipelines aus Azure Data Factory oder Synapse Analytics-Pipelines aufzurufen. Mit diesem Feature können Sie Ihre vorhandenen ADF- oder Synapse-Pipelines innerhalb einer Fabric-Pipeline verwenden, indem Sie sie inline über diese neue Invoke Pipeline-Aktivität aufrufen. |
Lakehouse-Schemafeature |
Das Lakehouse-Schemafeature (Vorschau) führt die Unterstützung der Datenpipeline zum Lesen der Schemainformationen aus Lakehouse-Tabellen ein und unterstützt das Schreiben von Daten in Tabellen unter angegebenen Schemata. Mit Lakehouse-Schemata können Sie Tabellen gruppieren, um u. a. die Datenerkennung und die Zugriffskontrolle zu verbessern. |
Lakehouse-Unterstützung von Git-Integration und Bereitstellungspipelines (Vorschau) |
Das Lakehouse kann jetzt in die Funktionen zur Lebenszyklusverwaltung in Microsoft Fabric integriert werden und ermöglicht so während der gesamten Lebensdauer des Produkts eine standardisierte Zusammenarbeit zwischen allen Mitgliedern des Entwicklungsteams. Die Lebenszyklusverwaltung ermöglicht durch die kontinuierliche Bereitstellung von Features und Fehlerbehebungen in mehreren Umgebungen einen effektiven Prozess für die Versionsverwaltung und Freigabe von Produkten. |
Verwaltete virtuelle Netzwerke (Vorschau) |
Verwaltete virtuelle Netzwerke sind virtuelle Netzwerke, die von Microsoft Fabric für jeden Fabric-Arbeitsbereich erstellt und verwaltet werden. |
Microsoft 365-Connector unterstützt jetzt das Erfassen von Daten in Lakehouse (Vorschau) |
Der Microsoft 365-Connector unterstützt jetzt das Erfassen von Daten in Lakehouse-Tabellen. |
Microsoft Fabric-Administrator-APIs |
Fabric Admin-APIs sind so konzipiert, dass administrative Aufgaben optimiert werden. Die anfängliche Gruppe von Fabric Admin-APIs ist so ausgelegt, dass die Ermittlung von Arbeitsbereichen, Fabric-Elementen und Benutzerzugriffsdetails vereinfacht wird. |
Spiegelung in der Vorschau von Microsoft Fabric |
Mit der Datenbankspiegelung in Fabric können Sie Ihre Datenbanken ganz einfach in OneLake in Microsoft Fabric einbinden und so nahtlose Zero-ETL, nahezu Echtzeit-Einblicke in Ihre Daten ermöglichen – und Warehousing, BI, KI und vieles mehr freischalten. Weitere Informationen finden Sie unter Was ist Spiegelung in Microsoft Fabric? |
Native Execution Engine für Runtime 1.3 (Vorschau) |
Native Execution Engine für Fabric Runtime 1.3 ist jetzt in der Vorschau verfügbar und bietet eine überlegene Abfrageleistung für Datenverarbeitungs-, ETL-, Data Science- und interaktive Abfragen. Es sind keine Codeänderungen erforderlich, um die Ausführung Ihrer Apache Spark-Aufträge bei der Verwendung des Native Execution Engine zu beschleunigen. |
Geschachtelte allgemeine Tabellenausdrücke (CTEs) (Vorschau) |
Fabric Warehouse- und SQL-Analyseendpunkt unterstützen beide Standard-,sequenziell und geschachtelte CTEs . Während CTEs in Microsoft Fabric allgemein verfügbar sind, sind geschachtelte allgemeine Tabellenausdrücke (CTE) in Fabric Data Warehouse derzeit ein Vorschaufeature. |
Debugging von Notebooks in vscode.dev (Vorschau) |
Sie können jetzt Haltepunkte platzieren und Ihren Notebookcode mit der Erweiterung Synapse VS Code - Remote in vscode.dev debuggen. Dieses Update beginnt zuerst mit der Fabric Runtime 1.3. |
OneLake-Datenzugriffsrollen |
OneLake-Datenzugriffsrollen für Lakehouse befinden sich in der Vorschau. Rollenberechtigungen und Benutzer-/Gruppenzuweisungen können einfach über eine neue Benutzeroberfläche für die Ordnersicherheit aktualisiert werden. |
OneLake SAS (Vorschau) |
Die Unterstützung für kurzlebige, benutzerdelegierte OneLake SAS befindet sich jetzt in der Vorschau. Mit dieser Funktion können Anwendungen einen von Microsoft Entra ID gesicherten User Delegation Key anfordern und dann diesen Schlüssel verwenden, um ein OneLake SAS-Token zu erstellen. Dieses Token kann übergeben werden, um delegierten Zugriff auf ein anderes Tool, einen Knoten oder einen anderen Benutzer zu ermöglichen, um einen sicheren und kontrollierten Zugriff zu gewährleisten. |
Offene Spiegelung (Vorschau) |
Die offene Spiegelung ermöglicht es jeder Anwendung, Änderungsdaten direkt in eine gespiegelte Datenbank in Fabric zu schreiben, basierend auf den öffentlichen APIs und den Ansätzen für offene Spiegelung. Die offene Spiegelung ist so konzipiert, dass sie erweiterbar, anpassbar und offen ist. Es ist ein leistungsstarkes Feature, das die Spiegelung in Fabric basierend auf dem offenen Delta Lake-Tabellenformat erweitert. Für erste Schritte siehe das Tutorial: Konfigurieren von offenen gespiegelten Microsoft Fabric-Datenbanken. |
Vorbereiten von Azure AI-Diensten in der Fabric-Vorschau |
Die Vorschau auf vorgefertigte KI-Dienste in Fabric ist eine Integration mit Azure AI-Diensten, früher azure Cognitive Services genannt. Vorkonfigurierte Azure AI-Dienste ermöglichen eine einfache Verbesserung von Daten mit vordefinierten KI-Modellen ohne Voraussetzungen. Derzeit befinden sich vorgefertigte KI-Dienste in der Vorschau und umfassen Unterstützung für Microsoft Azure OpenAI-Dienst, Azure AI Language und Azure AI Übersetzer. |
Purview Data Loss Prevention-Richtlinien wurden auf Fabric Lakehouses erweitert |
Das Erweitern der DLP-Richtlinie (Data Loss Prevention) von Microsoft Purview in Fabric Lakehouses befindet sich jetzt in der Vorschau. |
Purview Data Loss Prevention-Richtlinien unterstützen jetzt die Einschränkungszugriffsaktion für semantische Modelle |
Das Einschränken des Zugriffs basierend auf vertraulichen Daten für semantische Modelle, das jetzt in der Vorschau ist, hilft Ihnen, vertrauliche Informationen automatisch zu erkennen, während sie in Fabric Lakehouses und semantische Modelle hochgeladen werden. |
Echtzeit-Dashboards und zugrunde liegende KQL-Datenbanken greifen auf Trennung zu (Vorschau) |
Mit separaten Berechtigungen für Dashboards und zugrunde liegenden Daten haben Administratoren jetzt die Flexibilität, Benutzern das Anzeigen von Dashboards zu ermöglichen, ohne Zugriff auf die Rohdaten zu gewähren. |
Maximale Kerne für Aufträge reservieren (Vorschau) |
Mit einer neuen Einstellung auf Arbeitsbereichsebene können Sie maximale Kerne für Ihre aktiven Aufträge für Spark-Workloads reservieren. Weitere Informationen finden Sie unter Modus für hohe Parallelität in Apache Spark for Fabric. |
Vorschau der REST-APIs für Fabric Data Factory-Pipelines |
Die REST-APIs für Fabric Data Factory Pipelines sind jetzt in der Vorschau. REST-APIs für Data Factory-Pipelines ermöglichen es Ihnen, die integrierte Funktion in Fabric zu erweitern, um Pipelines zu erstellen, zu lesen, zu aktualisieren, zu löschen und zu listen. |
Sicheres Data Streaming mit verwalteten Managed Private Endpoints in Eventstream (Vorschau) |
Durch das Erstellen eines Fabric Managed Private Endpoint können Sie jetzt Eventstream sicher mit Ihren Azure-Diensten verbinden, z. B. Azure Event Hubs oder IoT Hub, innerhalb eines privaten Netzwerks oder hinter einer Firewall. Weitere Informationen finden Sie unter Sicheres Data Streaming mit Managed Private Endpoints in Eventstream (Preview). |
Aktualisierungsaktivität des semantischen Modells (Vorschau) |
Verwenden Sie die Aktualisierungsaktivität des semantischen Modells, um ein Power BI-Dataset (Vorschau) zu aktualisieren, die effektivste Methode zum Aktualisieren Ihrer Fabric-Semantikmodelle. |
Session Expiry Control in Workspace Settings für Notebook Interactive Runs (Vorschau) |
Mit einem neuen Ablaufsteuerelement für Sitzungen in den Arbeitsbereichseinstellungen für Datentechnik/-wissenschaft können Sie das maximale Ablaufzeitlimit für interaktive Notebook-Sitzungen festlegen. Standardmäßig laufen Sitzungen nach 20 Minuten ab, aber Sie können jetzt die maximale Ablaufdauer anpassen. |
Freigabe-Funktion für Fabric KI-Skill (Vorschau) |
Mit der „Freigabe“-Funktion für Fabric KI-Skill (Vorschau) können Sie den KI-Skill mit anderen teilen, indem Sie eine Vielzahl von Berechtigungsmodellen verwenden. |
Freigeben des Fabric KI-Skill (Vorschau) |
Mit der Freigabefunktion für den Fabric KI-Skill (Vorschau) können Sie den KI-Skill mit anderen teilen, indem Sie eine Vielzahl von Berechtigungsmodellen verwenden. |
Spark Run Series Analysis in der Vorschau |
Mit den Analysefunktionen der Spark Monitoring Run Serie können Sie den Laufzeittrend und den Leistungsvergleich für sich wiederholende Ausführungsinstanzen von Spark-Pipelineaktivitäten aus derselben Notebook- oder Spark-Auftragsdefinition analysieren. |
Splunk-Add-On (Vorschau) |
Das Microsoft Fabric-Add-On für Splunk ermöglicht es Benutzer, Protokolle von der Splunk-Plattform unter Verwendung des Kusto Python SDK in einer Fabric-KQL-Datenbank zu erfassen. |
Tags |
Tags (Vorschau) helfen Administratoren beim Kategorisieren und Organisieren von Daten, verbessern die Durchsuchbarkeit Ihrer Daten und erhöhen die Erfolgsraten und Effizienz für Endbenutzer. |
Aufgabenflüsse in Microsoft Fabric (Vorschau) |
Die Vorschau der Aufgabenflüsse in Microsoft Fabric ist für alle Microsoft Fabric-Benutzer*innen aktiviert. Bei Fabric-Aufgabenflüssen müssen Sie beim Entwerfen eines Datenprojekts kein Whiteboard mehr verwenden, um die verschiedenen Teile des Projekts und deren Beziehungen zu skizzieren. Stattdessen können Sie einen Aufgabenfluss verwenden, um diese wichtigen Informationen zu erfassen und in das Projekt selbst zu integrieren. |
varchar(max) und varbinary(max)-Unterstützung in der Vorschau |
Unterstützung für die Datentypen varchar(max) und varbinary(max) in Warehouse befindet sich jetzt in der Vorschau. Weitere Informationen finden Sie unter Ankündigung der öffentlichen Vorschau von VARCHAR(MAX) und VARBINARY(MAX)-Typen in Fabric Data Warehouse. |
Terraform Provider für Fabric (Vorschau) |
Der Terraform Provider für Microsoft Fabric befindet sich jetzt in der Vorschau. Der Terraform Provider für Microsoft Fabric unterstützt die Erstellung und Verwaltung vieler Fabric-Ressourcen. Weitere Informationen finden Sie unter Ankündigung des neuen Terraform Providers für Microsoft Fabric. |
T-SQL-Unterstützung in Fabric-Notebooks (Vorschau) |
Mit dem T-SQL-Notebookfeature in Microsoft Fabric (Vorschau) können Sie T-SQL-Code in einem Notebook schreiben und ausführen. Sie können es verwenden, um komplexe Abfragen zu verwalten und eine bessere Markdowndokumentation zu schreiben. Außerdem ermöglicht es die direkte Ausführung von T-SQL im verbundenen Warehouse oder SQL-Analyseendpunkt. Weitere Informationen finden Sie unter Erstellen und Ausführen von T-SQL-Notebooks. |
Wiederherstellungspunkte und In-situ-Wiederherstellung eines Warehouse |
Sie können jetzt Wiederherstellungspunkte erstellen und eine In-situ-Wiederherstellung eines Warehouse zu einem früheren Zeitpunkt durchführen. Die Wiederherstellung ist ein wesentlicher Bestandteil der Data Warehouse-Wiederherstellung, der es ermöglicht, das Data Warehouse in einem früheren zuverlässigen Zustand wiederherzustellen, indem das vorhandene Data Warehouse ersetzt oder überschreiben wird, aus dem der Wiederherstellungspunkt erstellt wurde. |
Quellcodeverwaltung für Warehouses (Vorschau) |
Mithilfe von Git-Integrations- und/oder Bereitstellungspipelines in Ihrem Warehouse können Sie die Entwicklung und Bereitstellung versionierter Warehouse-Objekte verwalten. Sie können die SQL Database Project-Erweiterung nutzen, die in Azure Data Studio und Visual Studio Code verfügbar ist. Weitere Informationen zur Quellcodeverwaltung für Warehouses finden Sie unter CI/CD mit Warehouses in Microsoft Fabric. |