Préversion de AutoML en mode code-first |
Dans la Science des données Fabric, la nouvelle fonctionnalité AutoML permet l’automatisation de votre flux de travail Machine Learning. AutoML, ou Machine Learning automatisé, est un ensemble de techniques et d’outils qui peuvent entraîner et optimiser automatiquement des modèles Machine Learning pour n’importe quel type de tâche et de données. |
Expérience utilisateur low-code pour AutoML dans Fabric (préversion) |
AutoML ou Machine Learning automatisé est un processus qui automatise les tâches fastidieuses et complexes du développement de modèles Machine Learning. La nouvelle expérience AutoML low-code prend en charge diverses tâches, notamment la régression, la prévision, la classification et la classification multiclasse. Pour commencer, créez des modèles avec le Machine Learning automatisé (préversion). |
Élément Azure Data Factory |
Vous pouvez maintenant apporter votre Azure Data Factory (ADF) existante à votre espace de travail Fabric. Cette nouvelle fonctionnalité en préversion vous permet de vous connecter à votre Azure Data Factory existante à partir de votre espace de travail Fabric. Sélectionnez « Créer Azure Data Factory » à l’intérieur de votre espace de travail Fabric Data Factory et vous pouvez gérer vos fabriques de données Azure directement à partir de l’espace de travail Fabric. |
Préversion des pools de capacité |
Les administrateurs de capacité peuvent désormais créer des pools personnalisés (préversion) en fonction de leurs besoins en charge de travail, en fournissant un contrôle granulaire sur les ressources de calcul. Les pools personnalisés pour Ingénieurs Données et Science des données peuvent être définis en tant qu’options de pool Spark dans les paramètres Spark de l’espace de travail et les éléments d’environnement. |
Version préliminaire du réglage des hyperparamètres Code First |
Dans la science des données Fabric, FLAML est désormais intégré pour le réglage des hyperparamètres, une fonctionnalité actuellement en préversion. La fonctionnalité flaml.tune de Fabric simplifie ce processus, offrant une approche économique et efficace du réglage des hyperparamètres. |
Copilot dans Fabric est disponible dans le monde entier |
Copilot dans Fabric est désormais disponible pour tous les clients, notamment Copilot pour Power BI, Data Factory, Science des données et Ingénieurs de données, et Intelligence en temps réel. Pour plus d’informations, consultez notre Vue d’ensemble sur Copilot dans Fabric. |
Tâche Copier |
La tâche Copier (préversion) présente des avantages par rapport à l’activité de copie héritée. Pour plus d’informations, consultez Annonce de la préversion : tâche Copier dans Microsoft Fabric. Pour obtenir un didacticiel, consultez Découvrez comment créer une tâche Copier (préversion) dans Data Factory pour Microsoft Fabric. |
Préversion des travaux Apache Airflow Data Factory |
Les tâches Apache Airflow (préversion) dans Data Factory, avec Apache Airflow, offrent une expérience de création, de planification et de supervision transparentes pour les processus de données basés sur Python définis comme graphes acycliques orientés (DAG). Pour plus d’informations, consultez Démarrage rapide : Créer un flux de travail de données. |
Fonctionnalités de pipeline de données dans Copilot pour Data Factory (préversion) |
Les nouvelles fonctionnalités de pipeline de données de Copilot pour Data Factory sont désormais disponibles en préversion. Ces fonctionnalités fonctionnent comme un expert en IA pour aider les utilisateurs à construire, dépanner et maintenir les pipelines de données. |
Data Wrangler pour DataFrames Spark (préversion) |
Data Wrangler prend désormais en charge les DataFrames Spark en avant-première. De ce fait, les utilisateurs peuvent désormais éditer des DataFrames Spark en plus des DataFrames pandas avec Data Wrangler. |
Compétence en IA de science des données (préversion) |
Vous pouvez maintenant créer vos propres expériences d’IA générative sur vos données dans Fabric avec la compétence d’IA (préversion) ! Vous pouvez créer des systèmes d’IA de questions et de réponses sur vos Lakehouses et entrepôts. Pour plus d’informations, consultez Présentation des compétences d’IA dans Microsoft Fabric : maintenant en préversion. Pour commencer, essayez Exemple de compétence d’IA avec le jeu de données AdventureWorks. |
Flux de données Gen2 avec intégration CI/CD et Git |
Le flux de données Gen2 prend désormais en charge l’intégration continue/le déploiement continu (CI/CD) et l’intégration Git. Cette fonctionnalité en préversion vous permet de créer, modifier et gérer des flux de données dans un référentiel Git connecté à votre espace de travail Fabric. En outre, vous pouvez utiliser la fonctionnalité de pipelines de déploiement pour automatiser le déploiement des flux de données de votre espace de travail vers d’autres espaces de travail. Vous pouvez également utiliser l’API Créer, Lire, Mettre à jour, Supprimer et Répertorier (CRUDL) de Fabric pour gérer un flux de données Gen2. |
Mappage de colonnes delta dans le point de terminaison d’analytique SQL |
Le point de terminaison d’analytique SQL prend désormais en charge les tables Delta avec le mappage de colonnes activé. Pour plus d’informations, consultez Mappage de colonnes Deltaet Limitations du point de terminaison d’analytique SQL. Actuellement, cette fonctionnalité est uniquement disponible en tant que version préliminaire. |
Domaines dans OneLake (préversion) |
Les domaines dans OneLake vous aident à organiser vos données dans un maillage de données logique, ce qui permet la gouvernance fédérée et l’optimisation des besoins de l’entreprise. Vous pouvez maintenant créer des sous-domaines, des domaines par défaut pour les utilisateurs et déplacer des espaces de travail entre des domaines. Pour plus d’informations, consultez Fabric domains. |
Mode de concurrence élevée pour les notebooks dans pipelines (préversion) |
Le mode de concurrence élevée pour les notebooks dans pipelines permet aux utilisateurs de partager des sessions Spark sur plusieurs notebooks au sein d’un pipeline. Avec le un mode de concurrence élevé, les utilisateurs peuvent déclencher des travaux de pipeline, et ces travaux sont automatiquement empaquetés dans des sessions de concurrence élevée existantes. |
La passerelle Fabric permet à OneLake d'accéder aux données sur site |
Connectez-vous à des sources de données locales avec une passerelle de données locale Fabric sur un ordinateur de votre environnement, avec une visibilité de mise en réseau de votre source de données compatible S3 ou de stockage cloud Google. Ensuite, vous créez votre raccourci et sélectionnez cette passerelle. Pour plus d’informations, consultez la section Créer des raccourcis vers des données sur site. |
Connecteur Fabric Spark pour Fabric Data Warehouse dans le runtime Spark (préversion) |
Le connecteur Fabric Spark pour Data Warehouse (préversion) permet à un développeur Spark ou à un scientifique des données d’accéder et de travailler sur les données d’un entrepôt ou du point de terminaison d’analyse SQL d’un lakehouse (à partir du même espace de travail ou entre des espaces de travail) avec une API Spark simplifiée. |
Émetteur de diagnostic Fabric Spark (préversion) |
L’émetteur de diagnostic Fabric Apache Spark (préversion) permet aux utilisateurs Apache Spark de collecter des journaux, des journaux d’événements et des métriques à partir de leurs applications Spark, et de les envoyer à différentes destinations, notamment Azure Event Hubs, Stockage Azure et Azure Log Analytics. |
Base de données SQL Fabric (préversion) |
La base de données SQL dans Microsoft Fabric (préversion) est une base de données transactionnelle conviviale pour les développeurs, basée sur la base de données Azure SQL, ce qui vous permet de créer facilement votre base de données opérationnelle dans Fabric. Une base de données SQL dans Fabric utilise le moteur de la base de données SQL comme base de données Azure SQL. Consultez un Guide de décision pour les bases de données SQL. |
Dossier dans la version préliminaire de l’espace de travail |
En tant qu’unité d’organisation dans l’espace de travail, le dossier répond à ce point faible en fournissant une structure hiérarchique pour l'organisation et la gestion de vos éléments. Pour plus d’informations, consultez Créer des dossiers dans les espaces de travail (aperçu). |
Données Iceberg dans OneLake utilisant Snowflake et des raccourcis (préversion) |
Vous pouvez désormais utiliser des données au format Iceberg dans Microsoft Fabric sans déplacement ou duplication des données. En outre, Snowflake a ajouté la possibilité d’écrire des tables Iceberg directement dans OneLake. Pour plus d’informations, consultez Utiliser des tables Iceberg avec OneLake. |
Actualisation incrémentielle pour flux de données Gen2 (préversion) |
L’actualisation incrémentielle pour flux de données Gen2 dans Fabric Data Factory est conçue pour optimiser l’ingestion et la transformation des données, en particulier à mesure que vos données continuent de se développer. Pour plus d’informations, consultez Annonce de la préversion : Actualisation incrémentielle dans le flux de données Gen2. |
Appeler un pipeline distant (préversion) dans le pipeline de données |
Vous pouvez maintenant utiliser l’activité Appeler le pipeline (préversion) pour appeler des pipelines à partir de pipelines Azure Data Factory ou Synapse Analytics. Cette fonctionnalité vous permet d’utiliser vos pipelines ADF ou Synapse existants à l’intérieur d’un pipeline Fabric en l’appelant en ligne via cette nouvelle activité d’appel de pipeline. |
Fonctionnalité de schémas Lakehouse |
La fonctionnalité schémas Lakehouse (préversion) introduit la prise en charge du pipeline de données pour lire les informations de schéma à partir de tables Lakehouse et prend en charge l’écriture de données dans des tables sous des schémas spécifiés. Les schémas lakehouse vous permettent de regrouper vos tables afin d’améliorer la recherche de données, le contrôle d’accès, etc. |
Prise en charge des lakehouses pour les pipelines d’intégration et de déploiement Git (préversion) |
Le lakehouse s’intègre désormais aux fonctionnalités de gestion du cycle de vie dans Microsoft Fabric, ce qui permet une collaboration standardisée entre tous les membres de l’équipe de développement tout au long de la vie du produit. La gestion du cycle de vie facilite et améliore le processus de mise en production et de gestion des versions du produit en fournissant en continu des fonctionnalités et des correctifs de bogues dans divers environnements. |
Réseaux virtuels managés (préversion) |
Les réseaux virtuels managés sont des réseaux virtuels créés et gérés par Microsoft Fabric pour chaque espace de travail Fabric. |
Le connecteur Microsoft 365 prend désormais en charge l’ingestion de données dans Lakehouse (préversion) |
Le connecteur Microsoft 365 prend désormais en charge l’ingestion de données dans des tables Lakehouse. |
Les API d’administration Microsoft Fabric |
Les API d’administration Fabric sont conçues pour simplifier les tâches d’administration. L’ensemble initial d’API d’administration Fabric est adapté pour simplifier la découverte d’espaces de travail, d’éléments Fabric et de détails sur l’accès utilisateur. |
Mise en miroir dans l’aperçu Microsoft Fabric |
Avec la mise en miroir dans Fabric, vous pouvez facilement intégrer vos bases de données dans OneLake dans Microsoft Fabric, ce qui permet d’obtenir de manière transparente des informations en quasi-temps réel sur vos données zero-ETL et de débloquer l’entreposage, la BI, l’IA, etc. Pour plus d’informations, consultez Qu’est-ce que la mise en miroir dans Fabric ? |
Moteur d’exécution natif sur Runtime 1.3 (préversion) |
Le moteur d’exécution natif pour Fabric Runtime 1.3 est désormais disponible en préversion et offre des performances de requête supérieures dans le traitement des données, ETL, la science des données et les requêtes interactives. Aucune modification du code n’est nécessaire pour accélérer l’exécution de vos tâches Apache Spark lors de l’utilisation du moteur d’exécution natif. |
Expressions de table communes imbriquées (CTE) (préversion) |
Le point de terminaison d’analytique Fabric Warehouse et SQL prennent tous deux en charge les CTE standard, séquentiels et imbriqués. Bien que les CTE soient généralement disponibles dans Microsoft Fabric, les expressions de table communes imbriquées (CTE) dans l’entrepôt de données Fabric sont actuellement une fonctionnalité en préversion. |
Débogage du notebook dans vscode.dev (préversion) |
Vous pouvez désormais placer des points d’arrêt et déboguer votre code de notebook avec l’extension SYNapse VS Code - Remote dans vscode.dev. Cette mise à jour commence par Fabric Runtime 1.3. |
Rôles d'accès aux données OneLake |
Les rôles d'accès aux données OneLake pour lakehouse sont en aperçu. Les autorisations de rôle et les attributions d'utilisateurs/groupes peuvent être facilement mises à jour via une nouvelle interface utilisateur. |
SAS OneLake (préversion) |
La prise en des SAS OneLake éphémères, délégués par l'utilisateur est désormais disponible en préversion. Cette fonctionnalité permet aux applications d’adresser une requête pour obtenir une clé de délégation d’utilisateur sauvegardée par Microsoft Entra ID, puis d’utiliser cette clé pour constituer un jeton SAS OneLake. Ce jeton peut être remis pour fournir un accès délégué à un autre outil, nœud ou utilisateur, garantissant ainsi un accès sécurisé et contrôlé. |
Mise en miroir ouverte (préversion) |
la mise en miroir ouverte permet à une application d’écrire des données modifiées directement dans une base de données mise en miroir dans Fabric, sur la base des API publiques et de l’approche de mise en miroir ouverte. La Mise en miroir ouverte est conçue pour être extensible, personnalisable et ouverte. Il s’agit d’une fonctionnalité puissante qui étend la mise en miroir dans Fabric sur la base du format de table ouvert de Delta Lake. Pour commencer, consultez Tutoriel : Configurer des bases de données mises en miroir ouvertes Microsoft Fabric. |
Azure AI Services prédéfinis dans la préversion de Fabric |
La préversion des services d’IA prédéfinis dans Fabric est une intégration avec les Azure AI Services, anciennement nommés Azure Cognitive Services. Les Azure AI Services prédéfinis permettent d’améliorer facilement les données avec des modèles IA prédéfinis sans aucune condition préalable. Actuellement, les services d’IA prédéfinis sont en préversion et incluent la prise en charge du service Azure OpenAI, d’Azure AI Language et d’Azure AI Translator. |
Les stratégies de protection contre la perte de données Purview ont été étendues aux lakehouses Fabric |
L’extension des stratégies de protection contre la perte de données (DLP) de Microsoft Purview dans les lakehouses Fabric est désormais en préversion. |
Les stratégies de protection contre la perte de données Purview prennent désormais en charge l'action de restriction d'accès pour les modèles sémantiques |
La restriction d'accès basée sur le contenu sensible pour les modèles sémantiques, désormais en préversion, vous aide à détecter automatiquement les informations sensibles lorsqu'elles sont téléchargées dans les lakehouses Fabric et les modèles sémantiques. |
Tableaux de bord en temps réel et séparation d’accès des bases de données KQL sous-jacentes (préversion) |
Avec des autorisations distinctes pour les tableaux de bord et les données sous-jacentes, les administrateurs ont désormais la possibilité d’autoriser les utilisateurs à afficher des tableaux de bord sans donner accès aux données brutes. |
Réserver le nombre maximal de cœurs pour les travaux (préversion) |
Un nouveau paramètre au niveau de l’espace de travail vous permet de réserver le maximum de cœurs pour vos travaux actifs pour les charges de travail Spark. Pour plus d’informations, consultez le mode de concurrence élevée dans Apache Spark pour Fabric. |
Aperçu des API REST pour les pipelines Fabric Data Factory |
Les API REST pour les pipelines Fabric Data Factory sont désormais disponibles en aperçu. Les API REST pour les pipelines Data Factory vous permettent d'étendre les capacités prédéfinies de Fabric pour créer, lire, mettre à jour, supprimer et répertorier les pipelines. |
Sécuriser la diffusion en continu des données avec des points de terminaison privés managés dans Eventstream (préversion) |
En créant un point de terminaison privé managé Fabric, vous pouvez désormais connecter Eventstream de manière sécurisée à vos services Azure, comme Azure Event Hubs ou IoT Hub, au sein d’un réseau privé ou derrière un pare-feu. Pour plus d’informations, consultez Diffusion en continu de données sécurisée avec des points de terminaison privés managés dans Eventstream (Préversion). |
Activité d’actualisation du modèle sémantique (préversion) |
Utilisez l’activité d’actualisation du modèle sémantique pour actualiser un jeu de données Power BI (préversion), le moyen le plus efficace d’actualiser vos modèles sémantiques Fabric. |
Contrôle d’expiration de session dans les paramètres de l’espace de travail pour les exécutions interactives du notebook (préversion) |
Un nouveau contrôle d’expiration de session dans les paramètres de l’espace de travail d’engineering de données/science vous permet de définir la limite maximale de temps d’expiration pour les sessions interactives du notebook. Par défaut, les sessions expirent au bout de 20 minutes, mais vous pouvez désormais personnaliser la durée d’expiration maximale. |
Fonctionnalité de partage pour la compétence d’IA Fabric (préversion) |
La fonctionnalité « Partager » pour la compétence d’IA Fabric (préversion) vous permet de partager la compétence d’IA avec d’autres utilisateurs à l’aide de différents modèles d’autorisation. |
Partager la compétence d’IA Fabric (préversion) |
La fonctionnalité de partage pour la compétence d’IA Fabric (préversion) vous permet de partager la compétence d’IA avec d’autres utilisateurs à l’aide de différents modèles d’autorisation. |
Aperçu de l’analyse de série d’exécutions Spark |
Les Fonctionnalités d’analyse de série d’exécution Spark vous permettent d’analyser la tendance de la durée d’exécution et la comparaison des performances pour les instances d’exécution récurrentes d’activités Pipeline Spark et les activités d’exécution Spark répétitives à partir du même Notebook-notes ou de la même définition de tâche Spark. |
Module complémentaire Splunk (préversion) |
Le module complémentaire Microsoft Fabric pour Splunk permet aux utilisateurs d’ingérer des journaux à partir de la plateforme Splunk dans une base de données Fabric KQL à l’aide du Kit de développement logiciel (SDK) Python Kusto. |
Balises |
Les balises (préversion) aident les administrateurs à catégoriser et organiser les données, en améliorant la recherche de vos données et en améliorant les taux de réussite et l’efficacité pour les utilisateurs finaux. |
Flux de tâches dans Microsoft Fabric (aperçu) |
L’aperçu des flux de tâches dans Microsoft Fabric est activé pour tous les utilisateurs de Microsoft Fabric. Avec les flux de tâches Fabric, lors de la conception d’un projet de données, vous n’avez plus besoin d’utiliser un tableau blanc pour esquisser les différentes parties du projet et leurs interrelations. Au lieu de cela, vous pouvez utiliser un flux de tâches pour construire et apporter ces informations clés dans le projet lui-même. |
prise en charge de varchar(max) et varbinary(max) en préversion |
La prise en charge des types de données varchar(max) et varbinary(max) dans l’entrepôt est maintenant en préversion. Pour plus d’informations, consultez Annonce de la préversion publique des types VARCHAR(MAX) et VARBINARY(MAX) dans l’entrepôt de données Fabric. |
Fournisseur Terraform pour Fabric (préversion) |
Le fournisseur Terraform pour Microsoft Fabric est désormais en préversion. Le fournisseur Terraform pour Microsoft Fabric prend en charge la création et la gestion de nombreuses ressources Fabric. Pour plus d’informations, consultez Annonce du nouveau fournisseur Terraform pour Microsoft Fabric. |
Prise en charge de T-SQL dans les notebooks Fabric (préversion) |
La fonctionnalité de notebook T-SQL dans Microsoft Fabric (préversion) vous permet d’écrire et d’exécuter du code T-SQL dans un notebook. Vous pouvez les utiliser pour gérer des requêtes complexes et écrire une meilleure documentation markdown. Cette fonctionnalité permet également l’exécution directe de T-SQL sur un entrepôt connecté ou un point de terminaison d’analytique SQL. Pour en savoir plus, consultez Créer et exécuter des notebooks T-SQL. |
Points de restauration de l'entrepôt et restauration à la place |
Vous pouvez maintenant créer des points de restauration et effectuer une restauration à la place d'un entrepôt à un point passé dans le temps. La Restauration à la place est une partie essentielle de la récupération de l’entrepôt de données qui permet de restaurer l’entrepôt de données à un état fiable connu antérieur en remplaçant ou en écrasant l’entrepôt de données existant à partir duquel le point de restauration a été créé. |
Contrôle de code source d’entrepôt (préversion) |
À l’aide des pipelines d’intégration et/ou de déploiement Git avec votre entrepôt, vous pouvez gérer le développement et le déploiement d’objets d’entrepôt avec gestion des versions. Vous pouvez utiliser l’extension SQL Database Projects disponible dans Azure Data Studio et Visual Studio Code. Pour plus d’informations sur le contrôle de code source d’entrepôt, consultez CI/CD avec les entrepôts dans Microsoft Fabric. |