Nouveautés et planifications de Synapse Ingénieurs Données ing dans Microsoft Fabric
Important
Les plans de mise en production décrivent les fonctionnalités susceptibles ou non d’avoir été publiées. Les délais de livraison et les fonctionnalités projetées peuvent changer ou ne pas être expédiés. Pour plus d’informations, consultez la stratégie Microsoft.
Synapse Ingénieurs Données ing permet aux ingénieurs de données de pouvoir transformer leurs données à grande échelle à l’aide de Spark et de créer leur architecture lakehouse.
Lakehouse pour toutes vos données organisationnelles : Le lakehouse combine le meilleur du lac de données et de l’entrepôt de données dans une expérience unique. Il permet aux utilisateurs d’ingérer, de préparer et de partager des données organisationnelles dans un format ouvert dans le lac. Plus tard, vous pouvez y accéder via plusieurs moteurs tels que Spark, T-SQL et Power BI. Il fournit différentes options d’intégration de données, telles que les flux de données et les pipelines, les raccourcis vers des sources de données externes et les fonctionnalités de partage de produits de données.
Moteur Spark performant et runtime : l’ingénierie des données Synapse fournit aux clients un runtime Spark optimisé avec les dernières versions de Spark, Delta et Python.. Il utilise Delta Lake comme format de table commun pour tous les moteurs, ce qui facilite le partage et la création de rapports de données sans déplacement de données. Le runtime est fourni avec des optimisations Spark, améliorant vos performances de requête sans aucune configuration. Il offre également des pools de démarrage et un mode haute concurrence pour accélérer et réutiliser vos sessions Spark, ce qui vous permet de gagner du temps et des coûts.
Configuration de l’administrateur Spark : les administrateurs d’espace de travail disposant d’autorisations appropriées peuvent créer et configurer des pools personnalisés pour optimiser les performances et le coût de leurs charges de travail Spark. Les créateurs peuvent configurer des environnements pour installer des bibliothèques, sélectionner la version du runtime et définir des propriétés Spark pour leurs notebooks et travaux Spark.
Expérience développeur : les développeurs peuvent utiliser des notebooks, des travaux Spark ou leur IDE préféré pour créer et exécuter du code Spark dans Fabric. Ils peuvent accéder en mode natif aux données lakehouse, collaborer avec d’autres personnes, installer des bibliothèques, suivre l’historique, effectuer une surveillance en ligne et obtenir des recommandations du conseiller Spark. Ils peuvent également utiliser Data Wrangler pour préparer facilement les données avec une interface utilisateur à faible code.
Intégration de la plateforme : tous les éléments d’ingénierie des données Synapse, y compris les notebooks, les travaux Spark, les environnements et les lakehouses, sont intégrés profondément dans la plateforme Fabric (fonctionnalités de gestion des informations d’entreprise, traçabilité, étiquettes de confidentialité et approbations).
Domaines d’investissement
Fonctionnalité | Chronologie estimée des mises en production |
---|---|
Concurrence élevée dans les pipelines | Q3 2024 |
VS Code pour le web - prise en charge du débogage | Q3 2024 |
Extension VSCode Core pour Fabric | Q3 2024 |
Extension satellite VSCode pour les fonctions de données utilisateur dans Fabric | Q3 2024 |
Possibilité de trier et de filtrer des tables et des dossiers dans Lakehouse | T4 2024 |
API de supervision publique | T4 2024 |
Sécurité des données Lakehouse | T4 2024 |
Prise en charge du schéma et espace de travail dans l’espace de noms dans Lakehouse | Expédié (Q3 2024) |
Connecteur Spark pour Fabric Data Warehouse | Expédié (Q2 2024) |
Moteur d’exécution natif Spark | Expédié (Q2 2024) |
Créer et attacher des environnements | Expédié (Q2 2024) |
API Microsoft Fabric pour GraphQL | Expédié (Q2 2024) |
Mise en file d’attente de travaux pour les travaux de notebook | Expédié (Q2 2024) |
Admission optimiste des travaux pour Fabric Spark | Expédié (Q2 2024) |
Autotune Spark | Expédié (Q1 2024) |
Concurrence élevée dans les pipelines
Chronologie estimée de la publication : Q3 2024
Type de publication : Disponibilité générale
En plus de la concurrence élevée dans les notebooks, nous allons également activer la concurrence élevée dans les pipelines. Cette fonctionnalité vous permet d’exécuter plusieurs notebooks dans un pipeline avec une seule session.
VS Code pour le web - prise en charge du débogage
Chronologie estimée de la publication : Q3 2024
Type de version : préversion publique
Visual Studio Code pour le web est actuellement pris en charge en préversion pour les scénarios de création et d’exécution. Nous ajoutons à la liste des fonctionnalités la possibilité de déboguer du code à l’aide de cette extension pour le notebook.
Extension VSCode Core pour Fabric
Chronologie estimée de la publication : Q3 2024
Type de version : préversion publique
L’extension VSCode core pour Fabric fournit une prise en charge commune des développeurs pour les services Fabric.
Extension satellite VSCode pour les fonctions de données utilisateur dans Fabric
Chronologie estimée de la publication : Q3 2024
Type de version : préversion publique
L’extension satellite VSCode pour Les fonctions de données utilisateur fournit la prise en charge des développeurs (modification, génération, débogage, publication) pour les fonctions de données utilisateur dans Fabric.
Possibilité de trier et de filtrer des tables et des dossiers dans Lakehouse
Chronologie estimée de la publication : Q4 2024
Type de publication : Disponibilité générale
Cette fonctionnalité permet aux clients de trier et de filtrer leurs tables et dossiers dans Lakehouse par plusieurs méthodes différentes, notamment par ordre alphabétique, date de création, etc.
API de supervision publique
Chronologie estimée de la publication : Q4 2024
Type de publication : Disponibilité générale
Les API de surveillance publique vous permettent de récupérer par programmation l’état des travaux Spark, des résumés des travaux et des journaux d’exécution correspondants.
Sécurité des données Lakehouse
Chronologie estimée de la publication : Q4 2024
Type de version : préversion publique
Vous aurez la possibilité d’appliquer la sécurité des fichiers, des dossiers et des tables (ou au niveau de l’objet) dans le lakehouse. Vous pouvez également contrôler qui peut accéder aux données dans le lakehouse et le niveau d’autorisations dont ils disposent. Par exemple, vous pouvez accorder des autorisations de lecture sur des fichiers, des dossiers et des tables. Une fois les autorisations appliquées, elles sont automatiquement synchronisées sur tous les moteurs. Cela signifie que les autorisations sont cohérentes entre les moteurs Spark, SQL, Power BI et externes.
Fonctionnalités livrées
Prise en charge du schéma et espace de travail dans l’espace de noms dans Lakehouse
Expédié (Q3 2024)
Type de version : préversion publique
Cela permet d’organiser les tables à l’aide de schémas et d’interroger des données entre les espaces de travail.
Connecteur Spark pour Fabric Data Warehouse
Expédié (Q2 2024)
Type de version : préversion publique
Spark Connector pour Fabric DW (Data Warehouse) permet à un développeur Spark ou à un scientifique des données d’accéder aux données de Fabric Data Warehouse avec une API Spark simplifiée, qui fonctionne littéralement avec une seule ligne de code. Il offre une possibilité d’interroger les données, en parallèle, à partir de l’entrepôt de données Fabric afin qu’elle s’adapte à l’augmentation du volume de données et respecte le modèle de sécurité (OLS/RLS/CLS) défini au niveau de l’entrepôt de données lors de l’accès à la table ou à la vue. Cette première version prend en charge la lecture des données uniquement et la prise en charge de l’écriture de données sera bientôt disponible.
Moteur d’exécution natif Spark
Expédié (Q2 2024)
Type de version : préversion publique
Le moteur d’exécution natif est une amélioration révolutionnaire pour les exécutions de travaux Apache Spark dans Microsoft Fabric. Ce moteur vectorisé optimise les performances et l’efficacité de vos requêtes Spark en les exécutant directement sur votre infrastructure lakehouse. L’intégration transparente du moteur signifie qu’elle ne nécessite aucune modification du code et évite le verrouillage du fournisseur. Il prend en charge les API Apache Spark et est compatible avec Runtime 1.2 (Spark 3.4) et fonctionne avec les formats Parquet et Delta. Quel que soit l’emplacement de vos données dans OneLake ou si vous accédez aux données via des raccourcis, le moteur d’exécution natif optimise l’efficacité et les performances
Créer et attacher des environnements
Expédié (Q2 2024)
Type de publication : Disponibilité générale
Pour personnaliser vos expériences Spark à un niveau plus précis, vous pouvez créer et attacher des environnements à vos blocs-notes et travaux Spark. Dans un environnement, vous pouvez installer des bibliothèques, configurer un nouveau pool, définir des propriétés Spark et charger des scripts dans un système de fichiers. Cela vous offre davantage de flexibilité et de contrôle sur vos charges de travail Spark, sans affecter les paramètres par défaut de l’espace de travail. Dans le cadre de la disponibilité générale, nous apportons diverses améliorations aux environnements, notamment la prise en charge des API et l’intégration CI/CD.
API Microsoft Fabric pour GraphQL
Expédié (Q2 2024)
Type de version : préversion publique
L’API pour GraphQL permet aux ingénieurs données Fabric, aux scientifiques, aux architectes de solutions de données d’exposer et d’intégrer facilement les données Fabric, pour des applications analytiques plus réactives, performantes et riches, tirant parti de la puissance et de la flexibilité de GraphQL.
Mise en file d’attente de travaux pour les travaux de notebook
Expédié (Q2 2024)
Type de publication : Disponibilité générale
Cette fonctionnalité permet aux notebooks Spark planifiés d’être mis en file d’attente lorsque l’utilisation de Spark est à son nombre maximal de travaux qu’elle peut exécuter en parallèle, puis d’exécuter une fois l’utilisation supprimée sous le nombre maximal de travaux parallèles autorisés.
Admission optimiste des travaux pour Fabric Spark
Expédié (Q2 2024)
Type de publication : Disponibilité générale
Avec l’admission du travail optimiste, Fabric Spark réserve uniquement le nombre minimal de cœurs qu’un travail doit démarrer, en fonction du nombre minimal de nœuds auxquels le travail peut effectuer un scale-down. Cela permet à davantage d’emplois d’être admis s’il y a suffisamment de ressources pour répondre aux exigences minimales. Si un travail doit évoluer ultérieurement, les demandes de scale-up sont approuvées ou rejetées en fonction des cœurs disponibles dans la capacité.
Autotune Spark
Expédié (Q1 2024)
Type de version : préversion publique
Autotune utilise le Machine Learning pour analyser automatiquement les exécutions précédentes de vos travaux Spark et écouter les configurations pour optimiser les performances. Il configure la façon dont vos données sont partitionnée, jointes et lues par Spark. De cette façon, il améliore considérablement les performances. Nous avons vu que les travaux clients s’exécutent 2x plus rapidement avec cette fonctionnalité.