Runtime Fabric 1.3 (Disponibilité générale)
Le Runtime Fabric offre une intégration transparente avec Azure. Il fournit un environnement sophistiqué pour les projets d’Ingénieurs de données, et de science des données qui utilisent Apache Spark. Cet article présente une vue d’ensemble des caractéristiques et des composants essentiels de Fabric Runtime 1.3, le plus récent runtime pour les calculs de Big Data.
Microsoft Fabric Runtime 1.3 est la dernière version du runtime en disponibilité générale et intègre les composants et mises à niveau suivants, conçus pour améliorer vos fonctionnalités de traitement de données :
- Apache Spark 3.5
- Système d’exploitation : Mariner 2.0
- Java : 11
- Scala : 2.12.17
- Python : 3.11
- Delta Lake : 3.2
- R : 4.4.1
Conseil
Fabric Runtime 1.3 inclut la prise en charge du moteur d’exécution natif, ce qui peut améliorer considérablement le niveau de performance sans frais supplémentaires. Pour activer le moteur d’exécution natif sur tous les travaux et notebooks de votre environnement, accédez à vos paramètres d’environnement, sélectionnez Calcul Spark, accédez à l’onglet Accélération et cochez Activer le moteur d’exécution natif. Après l’enregistrement et la publication, ce paramètre est appliqué dans l’ensemble de l’environnement, de sorte que tous les nouveaux travaux et notebooks en héritent automatiquement et bénéficient des fonctionnalités de niveau de performance amélioré.
Utilisez les instructions suivantes, pour intégrer runtime 1.3 à votre espace de travail, et utiliser ses nouvelles fonctionnalités :
- Accédez à la tabulation Paramètres de l’espace de travail dans votre espace de travail Fabric.
- Accédez à tabulation Ingénieurs de données/Science et sélectionnez Paramètres Spark.
- Sélectionnez l’onglet Environnement.
- Sous les Versions du runtime, développez la liste déroulante.
- Sélectionnez 1.3 (Spark 3.5, Delta 3.2) et enregistrez vos modifications. Cette action définit la version 1.3 en tant que runtime par défaut pour votre espace de travail.
Vous pouvez maintenant commencer à utiliser les dernières améliorations et fonctionnalités introduites dans le runtime Fabric 1.3 (Spark 3.5 et Delta Lake 3.2).
Points clés
Apache Spark 3.5
L’Apache Spark 3.5.0 est la sixième version de la série 3.x. Cette version est le fruit d’une vaste collaboration au sein de la communauté open-source, qui a permis de résoudre plus de 1 300 problèmes enregistrés dans Jira.
Dans cette version, il existe une mise à niveau en compatibilité pour le flux structuré. En outre, cette version élargit les fonctionnalités de PySpark et de SQL. En outre, cette version élargit les fonctionnalités de PySpark et de SQL. Elle intègre des caractéristiques telles que la clause d’identifiant SQL, les arguments nommés dans les appels de fonctions SQL et l’inclusion de fonctions SQL pour les agrégations approximatives d’HyperLogLog. D’autres nouvelles fonctionnalités incluent également des fonctions de table définies par l’utilisateur Python, la simplification de la formation distribuée via DeepSpeed et de nouvelles fonctionnalités de streaming structurées telles que la propagation de filigranes et l’opération dropDuplicatesWithinWatermark.
Vous pouvez consulter la liste complète et les changements précis ici : https://spark.apache.org/releases/spark-release-3-5-0.html.
Delta Spark
Delta Lake 3.2 marque un engagement collectif à rendre Delta Lake interopérable sur l’ensemble des formats, plus facile à utiliser et plus performant. Delta Spark 3.2 est développé sur Apache Spark™ 3.5. L’artefact maven Delta Spark a été renommé de delta-core à delta-spark.
Vous pouvez consulter la liste complète et les changements précis ici : https://docs.delta.io/3.2.0/index.html.
Conseil
Pour obtenir des informations à jour, et une liste détaillée des modifications et des notes de publication spécifiques pour les Runtimes d’exécution Fabric, consultez les versions et mises à jour de Spark Runtimes et abonnez-vous.
Contenu connexe
- Consultez Runtimes Apache Spark dans Fabric : vue d’ensemble, contrôle de version, prise en charge de plusieurs runtimes et mise à niveau du protocole Delta Lake
- Guide de migration de Spark Core
- Guide de migration de SQL, des jeux de données et du DataFrame
- Guide de migration de la diffusion en continu structurée
- Guide de migration de l’apprentissage automatique (MLlib)
- Guide de migration du PySpark (Python sur Spark)
- Guide de migration SparkR (R sur Spark)