Résumé

Effectué

Apache Spark est une technologie clé utilisée dans la transformation des données et l’analytique Big Data. La prise en charge de Spark dans Azure Databricks vous permet de combiner le traitement Big Data dans Spark avec des données à grande échelle analytique.

Nous avons effectué différentes opérations dans ce module :

  • Décrire les éléments clés de l’architecture Apache Spark.
  • Créer et configurer un cluster Spark.
  • Décrire les cas d’usage pour Spark.
  • Utiliser Spark pour traiter et analyser les données stockées dans des fichiers.
  • Utiliser Spark pour visualiser les données.