Teilen über


Was ist Apache Spark in Azure HDInsight?

Apache Spark ist ein Framework für die Parallelverarbeitung, das In-Memory-Verarbeitung unterstützt, um die Leistung von Big Data-Analyseanwendungen zu steigern. Apache Spark in Azure HDInsight ist die Microsoft-Implementierung von Apache Spark in der Cloud und eines von mehreren Spark-Angeboten in Azure.

  • Mit Apache Spark in Azure HDInsight lassen sich Spark-Cluster einfach erstellen und konfigurieren, sodass Sie innerhalb von Azure eine voll funktionsfähige Spark-Umgebung anpassen und nutzen können.

  • Spark-Pools in Azure Synapse Analytics verwenden verwaltete Spark-Pools, damit Daten für analytische Erkenntnisse in Azure geladen, modelliert, verarbeitet und verteilt werden können.

  • Apache Spark in Azure Databricks verwendet Spark-Cluster zum Bereitstellen eines interaktiven Arbeitsbereichs, der die Zusammenarbeit zwischen Benutzer*innen ermöglicht, um Daten aus mehreren Datenquellen zu lesen und sie mithilfe von Spark in richtungsweisende Erkenntnisse umzuwandeln.

  • Spark-Aktivitäten in Azure Data Factory ermöglichen Ihnen die Verwendung von Spark-Analysen in Ihrer Datenpipeline mit bedarfsbasierten oder bereits vorhandenen Spark-Clustern.

Mit Apache Spark in Azure HDInsight können Sie alle Daten in Azure speichern und verarbeiten. Spark-Cluster in HDInsight sind mit Azure Blob Storage oder Azure Data Lake Storage Gen2 kompatibel, sodass Sie die Spark-Verarbeitung auf Ihre vorhandenen Datenspeicher anwenden können.

Spark: ein einheitliches Framework

Informationen für den Einstieg in das Erstellen von HDInsight Spark-Clustern mit Apache Spark in Azure HDInsight finden Sie im Tutorial zum Erstellen eines HDInsight Spark-Clusters.

Informationen zu Apache Spark und zur Interaktion mit Azure finden Sie im folgenden Artikel.

Informationen zu den Komponenten und Versionen finden Sie unter Welche Apache Hadoop-Komponenten und -Versionen sind in HDInsight verfügbar?.

Was ist Apache Spark?

Spark stellt Primitive für das In-Memory-Clustercomputing bereit. Bei einem Spark-Auftrag können Daten in den Arbeitsspeicher geladen, zwischengespeichert und dann wiederholt abgefragt werden. In-Memory-Computing ist deutlich schneller als datenträgerbasierte Anwendungen wie Hadoop, die Daten über das Hadoop Distributed File System (HDFS) freigeben. Spark kann auch in die Scala-Programmiersprache integriert werden, damit Sie verteilte Datasets bearbeiten können, z.B. lokale Sammlungen. Es ist nicht erforderlich, alles in Form von Mapper- und Reducer-Vorgängen zu strukturieren.

Vergleich von herkömmlichem MapReduce mit Spark

Spark-Cluster in HDInsight bieten einen vollständig verwalteten Spark-Dienst. Im Anschluss sind die Vorteile der Erstellung eines Spark-Clusters in HDInsight aufgeführt.

Funktion Beschreibung
Einfache Erstellung Über das Azure-Portal, mithilfe von Azure PowerShell oder über das HDInsight .NET SDK können Sie in wenigen Minuten einen neuen Spark-Cluster in HDInsight erstellen. Siehe Erste Schritte mit Apache Spark-Clustern in HDInsight.
Einfache Bedienung Spark-Cluster in HDInsight enthalten Jupyter Notebooks und Apache Zeppelin Notebooks. Diese Notebooks können Sie für die interaktive Datenverarbeitung und -visualisierung verwenden. Weitere Informationen finden Sie unter Verwenden von Apache Zeppelin-Notebooks mit Apache Spark und Laden von Daten und Ausführen von Abfragen in einem Apache Spark-Cluster.
REST-APIs Spark-Cluster in HDInsight beinhalten Apache Livy, einen auf der REST-API basierenden Spark-Auftragsserver für die Remoteübermittlung und -überwachung von Aufträgen. Siehe Übermitteln von Remoteaufträgen an einen HDInsight Spark-Cluster mithilfe der Apache Spark-REST-API.
Unterstützung für Azure Storage Spark-Cluster in HDInsight können Azure Data Lake Storage Gen2 als primären oder zusätzlichen Speicher verwenden. Weitere Informationen zu Data Lake Storage Gen2 finden Sie unter Azure Data Lake Storage Gen2.
Integration in Azure-Dienste Ein Spark-Cluster in HDInsight verfügt über einen Connector für Azure Event Hubs. Sie können Streaminganwendungen unter Verwendung von Event Hubs erstellen – einschließlich Apache Kafka (bereits als Teil von Spark verfügbar).
Integration in Drittanbieter-IDEs HDInsight bietet mehrere hilfreiche IDE-Plug-Ins für die Erstellung von Anwendungen und deren Übermittlung an einen HDInsight Spark-Cluster. Weitere Informationen finden Sie unter Verwenden des Azure-Toolkits für IntelliJ IDEA, Verwenden von Spark- und Hive-Tools für VS Code und Verwenden des Azure-Toolkits für Eclipse.

| Gleichzeitige Abfragen |Spark-Cluster in HDInsight unterstützen gleichzeitige Abfragen. Dank dieser Funktion können mehrere Abfragen von einem Benutzer oder mehrere Abfragen von unterschiedlichen Benutzern und Anwendungen die gleichen Clusterressourcen verwenden. | | Zwischenspeichern auf SSDs |Sie können Daten entweder im Arbeitsspeicher oder in SSDs zwischenspeichern, die an die Clusterknoten angefügt sind. Das Zwischenspeichern im Arbeitsspeicher liefert die beste Abfrageleistung, kann aber teuer sein. Das Zwischenspeichern auf SSDs ist eine hervorragende Möglichkeit zur Verbesserung der Abfrageleistung, ohne dass ein Cluster mit einer Größe erstellt werden muss, die für das Einfügen des gesamten Datasets in den Arbeitsspeicher ausreicht. Weitere Informationen finden Sie unter Verbessern der Leistung von Apache Spark-Workloads per Azure HDInsight IO Cache. | | Integration mit BI-Tools |Spark-Cluster in HDInsight bieten Connectors für BI-Tools wie Power BI für die Datenanalyse. | | Vorab geladene Anaconda-Bibliotheken |Spark-Cluster in HDInsight verfügen über vorinstallierte Anaconda-Bibliotheken. Anaconda bietet ca. 200 Bibliotheken für Machine Learning, Datenanalyse, Visualisierung usw. | | Anpassungsfähigkeit | HDInsight ermöglicht es Ihnen, die Anzahl der Clusterknoten dynamisch mit dem Autoskalierungsfeature zu ändern. Weitere Informationen finden Sie unter Automatisches Skalieren von Azure HDInsight-Clustern. Darüber hinaus können Spark-Cluster ohne Datenverlust verworfen werden, da alle Daten in Azure Blob Storage oder Azure Data Lake Storage Gen2 gespeichert werden. | | SLA |Spark-Cluster in HDInsight verfügen über 24/7-Support und eine SLA von 99,9 % Verfügbarkeit. |

Apache Spark-Cluster in HDInsight enthalten die folgenden Komponenten, die standardmäßig in den Clustern verfügbar sind:

HDInsight Spark-Cluster verfügen über einen ODBC-Treiber für Verbindungen von BI-Tools wie Microsoft Power BI.

Spark-Clusterarchitektur

Die Architektur von HDInsight Spark

Die Komponenten von Spark können Sie ganz einfach verstehen, wenn Sie sich mit der Ausführung von Spark in HDInsight-Clustern vertraut machen.

Spark-Anwendungen werden in einem Cluster als unabhängige Gruppen von Prozessen ausgeführt. Sie werden vom SparkContext-Objekt in Ihrem Hauptprogramm (dem sogenannten Treiberprogramm) koordiniert.

Das SparkContext-Objekt kann eine Verbindung mit mehreren Arten von Cluster-Managern herstellen, die anwendungsübergreifend Ressourcen zuteilen. Zu diesen Cluster-Managern zählen unter anderem Apache Mesos, Apache Hadoop YARN und der Spark-Cluster-Manager. In HDInsight wird Spark über den YARN-Cluster-Manager ausgeführt. Nach der Verbindungsherstellung ruft Spark Executors für Workerknoten im Cluster ab. Dabei handelt es sich um Prozesse, die Berechnungen ausführen und Daten für Ihre Anwendung speichern. Als Nächstes wird Ihr Anwendungscode (definiert durch JAR- oder Python-Dateien, die an SparkContext übergeben werden) an die Executors gesendet. Abschließend sendet SparkContext Aufgaben zur Ausführung an die Executors.

Das SparkContext-Objekt führt die main-Funktion des Benutzers und dann die verschiedenen parallelen Vorgänge auf den Workerknoten aus. Anschließend sammelt es die Ergebnisse der Vorgänge. Die Workerknoten lesen und schreiben Daten aus dem und in das Hadoop Distributed File System. Außerdem speichern die Workerknoten transformierte Daten im Arbeitsspeicher als RDDs (Resilient Distributed Datasets).

Das SparkContext-Objekt stellt eine Verbindung mit dem Spark-Master her und ist für die Konvertierung einer Anwendung in einen gerichteten (azyklischen) Graphen individueller Aufgaben verantwortlich. Die Aufgaben werden im Rahmen eines Executor-Prozesses auf den Workerknoten ausgeführt. Jede Anwendung erhält eigene Executorprozesse, die über die gesamte Anwendungsdauer aktiv bleiben und Aufgaben in mehreren Threads ausführen.

Anwendungsfälle für Spark in HDInsight

Spark-Cluster in HDInsight ermöglichen die folgenden Schlüsselszenarien:

Interaktive Datenanalyse und BI

Bei Apache Spark in HDInsight werden Daten in Azure Blob Storage und Azure Data Lake Storage Gen2 gespeichert. Experten und Entscheidungsträger in Unternehmen können diese Daten analysieren und entsprechende Berichte erstellen. Außerdem können sie mithilfe von Microsoft Power BI interaktive Berichte auf der Grundlage der analysierten Daten generieren. Analysten können mit unstrukturierten oder teilweise strukturierten Daten im Clusterspeicher beginnen, mit Notebooks ein Schema für die Daten definieren und dann mit Microsoft Power BI Datenmodelle erstellen. Von Spark-Clustern in HDInsight werden auch zahlreiche BI-Drittanbietertools unterstützt (beispielsweise Tableau), was für Datenanalysten, Unternehmensexperten und Entscheidungsträger praktisch ist.

Spark Machine Learning

Apache Spark verfügt über MLlib. Dabei handelt es sich um eine Machine Learning-Bibliothek, die auf Spark aufbaut und über einen Spark-Cluster in HDInsight verwendet werden kann. Zu Spark-Clustern in HDInsight gehört auch Anaconda – eine Python-Distribution mit verschiedenen Paketen für Machine Learning. In Kombination mit der integrierten Unterstützung von Jupyter- und Zeppelin-Notebooks erhalten Sie eine Umgebung zur Erstellung von Machine Learning-Anwendungen.

Streaming und Echtzeit-Datenanalysen mit Spark

Spark-Cluster in HDInsight bieten umfassende Unterstützung für die Erstellung von Echtzeit-Analyselösungen. Spark verfügt bereits über Connectors für die Datenerfassung aus verschiedensten Quellen wie Kafka, Flume, Twitter, ZeroMQ oder TCP-Sockets. Mit Spark in HDInsight wird das Angebot zusätzlich durch eine erstklassige Unterstützung der Datenerfassung aus Azure Event Hubs erweitert. Event Hubs ist der Warteschlangendienst, der in Azure am häufigsten verwendet wird. Die vollständige Event Hubs-Unterstützung macht Spark-Cluster in HDInsight zur idealen Plattform für die Erstellung von Echtzeit-Analysepipelines.

Nächste Schritte

In dieser Übersicht haben Sie einige grundlegende Informationen zu Apache Spark in Azure HDInsight erhalten. In den folgenden Artikeln erfahren Sie mehr zu Apache Spark in HDInsight, und Sie können einen HDInsight Spark-Cluster erstellen und einige Spark-Beispielabfragen ausführen: