Konfigurieren eines Big Data-Clusters in SQL Server

Gilt für: SQL Server 2019 (15.x)

Wichtig

Das Microsoft SQL Server 2019-Big Data-Cluster-Add-On wird eingestellt. Der Support für SQL Server 2019-Big Data-Clusters endet am 28. Februar 2025. Alle vorhandenen Benutzer*innen von SQL Server 2019 mit Software Assurance werden auf der Plattform vollständig unterstützt, und die Software wird bis zu diesem Zeitpunkt weiterhin über kumulative SQL Server-Updates verwaltet. Weitere Informationen finden Sie im Ankündigungsblogbeitrag und unter Big Data-Optionen auf der Microsoft SQL Server-Plattform.

Mithilfe der Konfigurationsverwaltung können Administratoren sicherstellen, dass der Big Data-Cluster immer den Anforderungen der jeweiligen Workloads entspricht. Clusteradministratoren können mit dieser Funktion verschiedene Teile des Big Data-Clusters zum Zeitpunkt der Bereitstellung oder nach der Bereitstellung ändern oder optimieren. Zudem erhalten sie tiefere Einblicke in die Konfigurationen, die in den Big Data-Clusters ausgeführt werden.

Mit der Konfigurationsverwaltung können Administrator*innen den SQL-Agent aktivieren, Baselineressourcen für Spark-Aufträge ihrer Organisation definieren oder erkennen, welche Einstellungen in den einzelnen Bereichen konfigurierbar sind. Zum Zeitpunkt der Bereitstellung können Konfigurationen mithilfe der Bereitstellungsdatei bdc.json und nach der Bereitstellung über die azdata-CLI konfiguriert werden.

Konfigurationsebenen

Big Data-Cluster können auf drei Ebenen konfiguriert werden: cluster, service und resource. Auch die Hierarchie der Einstellungen entspricht dieser Reihenfolge, von oben nach unten. BDC-Komponenten übernehmen den Wert der Einstellung auf, der auf der niedrigsten Ebene definiert ist. Wenn die Einstellung nicht auf einer bestimmten Ebene definiert ist, wird der Wert der übergeordneten Ebene übernommen.

Angenommen, Sie möchten die Standardanzahl der Kerne definieren, die der Spark-Treiber im Speicherpool und in Sparkhead-Ressourcen verwenden soll. Wenn Sie die Standardanzahl der Kerne definieren möchten, können Sie eine der folgenden Aktionen ausführen:

  • Standardwert für Kerne auf der Dienstebene Spark angeben

  • Standardwert für Kerne auf der Ressourcenebene storage-0 und sparkhead angeben

Im ersten Szenario übernehmen alle Ressourcen auf niedrigeren Ebenen des Spark-Diensts (Speicherpool und Sparkhead) die Standardanzahl der Kerne vom Standardwert des Spark-Diensts.

Im zweiten Szenario nutzt jede Ressource den auf ihrer jeweiligen Ebene definierten Wert.

Wenn die Standardanzahl von Kernen sowohl auf Dienst- als auch auf Ressourcenebene konfiguriert ist, überschreibt der Wert für die Ressourcenebene den Wert für die Dienstebene, da dies die niedrigste vom Benutzer konfigurierte Ebene für die gegebene Einstellung ist.

Nächste Schritte

Spezifische Informationen zur Konfiguration finden Sie in den folgenden entsprechenden Artikeln:

Referenz: