Condividi tramite


Configurare un cluster Big Data di SQL Server

Si applica a: SQL Server 2019 (15.x)

Importante

Il componente aggiuntivo per i cluster Big Data di Microsoft SQL Server 2019 verrà ritirato. Il supporto per i cluster Big Data di SQL Server 2019 terminerà il 28 febbraio 2025. Tutti gli utenti esistenti di SQL Server 2019 con Software Assurance saranno completamente supportati nella piattaforma e fino a quel momento il software continuerà a ricevere aggiornamenti cumulativi di SQL Server. Per altre informazioni, vedere il post di blog relativo all'annuncio e Opzioni per i Big Data nella piattaforma Microsoft SQL Server.

La gestione della configurazione consente agli amministratori di assicurarsi che il cluster Big Data sia sempre preparato per le esigenze del carico di lavoro. Con questa funzionalità, gli amministratori del cluster possono modificare o ottimizzare varie parti del cluster Big Data in fase di distribuzione o post-distribuzione e ottenere informazioni più dettagliate sulle configurazioni in esecuzione nel cluster Big Data.

La gestione della configurazione consente a un amministratore di abilitare SQL Agent, definire le risorse di base per i processi Spark dell'organizzazione o anche vedere quali impostazioni sono configurabili in ogni ambito. In fase di distribuzione, le configurazioni possono essere configurate con il file bdc.json di distribuzione e la post-distribuzione tramite l'interfaccia della riga di comando azdata.

Ambiti di configurazione

La configurazione di cluster Big Data prevede tre livelli di ambito: cluster, service e resource. Anche la gerarchia delle impostazioni segue in questo ordine, dal più alto al più basso. I componenti BDC accetteranno il valore dell'impostazione definito nell'ambito più basso. Se l'impostazione non è definita in un ambito specificato, erediterà il valore dall'ambito padre superiore.

Ad esempio, è possibile definire il numero predefinito di core che il driver Spark userà nel pool di archiviazione e le risorse Sparkhead. Per definire il numero predefinito di core, è possibile eseguire una delle azioni seguenti:

  • Specificare un valore di core predefinito nell'ambito del servizio Spark

  • Specificare un valore di core predefinito nell'ambito della risorsa storage-0 e sparkhead

Nel primo scenario tutte le risorse con ambito inferiore del servizio Spark (pool di archiviazione e Sparkhead) ereditano il numero predefinito di core dal valore predefinito del servizio Spark.

Nel secondo scenario ogni risorsa userà il valore definito nel rispettivo ambito.

Se il numero predefinito di core viene configurato sia nell'ambito del servizio sia in quello delle risorse, il valore con ambito risorsa eseguirà l'override del valore con ambito servizio, poiché si tratta dell'ambito configurato dell'utente più basso per l'impostazione specificata.

Passaggi successivi

Per informazioni specifiche sulla configurazione, vedere gli articoli appropriati:

Reference: