Compartilhar via


Configurar um cluster de Big Data do SQL Server

Aplica-se a: SQL Server 2019 (15.x)

Importante

O complemento Clusters de Big Data do Microsoft SQL Server 2019 será desativado. O suporte para Clusters de Big Data do SQL Server 2019 será encerrado em 28 de fevereiro de 2025. Todos os usuários existentes do SQL Server 2019 com Software Assurance terão suporte total na plataforma e o software continuará a ser mantido por meio de atualizações cumulativas do SQL Server até esse momento. Para obter mais informações, confira a postagem no blog de anúncio e as opções de Big Data na plataforma do Microsoft SQL Server.

O gerenciamento de configuração permite aos administradores garantir que o cluster de Big Data esteja sempre preparado para as necessidades de carga de trabalho deles. Com essa funcionalidade, os administradores de cluster podem alterar ou ajustar várias partes do cluster de Big Data no momento da implantação ou após a implantação e obter insights mais aprofundados sobre as configurações em execução no cluster de Big Data deles.

O gerenciamento de configuração permite que um administrador habilite o SQL Agent, defina os recursos de linha de base para os trabalhos do Spark da própria organização ou até mesmo veja quais configurações podem ser definidas em cada escopo. No momento da implantação, as definições podem ser configuradas por meio do arquivo de implantação bdc.json. Na pós-implantação, isso pode ser feito por meio da CLI do azdata.

Escopos de configuração

A configuração de Clusters de Big Data tem três níveis de escopo: cluster, service e resource. A hierarquia das configurações segue nessa ordem também, da mais alta para a mais baixa. Os componentes do BDC utilizarão o valor da configuração definida no escopo mais baixo. Se a configuração não estiver definida em determinado escopo, ela herdará o valor de seu escopo pai mais alto.

Por exemplo, talvez você queira definir o número padrão de núcleos que o driver do Spark usará no pool de armazenamento e nos recursos do Sparkhead. Para definir o número padrão de núcleos, você pode executar uma das seguintes ações:

  • Especifique um valor de núcleos padrão no escopo de serviço Spark

  • Especifique um valor de núcleos padrão no escopo de recurso storage-0 e sparkhead

No primeiro cenário, todos os recursos de escopo inferior do serviço Spark (pool de armazenamento e Sparkhead) herdarão o número padrão de núcleos do valor padrão do serviço Spark.

No segundo cenário, cada recurso usará o valor definido em seu respectivo escopo.

Se o número padrão de núcleos estiver configurado no escopo de serviço e de recurso, o valor do escopo de recurso substituirá o valor do escopo de serviço, pois esse é o escopo mais baixo definido pelo usuário para a configuração especificada.

Próximas etapas

Confira informações específicas sobre a configuração nos artigos apropriados:

Referência: