Compartilhar via


azdata bdc

Aplica-se a: CLI de Dados do Azure (azdata)

Observação

Alguns cenários tratados anteriormente pela CLI de Dados do Azure (azdata) agora são gerenciados por meio de extensões da CLI do Azure (az) e fluxos de trabalho baseados no Azure Arc. Não há uma única substituição 1:1 para todos os azdata comandos. A tabela a seguir realça alternativas da CLI do Azure comumente relacionadas onde elas existem.

azdata command area Extensão/grupo de comandos da CLI do Azure Referência do Azure CLI
azdata arc dc * az arcdata Referência da CLI de dados do Azure Arc
azdata arc sql mi * az arcdata sql mi Gerenciar a Instância Gerenciada de SQL do Azure com a CLI
azdata arc postgres * az arcdata postgres Gerenciar o servidor PostgreSQL com a CLI
azdata migrate * az datamigration Migrar usando a CLI
azdata extension * az extension * Visão geral das extensões da CLI do Azure
azdata login az login az login
azdata sql shell / azdata sql query Nenhuma CLI do Azure equivalente (use sqlcmd, SSMS ou outras ferramentas SQL) Utilitário sqlcmd

SQL Server Management Studio

Para novos cenários de automação e gerenciamento, prefira a CLI do Azure (az), as extensões da CLI do Azure e as experiências do portal do Azure Arc.

O artigo a seguir fornece referência para os comandos sql na ferramenta azdata. Para obter mais informações sobre outros comandos de azdata, confira referência de azdata.

Comandos

Command Descrição
azdata bdc create Criar cluster de Big Data.
azdata bdc delete Excluir Cluster de Big Data.
azdata bdc upgrade Atualize as imagens implantadas em cada contêiner no Cluster de Big Data do SQL Server.
azdata bdc config Comandos de configuração.
azdata bdc endpoint Comandos de ponto de extremidade.
azdata bdc debug Comandos de depuração.
azdata bdc status Comandos de status de Clusters de Big Data.
azdata bdc control Comandos de serviço de controle.
azdata bdc sql Comandos de serviço sql.
azdata bdc hdfs Comandos de serviço hdfs.
azdata bdc spark Comandos de serviço do Spark.
azdata bdc gateway Comandos de serviço de gateway.
azdata bdc app Comandos do serviço de aplicativo.
azdata bdc hdfs O módulo HDFS fornece comandos para acessar um sistema de arquivos HDFS.
azdata bdc settings Comandos de configurações de Clusters de Big Data.
azdata bdc spark Os comandos do Spark permitem que o usuário interaja com o sistema Spark criando e gerenciando sessões, instruções e lotes.
azdata bdc rotate Esse comando gira as senhas de contas do AD geradas automaticamente em um cluster de Big Data. Para obter mais informações, consulte a visão geral da rotação de senha do AD.

azdata bdc create

Criar um Cluster de Big Data do SQL Server – a configuração do Kubernetes é necessária em seu sistema, juntamente com as seguintes variáveis de ambiente ['AZDATA_USERNAME', 'AZDATA_PASSWORD'].

azdata bdc create [--name -n] 
                  [--config-profile -c]  
                  
[--accept-eula -a]  
                  
[--node-label -l]  
                  
[--force -f]

Exemplos

Experiência de implantação de Clusters de Big Data do SQL Server guiado – você receberá prompts para os valores necessários.

azdata bdc create

Implantação de Clusters de Big Data com argumentos e perfil de configuração personalizado que foi inicializado por meio de azdata bdc config init.

azdata bdc create --accept-eula yes --config-profile ./path/to/config/profile

Implantação de Clusters de Big Data com o nome do cluster personalizado especificado e um perfil de configuração padrão aks-dev-test.

azdata bdc create --name <cluster_name> --accept-eula yes --config-profile aks-dev-test

Implantação de Clusters de Big Data com argumentos – nenhum prompt será fornecido à medida que o sinalizador --force for usado.

azdata bdc create --accept-eula yes --config-profile aks-dev-test --force

Parâmetros opcionais

--name -n

Nome do cluster de Big Data, usado para namespaces do kubernetes.

--config-profile -c

Perfil de configuração de cluster de Big Data, usado para implantar o cluster: ['kubeadm-dev-test', 'kubeadm-prod', 'openshift-prod', 'aks-dev-test-ha', 'aks-dev-test', 'aro-dev-test', 'openshift-dev-test', 'aro-dev-test-ha']

--accept-eula -a

Você aceita os termos de licença? [sim/não]. Se você não quiser usar esse arg, poderá definir a variável de ambiente ACCEPT_EULA como "sim". Os termos de licença para azdata podem ser exibidos em https://aka.ms/eula-azdata-en.

--node-label -l

Rótulo de nó de cluster de Big Data, usado para designar em quais nós implantar.

--force -f

Force a criação, o usuário não será solicitado a obter valores e todos os problemas serão impressos como parte do stderr.

Argumentos globais

--debug

Aumente a verbosidade de log para mostrar todos os logs de depuração.

--help -h

Mostre esta mensagem de ajuda e saia.

--output -o

Formato de saída. Valores permitidos: json, jsonc, table, tsv. Padrão: json.

--query -q

Cadeia de caracteres de consulta JMESPath. Consulte http://jmespath.org/ para obter mais informações e exemplos.

--verbose

Aumentar a verbosidade do registro em log. Use --debug para logs de depuração completos.

azdata bdc delete

Excluir o Cluster de Big Data do SQL Server – a configuração do Kubernetes é necessária em seu sistema.

azdata bdc delete --name -n 
                  [--force -f]

Exemplos

Clusters de Big Data excluídos.

azdata bdc delete --name <cluster_name>

Parâmetros Necessários

--name -n

Nome do cluster de Big Data, usado para o namespace do kubernetes.

Parâmetros opcionais

--force -f

Forçar a exclusão do cluster de Big Data.

Argumentos globais

--debug

Aumente a verbosidade de log para mostrar todos os logs de depuração.

--help -h

Mostre esta mensagem de ajuda e saia.

--output -o

Formato de saída. Valores permitidos: json, jsonc, table, tsv. Padrão: json.

--query -q

Cadeia de caracteres de consulta JMESPath. Consulte http://jmespath.org/ para obter mais informações e exemplos.

--verbose

Aumentar a verbosidade do registro em log. Use --debug para logs de depuração completos.

azdata bdc upgrade

Atualize as imagens implantadas em cada contêiner no Cluster de Big Data do SQL Server. As imagens atualizadas são baseadas na imagem do Docker passada. Se as imagens atualizadas forem de um repositório de imagem do Docker diferente das imagens implantadas no momento, o parâmetro "repositório" também será necessário.

azdata bdc upgrade --name -n 
                   --tag -t  
                   
[--repository -r]  
                   
[--controller-timeout -k]  
                   
[--stability-threshold -s]  
                   
[--component-timeout -p]  
                   
[--force -f]

Exemplos

Os Clusters de Big Data são atualizados para uma nova marca de imagem "cu2" do mesmo repositório.

azdata bdc upgrade -t cu2

Os Clusters de Big Data são atualizados para novas imagens com a marca "cu2" de um novo repositório "foo/bar/baz".

azdata bdc upgrade -t cu2 -r foo/bar/baz

Os Clusters de Big Data são atualizados para novas imagens com a marca "cu2" do mesmo repositório. A atualização aguardará 30 minutos para que o controlador atualize e 30 minutos para que o banco de dados do controlador seja atualizado. Em seguida, ele aguardará a execução do controlador e do controlador por três minutos sem falhar ao atualizar o restante do cluster. Cada fase subsequente da atualização terá quarenta minutos para ser concluída.

azdata bdc upgrade -t cu2 --controller-timeout=30 --component-timeout=40 --stability-threshold=3

Parâmetros Necessários

--name -n

Nome do cluster de Big Data, usado para namespaces do kubernetes.

--tag -t

A marca de imagem do docker de destino para a qual atualizar todo o contêiner no cluster.

Parâmetros opcionais

--repository -r

O repositório do Docker para que todos os contêineres no cluster efetuem pull de suas imagens.

--controller-timeout -k

O número de minutos para aguardar a atualização do controlador ou do banco de dados do controlador antes de reverter a atualização.

--stability-threshold -s

O número de minutos a aguardar após uma atualização antes de marcá-la como estável.

--component-timeout -p

O número de minutos a aguardar a conclusão de cada fase da atualização (após a atualização do controlador) antes de pausar a atualização.

--force -f

Se estiver presente, ignorará a verificação de integridade do cluster antes de iniciar a atualização

Argumentos globais

--debug

Aumente a verbosidade de log para mostrar todos os logs de depuração.

--help -h

Mostre esta mensagem de ajuda e saia.

--output -o

Formato de saída. Valores permitidos: json, jsonc, table, tsv. Padrão: json.

--query -q

Cadeia de caracteres de consulta JMESPath. Consulte http://jmespath.org/ para obter mais informações e exemplos.

--verbose

Aumentar a verbosidade do registro em log. Use --debug para logs de depuração completos.

Próximas Etapas 

Para obter mais informações sobre outros comandos de azdata, confira referência de azdata.

Para saber mais sobre como instalar a ferramenta azdata, confira Instalar azdata.