Início Rápido: Criar cluster do Apache Kafka no Azure HDInsight usando o portal do Azure
O Apache Kafka é uma plataforma de streaming distribuída de software livre. Ela é geralmente usada como um agente de mensagens, pois fornece funcionalidade semelhante a uma fila de mensagens para publicação e assinatura.
Neste início rápido, você aprenderá a criar um cluster do Apache Kafka usando o portal do Azure. Você também aprenderá a usar os utilitários incluídos para enviar e receber mensagens usando o Apache Kafka. Para obter explicações detalhadas sobre as configurações disponíveis, confira Configurar clusters no HDInsight. Para obter mais informações sobre o uso do portal para criar clusters, confira Criar clusters no portal.
Aviso
A cobrança de clusters HDInsight é proporcional por minuto, independentemente de você utilizá-los ou não. Certifique-se de excluir o cluster após utilizá-lo. Consulte como excluir um cluster HDInsight.
A API do Apache Kafka só pode ser acessada por recursos dentro da mesma rede virtual. Neste início rápido, você acessará o cluster diretamente no SSH. Para conectar a outros serviços, redes ou máquinas virtuais ao Apache Kafka, primeiro crie uma rede virtual e, depois, crie os recursos na rede. Para saber mais, confira o documento Conectar-se ao Apache Kafka usando uma rede virtual. Para obter mais informações gerais sobre como planejar redes virtuais para o HDInsight, confira Planejar uma rede virtual para o Azure HDInsight.
Se você não tiver uma assinatura do Azure, crie uma conta gratuita antes de começar.
Pré-requisitos
Um cliente SSH. Para saber mais, confira Conectar-se ao HDInsight (Apache Hadoop) usando SSH.
Criar um cluster do Apache Kafka
Para criar um cluster do Apache Kafka no HDInsight, use as seguintes etapas:
Entre no portal do Azure.
No menu superior, selecione + Criar um recurso.
Selecione Análise>Azure HDInsight para acessar a página Criar cluster HDInsight.
Na guia Informações Básicas, forneça as seguintes informações:
Propriedade Descrição Subscription Na lista suspensa, selecione a assinatura do Azure usada para o cluster. Resource group Crie um grupo de recursos ou selecione um grupo de recursos existente. Um grupo de recursos é um contêiner de componentes do Azure. Nesse caso, o grupo de recursos contém o cluster HDInsight e a conta de Armazenamento do Azure dependente. Nome do cluster Insira um nome global exclusivo. O nome pode ter até 59 caracteres incluindo letras, números e hifens. O primeiro e último caracteres do nome não podem ser hifens. Região Na lista suspensa, selecione uma região em que o cluster foi criado. Escolha uma região mais próxima a você para obter melhor desempenho. Tipo de cluster Escolha Selecionar tipo de cluster para abrir uma lista. Na lista, selecione Kafka como o tipo de cluster. Versão A versão padrão do tipo de cluster será especificada. Selecione na lista suspensa se desejar especificar uma versão diferente. Nome de usuário e senha de logon do cluster O nome padrão de logon é admin
. A senha precisa ter no mínimo 10 caracteres e precisa conter pelo menos um dígito, uma letra maiúscula, uma minúscula e um caractere não alfanumérico (exceto pelos caracteres' ` "
). Não forneça senhas comuns, comoPass@word1
.Nome de usuário do Secure Shell (SSH) O nome de usuário padrão é sshuser
. Você pode fornecer outro nome para o nome de usuário de SSH.Usar senha de logon do cluster para SSH Marque essa caixa de seleção para usar a mesma senha para o usuário SSH que aquela fornecida para o usuário de logon do cluster. Cada região do Azure (local) fornece domínios de falha. Um domínio de falha é um agrupamento lógico de hardware subjacente em um data center do Azure. Cada domínio de falha tem um comutador de rede e uma fonte de alimentação em comum. As máquinas virtuais e os discos gerenciados que implementam os nós em um cluster HDInsight são distribuídos entre esses domínios de falha. Essa arquitetura limita o possível impacto de falhas físicas de hardware.
Para alta disponibilidade dos dados, selecione uma região (local) que contenha três domínios de falha. Para obter informações sobre o número de domínios de falha em uma região, consulte o documento Disponibilidade de máquinas virtuais do Linux.
Selecione a guia Avançar: Armazenamento >> para acessar as configurações de armazenamento.
Na guia Armazenamento, forneça os seguintes valores:
Propriedade Descrição Tipo de armazenamento primário Use o valor padrão Armazenamento do Azure. Método de seleção Use o valor padrão Selecione na lista. Conta de armazenamento primária Use a lista suspensa para selecionar uma conta de armazenamento existente ou selecione Criar. Se você criar uma conta, o nome deverá ter entre 3 e 24 caracteres e poderá incluir apenas números e letras minúsculas Contêiner Use o valor preenchido automaticamente. Selecione a guia Segurança + rede.
Para este início rápido, deixe as configurações de segurança padrão. Para saber mais sobre o pacote Enterprise Security, visite Configurar um cluster HDInsight com o Enterprise Security Package usando o Microsoft Entra Domain Services. Para saber como usar sua chave para Criptografia de Disco do Apache Kafka, acesse Criptografia de disco de chave gerenciada pelo cliente
Se você deseja conectar seu cluster a uma rede virtual, selecione uma rede virtual na lista suspensa Rede virtual.
Selecione a guia Configuração + preços.
Para garantir a disponibilidade do Apache Kafka no HDInsight, a entrada número de nós para Nó de trabalho deve ser definida como 3 ou superior. O valor padrão é 4.
A entrada Discos padrão por nó de trabalho configura a escalabilidade do Apache Kafka no HDInsight. O Apache Kafka no HDInsight usa o disco local das máquinas virtuais no cluster para armazenar dados. Como o Apache Kafka tem E/S bastante pesadas, os Azure Managed Disks são usados para fornecer alta taxa de transferência e mais armazenamento por nó. O tipo de disco gerenciado pode ser Standard (HDD) ou Premium (SSD). O tipo de disco depende do tamanho da VM usado pelos nós de trabalho (agentes do Apache Kafka). Os discos Premium são usados automaticamente com VMs das séries DS e GS. Todos os outros tipos VM usam o padrão.
Selecione a guia Examinar + criar.
Examine a configuração do cluster. Altere as configurações incorretas. Finalmente, selecione Criar para criar o cluster.
Pode levar até 20 minutos para criar o cluster.
Conectar-se ao cluster
Use o comando ssh para se conectar ao cluster. Edite o comando abaixo substituindo CLUSTERNAME pelo nome do cluster e, em seguida, insira o comando:
ssh sshuser@CLUSTERNAME-ssh.azurehdinsight.net
Quando solicitado, insira a senha do usuário SSH.
Após a conexão, você verá informações semelhantes ao seguinte texto:
Authorized uses only. All activity may be monitored and reported. Welcome to Ubuntu 16.04.4 LTS (GNU/Linux 4.13.0-1011-azure x86_64) * Documentation: https://help.ubuntu.com * Management: https://landscape.canonical.com * Support: https://ubuntu.com/advantage Get cloud support with Ubuntu Advantage Cloud Guest: https://www.ubuntu.com/business/services/cloud 83 packages can be updated. 37 updates are security updates. Welcome to Apache Kafka on HDInsight. Last login: Thu Mar 29 13:25:27 2018 from 108.252.109.241
Obter as informações de host do Apache Zookeeper e do Broker
Ao trabalhar com Kafka, você deve conhecer os hosts do Apache Zookeeper e Broker. Esses hosts são usados com a API do Apache Kafka e muitos dos utilitários fornecidos com o Kafka.
Nesta seção, você obtém as informações do host da API REST do Apache Ambari no cluster.
Instale jq, um processador JSON de linha de comando. Esse utilitário é usado para analisar documentos JSON e é útil para analisar as informações do host. Na conexão SSH aberta, digite o seguinte comando para instalar o
jq
:sudo apt -y install jq
Configurar variável de senha. Substitua
PASSWORD
pela senha de logon do cluster e insira o comando:export PASSWORD='PASSWORD'
Extraia o nome do cluster com grafia correta de maiúsculas e minúsculas. A grafia de maiúsculas e minúsculas real do nome do cluster pode ser diferente do esperado, dependendo de como o cluster foi criado. Esse comando obterá a grafia de maiúsculas e minúsculas real e a armazenará em uma variável. Insira o seguinte comando:
export CLUSTER_NAME=$(curl -u admin:$PASSWORD -sS -G "http://headnodehost:8080/api/v1/clusters" | jq -r '.items[].Clusters.cluster_name')
Observação
Se você estiver realizando esse processo de fora do cluster, haverá um procedimento diferente para armazenar o nome do cluster. Obtenha o nome do cluster em letras minúsculas do portal do Azure. Em seguida, substitua o nome do cluster por
<clustername>
no comando a seguir e execute-o:export clusterName='<clustername>'
.Para definir uma variável de ambiente com informações de host Zookeeper, use o comando especificado abaixo. O comando recupera todos os hosts Zookeeper e retorna apenas as duas primeiras entradas. Isso ocorre porque você deseja certa redundância no caso de um host ficar inacessível.
export KAFKAZKHOSTS=$(curl -sS -u admin:$PASSWORD -G https://$CLUSTER_NAME.azurehdinsight.net/api/v1/clusters/$CLUSTER_NAME/services/ZOOKEEPER/components/ZOOKEEPER_SERVER | jq -r '["\(.host_components[].HostRoles.host_name):2181"] | join(",")' | cut -d',' -f1,2);
Observação
Este comando requer acesso do Ambari. Se o cluster estiver atrás de um NSG, execute esse comando em um computador que possa acessar o Ambari.
Para verificar se a variável de ambiente é definida corretamente, use o seguinte comando:
echo $KAFKAZKHOSTS
Esse comando retorna informações semelhantes ao seguinte texto:
<zookeepername1>.eahjefxxp1netdbyklgqj5y1ud.ex.internal.cloudapp.net:2181,<zookeepername2>.eahjefxxp1netdbyklgqj5y1ud.ex.internal.cloudapp.net:2181
Para definir uma variável de ambiente com informações de host agente do Apache Kafka, use o seguinte comando:
export KAFKABROKERS=$(curl -sS -u admin:$PASSWORD -G https://$CLUSTER_NAME.azurehdinsight.net/api/v1/clusters/$CLUSTER_NAME/services/KAFKA/components/KAFKA_BROKER | jq -r '["\(.host_components[].HostRoles.host_name):9092"] | join(",")' | cut -d',' -f1,2);
Observação
Este comando requer acesso do Ambari. Se o cluster estiver atrás de um NSG, execute esse comando em um computador que possa acessar o Ambari.
Para verificar se a variável de ambiente é definida corretamente, use o seguinte comando:
echo $KAFKABROKERS
Esse comando retorna informações semelhantes ao seguinte texto:
<brokername1>.eahjefxxp1netdbyklgqj5y1ud.cx.internal.cloudapp.net:9092,<brokername2>.eahjefxxp1netdbyklgqj5y1ud.cx.internal.cloudapp.net:9092
Gerenciar tópicos do Apache Kafka
O Kafka armazena fluxos de dados em tópicos. Você pode usar o utilitário kafka-topics.sh
para gerenciar tópicos.
Para criar um tópico, use o seguinte comando para criar uma conexão SSH:
/usr/hdp/current/kafka-broker/bin/kafka-topics.sh --create --replication-factor 3 --partitions 8 --topic test --bootstrap-server $KAFKABROKERS
Esse comando se conecta ao Broker usando as informações de host armazenadas em
$KAFKABROKERS
. Depois, ele cria um tópico do Apache Kafka chamado teste.Os dados armazenados neste tópico são particionados em oito partições.
Cada partição é replicada em três nós de trabalho no cluster.
Se você tiver criado o cluster em uma região do Azure que fornece três domínios de falha, use um fator de replicação de 3. Caso contrário, use um fator de replicação de 4.
Em regiões com três domínios de falha, um fator de replicação de 3 permite a distribuição das réplicas entre os domínios de falha. Em regiões com dois domínios de falha, um fator de replicação de quatro permite a distribuição uniforme das réplicas entre os domínios.
Para obter informações sobre o número de domínios de falha em uma região, consulte o documento Disponibilidade de máquinas virtuais do Linux.
O Apache Kafka não reconhece os domínios de falha do Azure. Durante a criação de réplicas da partição para tópicos, ele não poderá distribuir réplicas corretamente para alta disponibilidade.
Para garantir a alta disponibilidade, use a Ferramenta de redistribuição de partição do Apache Kafka. Essa ferramenta deve ser executada em uma sessão SSH para o nó principal do seu cluster Apache Kafka.
Para ter a mais alta disponibilidade de seus dados do Apache Kafka, balanceie novamente as réplicas de partição do tópico quando:
Você criar um novo tópico ou partição
Você escalar um cluster verticalmente
Para listar os tópicos, use o seguinte comando:
/usr/hdp/current/kafka-broker/bin/kafka-topics.sh --list --bootstrap-server $KAFKABROKERS
Esse comando lista os tópicos disponíveis no cluster Apache Kafka.
Para excluir um tópico, use o seguinte comando:
/usr/hdp/current/kafka-broker/bin/kafka-topics.sh --delete --topic topicname --bootstrap-server $KAFKABROKERS
Esse comando exclui o tópico chamado
topicname
.Aviso
Se você excluir o tópico
test
criado anteriormente, deverá recriá-lo. Isso é usado em etapas posteriores neste documento.
Para saber mais sobre os comandos disponíveis com o utilitário kafka-topics.sh
, use o seguinte comando:
/usr/hdp/current/kafka-broker/bin/kafka-topics.sh
Produzir e consumir registros
O Kafka armazena registros nos tópicos. Os registros são produzidos por produtores e consumidos por consumidores. Os produtores e consumidores se comunicam com o serviço Agente de Kafka. Cada nó de trabalho no cluster do HDInsight é um host de agente do Apache Kafka.
Para armazenar registros no tópico teste criado anteriormente e lê-los usando um consumidor, use as seguintes etapas:
Para gravar registros no tópico, use o utilitário
kafka-console-producer.sh
da conexão SSH:/usr/hdp/current/kafka-broker/bin/kafka-console-producer.sh --broker-list $KAFKABROKERS --topic test
Após esse comando, você chega em uma linha em branco.
Digite uma mensagem de texto na linha em branco e pressione enter. Insira algumas mensagens dessa forma e depois use Ctrl + C para retornar ao prompt normal. Cada linha é enviada como um registro separado para o tópico Apache Kafka.
Para ler registros no tópico, use o utilitário
kafka-console-consumer.sh
da conexão SSH:/usr/hdp/current/kafka-broker/bin/kafka-console-consumer.sh --bootstrap-server $KAFKABROKERS --topic test --from-beginning
Esse comando recupera os registros do tópico e os exibe. O uso de
--from-beginning
instrui o consumidor a começar do início do fluxo, para que todos os registros sejam recuperados.Se estiver usando uma versão mais antiga do Kafka, substitua
--bootstrap-server $KAFKABROKERS
por--zookeeper $KAFKAZKHOSTS
.Use Ctrl + C para interromper o consumidor.
Você também pode criar programaticamente produtores e consumidores. Para obter um exemplo de como usar essa API, confira o documento API do Produtor e Consumidor do Apache Kafka com HDInsight.
Limpar os recursos
Para limpar os recursos criados por este início rápido, você pode excluir o grupo de recursos. A exclusão do grupo de recursos também exclui o cluster HDInsight associado e todos os outros recursos associados ao grupo de recursos.
Para remover o grupo de recursos usando o portal do Azure:
- No portal do Azure, expanda o menu à esquerda para abrir o menu de serviços e escolha Grupo de Recursos para exibir a lista dos seus grupos de recursos.
- Localize o grupo de recursos a ser excluído e clique com o botão direito do mouse no botão Mais (...) do lado direito da lista.
- Selecione Excluir grupo de recursos e confirme.
Aviso
A exclusão de um cluster do Apache Kafka no HDInsight exclui todos os dados armazenados no Kafka.