Filtrar e ingerir para Azure Data Lake Storage Gen2 com o Editor de código do Stream Analytics
Este artigo descreve como pode utilizar o editor sem código para criar facilmente uma tarefa do Stream Analytics. Lê continuamente a partir dos Hubs de Eventos, filtra os dados recebidos e, em seguida, escreve os resultados continuamente para Azure Data Lake Storage Gen2.
Pré-requisitos
- Os seus recursos de Hubs de Eventos do Azure têm de estar acessíveis publicamente e não estar protegidos por uma firewall ou num Rede Virtual do Azure
- Os dados nos Hubs de Eventos têm de ser serializados no formato JSON, CSV ou Avro.
Desenvolver uma tarefa do Stream Analytics para filtrar e ingerir dados em tempo real
No portal do Azure, localize e selecione a instância Hubs de Eventos do Azure.
Selecione Funcionalidades>Processar Dados e, em seguida, selecione Iniciar no cartão Filtrar e ingerir no ADLS Gen2 .
Introduza um nome para a tarefa do Stream Analytics e, em seguida, selecione Criar.
Especifique o tipo de Serialização dos seus dados na janela Hubs de Eventos e o método de Autenticação que a tarefa utilizará para ligar aos Hubs de Eventos. Em seguida, selecione Ligar.
Se a ligação for estabelecida com êxito e tiver fluxos de dados a fluir para a instância dos Hubs de Eventos, verá imediatamente duas coisas:
- Campos que estão presentes nos dados de entrada. Pode escolher Adicionar campo ou selecionar o símbolo de três pontos junto a cada campo para remover, mudar o nome ou alterar o respetivo tipo.
- Um exemplo dinâmico de dados recebidos na tabela Pré-visualização de dados na vista de diagrama. Atualiza-se automaticamente periodicamente. Pode selecionar Colocar em pausa a pré-visualização da transmissão em fluxo para ver uma vista estática dos dados de entrada de exemplo.
- Campos que estão presentes nos dados de entrada. Pode escolher Adicionar campo ou selecionar o símbolo de três pontos junto a cada campo para remover, mudar o nome ou alterar o respetivo tipo.
Selecione o mosaico Filtro . Na área Filtro , selecione um campo para filtrar os dados recebidos com uma condição.
Selecione o mosaico Azure Data Lake Storage Gen2. Selecione a conta do Azure Data Lake Gen2 para enviar os dados filtrados:
- Selecione a subscrição, o nome da conta de armazenamento e o contentor no menu pendente.
- Após a seleção da subscrição , o método de autenticação e a chave da conta de armazenamento devem ser preenchidos automaticamente. Selecione Ligar.
Para obter mais informações sobre os campos e para ver exemplos de padrão de caminho, veja Armazenamento de blobs e saída do Azure Data Lake Gen2 do Azure Stream Analytics.
Opcionalmente, selecione Obter pré-visualização estática/Atualizar pré-visualização estática para ver a pré-visualização de dados que será ingerida a partir de Azure Data Lake Storage Gen2.
Selecione Guardar e, em seguida, selecione Iniciar a tarefa do Stream Analytics.
Para iniciar a tarefa, especifique o número de Unidades de Transmissão em Fluxo (SUs) com que a tarefa é executada. As SUs representam a quantidade de computação e memória alocadas à tarefa. Recomendamos que comece com três e, em seguida, ajuste conforme necessário.
Depois de selecionar Iniciar, a tarefa começa a ser executada dentro de dois minutos e as métricas serão abertas na secção de separadores abaixo.
Pode ver a tarefa na secção Processar Dados no separador Tarefas do Stream Analytics . Selecione Atualizar até ver o estado da tarefa como Em Execução. Selecione Abrir métricas para monitorizá-lo ou parar e reiniciá-lo, conforme necessário.
Segue-se uma página de Métricas de exemplo:
Verificar dados no Data Lake Storage
Deverá ver os ficheiros criados no contentor que especificou.
Transfira e abra o ficheiro para confirmar que vê apenas os dados filtrados. No exemplo seguinte, verá dados com SwitchNum definidos como E.U.A.
{"RecordType":"MO","SystemIdentity":"d0","FileNum":"548","SwitchNum":"US","CallingNum":"345697969","CallingIMSI":"466921402416657","CalledNum":"012332886","CalledIMSI":"466923101048691","DateS":"20220524","TimeType":0,"CallPeriod":0,"ServiceType":"S","Transfer":0,"OutgoingTrunk":"419","MSRN":"1416960750071","callrecTime":"2022-05-25T02:07:10Z","EventProcessedUtcTime":"2022-05-25T02:07:50.5478116Z","PartitionId":0,"EventEnqueuedUtcTime":"2022-05-25T02:07:09.5140000Z", "TimeS":null,"CallingCellID":null,"CalledCellID":null,"IncomingTrunk":null,"CalledNum2":null,"FCIFlag":null} {"RecordType":"MO","SystemIdentity":"d0","FileNum":"552","SwitchNum":"US","CallingNum":"012351287","CallingIMSI":"262021390056324","CalledNum":"012301973","CalledIMSI":"466922202613463","DateS":"20220524","TimeType":3,"CallPeriod":0,"ServiceType":"V","Transfer":0,"OutgoingTrunk":"442","MSRN":"886932428242","callrecTime":"2022-05-25T02:07:13Z","EventProcessedUtcTime":"2022-05-25T02:07:50.5478116Z","PartitionId":0,"EventEnqueuedUtcTime":"2022-05-25T02:07:12.7350000Z", "TimeS":null,"CallingCellID":null,"CalledCellID":null,"IncomingTrunk":null,"CalledNum2":null,"FCIFlag":null} {"RecordType":"MO","SystemIdentity":"d0","FileNum":"559","SwitchNum":"US","CallingNum":"456757102","CallingIMSI":"466920401237309","CalledNum":"345617823","CalledIMSI":"466923000886460","DateS":"20220524","TimeType":1,"CallPeriod":696,"ServiceType":"V","Transfer":1,"OutgoingTrunk":"419","MSRN":"886932429155","callrecTime":"2022-05-25T02:07:22Z","EventProcessedUtcTime":"2022-05-25T02:07:50.5478116Z","PartitionId":0,"EventEnqueuedUtcTime":"2022-05-25T02:07:21.9190000Z", "TimeS":null,"CallingCellID":null,"CalledCellID":null,"IncomingTrunk":null,"CalledNum2":null,"FCIFlag":null}
Passos seguintes
Saiba mais sobre o Azure Stream Analytics e como monitorizar a tarefa que criou.
Comentários
https://aka.ms/ContentUserFeedback.
Brevemente: Ao longo de 2024, vamos descontinuar progressivamente o GitHub Issues como mecanismo de feedback para conteúdos e substituí-lo por um novo sistema de feedback. Para obter mais informações, veja:Submeter e ver comentários