Compartilhar via


Terminologia do Microsoft Fabric

Conheça as definições de termos usados no Microsoft Fabric, incluindo termos específicos do Data Warehouse do Synapse, Engenharia de Dados do Synapse, Ciência de Dados do Synapse, Inteligência em Tempo Real, Data Factory e Power BI.

Termos gerais

  • Capacidade: é um conjunto dedicado de recursos que está disponível em um determinado momento para ser usado. A capacidade define a possibilidade de um recurso executar uma atividade ou produzir uma saída. Itens diferentes consomem capacidades diferentes em um determinado momento. O Fabric oferece capacidade por meio do SKU e das avaliações da plataforma. Para saber mais, consulteO que é Capacidade?

  • Experiência: uma coleção de recursos direcionados a uma funcionalidade específica. As experiências do Fabric incluem o Data Warehouse do Synapse, Engenharia de Dados do Synapse, Ciência de Dados do Synapse, Inteligência em Tempo Real, Data Factory e Power BI.

  • Item: um item um conjunto de recursos dentro de uma experiência. Os usuários podem criar, editar e excluí-los. Cada tipo de item fornece recursos diferentes. Por exemplo, a experiência de Engenharia de Dados inclui os itens de definição de tarefa lakehouse, notebook e Spark.

  • Locatário: um locatário é uma única instância do Fabric para uma organização e está alinhado com o Microsoft Entra ID.

  • Espaço de trabalho: é uma coleção de itens que reúne diferentes funcionalidades em um único ambiente projetado para colaboração. Ele atua como um contêiner que utiliza a capacidade para o trabalho a ser executado e fornece controles com relação a quem pode acessar os itens nele. Por exemplo, em um espaço de trabalho, os usuários criam relatórios, notebooks, modelos semânticos etc. Para saber mais, confira o artigo Espaços de trabalho.

Engenharia de Dados do Synapse

  • Lakehouse: é uma coleção de arquivos, pastas e tabelas que representam um banco de dados em um data lake utilizado pelo Apache Spark e pelo SQL para processamento de big data. Um lakehouse inclui recursos aprimorados para transações ACID ao usar as tabelas formatadas delta de software livre. O item lakehouse é hospedado em uma pasta de espaço de trabalho exclusiva no Microsoft OneLake. Ele contém arquivos em vários formatos (estruturados e não estruturados) organizados em pastas e subpastas. Para obter mais informações, consulte O que é um lakehouse?

  • Notebook: um notebook do Fabric é uma ferramenta de programação interativa de várias linguagens com funções avançadas. Isso inclui a criação de código e markdown, a execução e o monitoramento de um trabalho do Spark, a exibição e a visualização do resultado e a colaboração com a equipe. Ele ajuda engenheiros de dados e cientistas de dados a explorar e processar dados e a criar experimentos de aprendizado de máquina com o código e a experiência de baixo código. Ele pode ser facilmente transformado em uma atividade de pipeline para orquestração.

  • Aplicativo Spark: um aplicativo do Apache Spark é um programa escrito por um usuário usando uma das linguagens de API do Spark (Scala, Python, Spark SQL ou Java) ou idiomas adicionados pela Microsoft (.NET com C# ou F#). Quando um aplicativo é executado, ele é dividido em um ou mais trabalhos do Spark executados em paralelo para processar os dados mais rapidamente. Para obter mais informações, consulte Monitoramento do aplicativo do Spark.

  • Trabalho do Apache Spark: um trabalho do Spark faz parte de um aplicativo Spark que é executado em paralelo com outros trabalhos no aplicativo. Um trabalho consiste em várias tarefas. Para obter mais informações, consulte Monitoramento de trabalho do Spark.

  • Definição de trabalho do Apache Spark: uma definição de trabalho do Spark é um conjunto de parâmetros, definido pelo usuário, indicando como um aplicativo Spark deve ser executado. Ele permite que você envie trabalhos de lote ou streaming para o cluster do Spark. Para obter mais informações, consulte O que é uma definição de trabalho do Apache Spark?

  • Ordem V: uma otimização de gravação para o formato de arquivo parquet que permite leituras rápidas e fornece eficiência de custo e melhor desempenho. Todos os mecanismos do Fabric gravam arquivos parquet ordenados por v por padrão.

Data Factory

  • Conector: o Data Factory oferece um rico conjunto de conectores que permitem conectar-se a diferentes tipos de armazenamentos de dados. Uma vez conectado, você pode transformar os dados. Para obter mais informações, consulte conectores.

  • Pipeline de dados: no Data Factory, um pipeline de dados é usado para orquestrar a movimentação e a transformação de dados. Esses pipelines são diferentes dos pipelines de implantação no Fabric. Para obter mais informações, consulte Pipelines na visão geral do Data Factory.

  • Fluxos de Dados Gen2: Os fluxos de dados fornecem uma interface de baixo código para ingerir dados de centenas de fontes de dados e transformar seus dados. Os fluxos de dados no Fabric são chamados de Fluxo de Dados Gen2. O Fluxo de Dados Gen1 existe no Power BI. O Fluxo de Dados Gen2 oferece recursos extras em comparação com fluxos de dados no Azure Data Factory ou no Power BI. Você não pode atualizar do Gen1 para o Gen2. Para obter mais informações, consulte Fluxos de Dados na visão geral do Data Factory.

  • Gatilho: um recurso de automação no Data Factory que inicia pipelines com base em condições específicas, como agendamentos ou disponibilidade de dados.

Ciência de Dados do Synapse

  • Data Wrangler: o Data Wrangler é uma ferramenta baseada em notebook que fornece aos usuários uma experiência imersiva para conduzir a análise exploratória de dados. O recurso combina uma exibição de dados semelhante à grade com estatísticas de resumo dinâmico e um conjunto de operações comuns de limpeza de dados, todas disponíveis com alguns ícones selecionados. Cada operação gera código que pode ser salvo de volta no notebook como um script reutilizável.

  • Experimento: um experimento de machine learning é a principal unidade de organização e controle para todas as execuções de aprendizado de máquina relacionadas. Para obter mais informações, consulte Experimentos de machine learning no Microsoft Fabric.

  • Modelo: um modelo de machine learning é um arquivo que foi treinado para reconhecer determinados tipos de padrões. Você treina um modelo em um conjunto de dados e fornece um algoritmo que ele usa para raciocinar e aprender com esse conjunto de dados. Para obter mais informações, consulte Modelo de Machine Learning.

  • Execução: uma execução corresponde a uma única execução do código do modelo. No MLflow, o acompanhamento é baseado em experimentos e execuções.

Data Warehouse do Synapse

  • Ponto de extremidade de análise de SQL: cada Lakehouse tem um ponto de extremidade de análise de SQL que permite que um usuário consulte dados de tabela delta com TSQL por TDS. Para saber mais, confira Ponto de extremidade de análise de SQL.

  • Warehouse do Synapse Data: A funcionalidade data Warehouse do Synapse funciona como um data warehouse tradicional e é compatível com todos os recursos T-SQL transacionais que você esperaria de um data warehouse corporativo. Para obter mais informações, consulte Data warehouse.

Inteligência em tempo real

  • Banco de dados KQL: o banco de dados KQL contém dados em um formato no qual você pode executar consultas KQL. Para obter mais informações, consulte Consultar um banco de dados KQL.

  • Conjunto de consultas KQL: o conjunto de consultas KQL é o item usado para executar consultas, exibir resultados e manipular resultados de consulta em dados do banco de dados Data Explorer. O conjunto de consultas inclui os bancos de dados e tabelas, as consultas e os resultados. O KQL Queryset permite salvar consultas para uso futuro ou exportar e compartilhar consultas com outras pessoas. Para obter mais informações, veja Consultar dados em um conjunto de consultas KQL

  • Fluxo de eventos: o recurso de fluxos de eventos no Microsoft Fabric oferece um local centralizado na plataforma Fabric para capturar, transformar e rotear eventos em tempo real para vários destinos com uma experiência sem código. Um fluxo de eventos consiste em várias fontes de dados de streaming, destinos de ingestão e um processador de eventos quando a transformação é necessária. Para obter mais informações, consulte Fluxos de eventos do Microsoft Fabric.

OneLake

  • Atalho: os atalhos são referências internas no OneLake que apontam para os locais de repositório de outros arquivos. Eles fornecem uma maneira de se conectar aos dados existentes sem precisar copiá-los diretamente. Para obter mais informações, consulte Atalhos do teclado.