Partilhar via


Baixar arquiteturas de referência lakehouse

Este artigo aborda a orientação arquitetônica para a casa do lago em termos de fonte de dados, ingestão, transformação, consulta e processamento, serviço, análise/saída e armazenamento.

Cada arquitetura de referência tem um PDF para download em formato 11 x 17 (A3).

Arquitetura de referência genérica

Arquitetura de referência genérica da casa do lago

Download: Arquitetura de referência genérica lakehouse para Databricks (PDF)

Organização das arquiteturas de referência

A arquitetura de referência é estruturada ao longo das raias de origem, ingestão, transformação, consulta e processo, serviço, análise e armazenamento:

  • Source

    A arquitetura distingue entre dados semi-estruturados e não estruturados (sensores e IoT, mídia, arquivos/logs) e dados estruturados (RDBMS, aplicativos de negócios). As fontes SQL (RDBMS) também podem ser integradas ao lakehouse e ao Unity Catalog sem ETL através da federação lakehouse. Além disso, os dados podem ser carregados de outros provedores de nuvem.

  • Ingerir

    Os dados podem ser ingeridos na casa do lago via lote ou streaming:

    • Os arquivos entregues ao armazenamento em nuvem podem ser carregados diretamente usando o Databricks Auto Loader.
    • Para a ingestão em lote de dados de aplicativos corporativos no Delta Lake, o Databricks lakehouse conta com ferramentas de ingestão de parceiros com adaptadores específicos para esses sistemas de registro.
    • Os eventos de streaming podem ser ingeridos diretamente de sistemas de streaming de eventos, como o Kafka, usando o Databricks Structured Streaming. As fontes de streaming podem ser sensores, IoT ou alterar processos de captura de dados.
  • Armazenamento

    Os dados são normalmente armazenados no sistema de armazenamento em nuvem, onde os pipelines de ETL usam a arquitetura medallion para armazenar dados de forma selecionada como arquivos/tabelas Delta.

  • Transformar , consultar e processar

    O lago Databricks usa seus motores Apache Spark e Photon para todas as transformações e consultas.

    Devido à sua simplicidade, a estrutura declarativa DLT (Delta Live Tables) é uma boa escolha para construir pipelines de processamento de dados confiáveis, sustentáveis e testáveis.

    Alimentada pelo Apache Spark e Photon, a Databricks Data Intelligence Platform suporta ambos os tipos de cargas de trabalho: consultas SQL via armazéns SQL e cargas de trabalho SQL, Python e Scala via clusters de espaço de trabalho.

    Para ciência de dados (ML Modeling e Gen AI), a plataforma Databricks AI and Machine Learning fornece tempos de execução de ML especializados para AutoML e para codificação de trabalhos de ML. Todos os fluxos de trabalho de ciência de dados e MLOps são melhor suportados pelo MLflow.

  • Servir

    Para casos de uso de DWH e BI, o Databricks lakehouse fornece Databricks SQL, o data warehouse alimentado por armazéns SQL e armazéns SQL sem servidor.

    Para aprendizado de máquina, o serviço de modelo é um recurso de serviço de modelo escalável, em tempo real e de nível empresarial hospedado no plano de controle do Databricks.

    Bancos de dados operacionais: Sistemas externos, como bancos de dados operacionais, podem ser usados para armazenar e entregar produtos de dados finais para aplicativos de usuários.

    Colaboração: Os parceiros de negócios obtêm acesso seguro aos dados de que precisam por meio do Delta Sharing. Com base no Delta Sharing, o Databricks Marketplace é um fórum aberto para a troca de produtos de dados.

  • Análise

    As últimas aplicações de negócios estão nesta raia. Exemplos incluem clientes personalizados, como aplicativos de IA conectados ao Mosaic AI Model Serving para inferência em tempo real ou aplicativos que acessam dados enviados da casa do lago para um banco de dados operacional.

    Para casos de uso de BI, os analistas normalmente usam ferramentas de BI para acessar o data warehouse. Os desenvolvedores de SQL também podem usar o Editor SQL Databricks (não mostrado no diagrama) para consultas e painéis.

    A plataforma de inteligência de dados também oferece painéis para criar visualizações de dados e compartilhar insights.

Recursos para suas cargas de trabalho

Além disso, o Databricks lakehouse vem com recursos de gerenciamento que suportam todas as cargas de trabalho:

  • Governança de dados e IA

    O sistema central de governança de dados e IA na plataforma de inteligência de dados Databricks é o Unity Catalog. O Unity Catalog fornece um único local para gerenciar políticas de acesso a dados que se aplicam a todos os espaços de trabalho e suportam todos os ativos criados ou usados na lakehouse, como tabelas, volumes, recursos (repositório de recursos) e modelos (registro de modelo). O Unity Catalog também pode ser usado para capturar linhagens de dados de tempo de execução em consultas executadas no Databricks.

    O monitoramento do Databricks Lakehouse permite que você monitore a qualidade dos dados em todas as tabelas da sua conta. Ele também pode acompanhar o desempenho de modelos de aprendizado de máquina e pontos de extremidade de serviço de modelo.

    Para observabilidade, as tabelas do sistema são um armazenamento analítico hospedado pelo Databricks dos dados operacionais da sua conta. As tabelas do sistema podem ser usadas para observabilidade histórica em toda a sua conta.

  • Mecanismo de inteligência de dados

    A Databricks Data Intelligence Platform permite que toda a sua organização use dados e IA. Ele é alimentado por DatabricksIQ e combina IA generativa com os benefícios de unificação de um lakehouse para entender a semântica única de seus dados.

    O Assistente Databricks está disponível em notebooks Databricks, editor SQL e editor de arquivos como um assistente de IA sensível ao contexto para desenvolvedores.

  • Orquestração

    O Databricks Jobs orquestra pipelines de processamento de dados, aprendizado de máquina e análise na Databricks Data Intelligence Platform. Delta Live Tables permitem que você crie pipelines ETL confiáveis e fáceis de manter com sintaxe declarativa.

A arquitetura de referência da Plataforma de Inteligência de Dados no Azure

A Arquitetura de Referência do Azure Databricks é derivada da arquitetura de referência genérica adicionando serviços específicos do Azure para os elementos Source, Ingest, Serve, Analysis/Output e Storages.

Arquitetura de referência para o Azure Databricks lakehouse

Download: Arquitetura de referência para o lago Databricks no Azure

A arquitetura de referência do Azure mostra os seguintes serviços específicos do Azure para Ingest, Storage, Serve e Analysis/Output:

  • Azure Synapse e SQL Server como sistemas de origem para Lakehouse Federation
  • Hub IoT do Azure e Hubs de Eventos do Azure para ingestão de streaming
  • Azure Data Factory para ingestão em lote
  • Azure Data Lake Storage Gen 2 (ADLS) como o armazenamento de objetos
  • Azure SQL DB e Azure Cosmos DB como bancos de dados operacionais
  • Azure Purview como o catálogo empresarial para o qual a UC exportará informações de esquema e linhagem
  • Power BI como a ferramenta de BI

Nota

  • Esta vista da arquitetura de referência centra-se apenas nos serviços do Azure e no lago Databricks. O lakehouse on Databricks é uma plataforma aberta que se integra com um grande ecossistema de ferramentas de parceiros.
  • Os serviços apresentados pelos prestadores de serviços de computação em nuvem não são exaustivos. Eles são selecionados para ilustrar o conceito.

Caso de uso: Batch ETL

Arquitetura de referência para ETL em lote no Azure Databricks

Download: Arquitetura de referência de ETL em lote para o Azure Databricks

As ferramentas de ingestão usam adaptadores específicos da fonte para ler dados da fonte e, em seguida, armazená-los no armazenamento em nuvem de onde o Auto Loader pode lê-los ou chamar Databricks diretamente (por exemplo, com ferramentas de ingestão de parceiros integradas ao lago Databricks). Para carregar os dados, o ETL Databricks e o mecanismo de processamento - via DLT - executam as consultas. Fluxos de trabalho de tarefa única ou múltipla podem ser orquestrados pelo Databricks Jobs e governados pelo Unity Catalog (controle de acesso, auditoria, linhagem e assim por diante). Se os sistemas operacionais de baixa latência exigirem acesso a tabelas douradas específicas, eles poderão ser exportados para um banco de dados operacional, como um RDBMS ou armazenamento de chave-valor no final do pipeline de ETL.

Caso de uso: Streaming e captura de dados de alteração (CDC)

Arquitetura de streaming estruturada do Spark no Azure Databricks

Download: Arquitetura de streaming estruturada do Spark para o Azure Databricks

O mecanismo ETL do Databricks usa o Spark Structured Streaming para ler filas de eventos como Apache Kafka ou Hub de Eventos do Azure. As etapas a jusante seguem a abordagem do caso de uso do lote acima.

A captura de dados de alteração em tempo real (CDC) normalmente usa uma fila de eventos para armazenar os eventos extraídos. A partir daí, o caso de uso segue o caso de uso de streaming.

Se o CDC for feito em lote onde os registros extraídos são armazenados no armazenamento em nuvem primeiro, o Databricks Autoloader poderá lê-los e o caso de uso segue o Batch ETL.

Caso de uso: Machine learning e IA

Arquitetura de referência de aprendizado de máquina e IA para o Azure Databricks

Download: Aprendizado de máquina e arquitetura de referência de IA para o Azure Databricks

Para aprendizado de máquina, a Databricks Data Intelligence Platform fornece Mosaic AI, que vem com bibliotecas de aprendizado profundo e de máquina de última geração. Ele fornece recursos como Feature Store e registro de modelo (ambos integrados ao Unity Catalog), recursos low-code com AutoML e integração MLflow no ciclo de vida da ciência de dados.

Todos os ativos relacionados à ciência de dados (tabelas, recursos e modelos) são regidos pelo Unity Catalog e os cientistas de dados podem usar o Databricks Jobs para orquestrar seus trabalhos.

Para implantar modelos de forma escalável e de nível empresarial, use os recursos MLOps para publicar os modelos no serviço de modelos.

Caso de uso: Geração aumentada de recuperação (Gen AI)

Arquitetura de referência Gen AI RAG para Azure Databricks

Download: Arquitetura de referência Gen AI RAG para Azure Databricks

Para casos de uso de IA generativa, o Mosaic AI vem com bibliotecas de última geração e recursos específicos de IA de geração, desde engenharia imediata até ajuste fino de modelos existentes e pré-treinamento do zero. A arquitetura acima mostra um exemplo de como a pesquisa vetorial pode ser integrada para criar um aplicativo de IA RAG (geração aumentada de recuperação).

Para implantar modelos de forma escalável e de nível empresarial, use os recursos MLOps para publicar os modelos no serviço de modelos.

Caso de uso: BI e análise SQL

Arquitetura de referência de análise de BI e SQL para o Azure Databricks

Download: arquitetura de referência de análise de BI e SQL para Azure Databricks

Para casos de uso de BI, os analistas de negócios podem usar painéis, o editor SQL Databricks ou ferramentas de BI específicas, como Tableau ou Power BI. Em todos os casos, o mecanismo é Databricks SQL (serverless ou non-serverless) e a descoberta, exploração e controle de acesso de dados são fornecidos pelo Unity Catalog.

Caso de uso: Lakehouse federation

Arquitetura de referência de federação Lakehouse para Azure Databricks

Download: Arquitetura de referência de federação Lakehouse para Azure Databricks

A federação Lakehouse permite que bancos de dados SQL externos (como MySQL, Postgres, SQL Server ou Azure Synapse) sejam integrados ao Databricks.

Todas as cargas de trabalho (IA, DWH e BI) podem se beneficiar disso sem a necessidade de ETL dos dados para o armazenamento de objetos primeiro. O catálogo de origem externa é mapeado no catálogo Unity e o controle de acesso refinado pode ser aplicado ao acesso por meio da plataforma Databricks.

Caso de uso: compartilhamento de dados corporativos

Arquitetura de referência de compartilhamento de dados corporativos para o Azure Databricks

Download: Arquitetura de referência de compartilhamento de dados corporativos para o Azure Databricks

O compartilhamento de dados de nível empresarial é fornecido pelo Delta Sharing. Ele fornece acesso direto aos dados no repositório de objetos protegido pelo Unity Catalog, e o Databricks Marketplace é um fórum aberto para a troca de produtos de dados.