Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Esses recursos e melhorias na plataforma do Azure Databricks foram lançados em junho de 2025.
Observação
As liberações são disponibilizadas em fases. Sua conta do Azure Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.
Acesso multiplataforma S3 agora disponível em espaços de trabalho com controle de egressão sem servidor
30 de junho de 2025
O acesso multiplataforma do Azure Databricks aos buckets do AWS S3 é agora compatível com espaços de trabalho que usam controle de tráfego sem servidor.
Os administradores devem adicionar locais S3 entre nuvens à política de rede usando a API de políticas de rede.
Consulte Criar uma credencial de armazenamento para se conectar ao AWS S3 (somente leitura).
A computação de GPU sem servidor está em Beta
30 de junho de 2025
A computação de GPU sem servidor agora faz parte da oferta de computação sem servidor. Computação de GPU sem servidor é especializada em tarefas personalizadas de aprendizado profundo de único e múltiplos nós. Você pode usar a computação de GPU sem servidor para treinar e ajustar modelos personalizados usando suas estruturas favoritas e obter eficiência, desempenho e qualidade de última geração.
Consulte a computação de GPU sem servidor.
Traga sua própria linhagem de dados (Prévia Pública)
27 de junho de 2025
A linhagem de dados agora pode incluir ativos externos e fluxos de trabalho executados fora do Azure Databricks. Se tiver workloads que são executados fora do Azure Databricks (por exemplo, ETL de primeira milha ou BI de última milha), o Unity Catalog permite que você adicione metadados de linhagem externa para aumentar a linhagem de dados do Azure Databricks que ele captura automaticamente, fornecendo uma visão de linhagem de ponta a ponta no Unity Catalog. Isso é útil quando você deseja capturar de onde os dados vieram (por exemplo, Salesforce ou MySQL) antes de serem ingeridos no Catálogo do Unity ou onde os dados estão sendo consumidos fora do Catálogo do Unity (por exemplo, Tableau ou PowerBI).
Esse recurso de metadados de linhagem externa está na Visualização Pública. Consulte Traga sua própria linhagem de dados.
O Novo Driver JDBC do Databricks é de software livre
26 de junho de 2025
O novo Driver JDBC do Databricks agora é de software livre. O código-fonte está disponível publicamente na licença do Apache 2.0. As contribuições da comunidade são bem-vindas. Consulte as Diretrizes de Contribuição.
Os vetores de exclusão nas tabelas dos Pipelines Declarativos do Lakeflow agora seguem as configurações do espaço de trabalho
26 de junho de 2025
Novas tabelas de streaming e visualizações materializadas seguirão as configurações do espaço de trabalho para vetores de exclusão. Veja Habilitar vetores de exclusão automaticamente e O que são vetores de exclusão?.
Os gatilhos de chegada de arquivo com eventos de arquivo agora estão disponíveis para uso geral
25 de junho de 2025
Você pode disparar execuções de trabalho usando gatilhos de chegada de arquivo com eventos de arquivo em locais externos, como Amazon S3, Armazenamento do Azure ou Google Cloud Storage. Para se beneficiar desse recurso, os locais externos devem ter eventos de arquivo habilitados. Os gatilhos de chegada de arquivo com eventos de arquivo permitem um limite de gatilho maior (1.000 por espaço de trabalho) e removem a limitação de 10.000 arquivos por gatilho. Consulte Gatilhos de chegada de arquivo com eventos de arquivo.
Usar PDFs no Agent Bricks (Beta)
25 de junho de 2025
O Agent Bricks fornece um fluxo de trabalho de interface do usuário para converter PDFs em Markdown, armazenados em uma tabela. Os usuários podem usar a tabela resultante como entrada no Agent Bricks: Extração de informações e LLM personalizada.
Consulte sobre o uso de PDFs no Agent Bricks para extração de informações e LLM personalizada.
Analisar documentos usando ai_parse_document
(Beta)
25 de junho de 2025
A Função ai_parse_document()
de IA invoca um modelo de IA gerativo de última geração das APIs de Modelo do Databricks Foundation para extrair conteúdo estruturado de documentos não estruturados.
Essa função está disponível na Versão Beta. Veja a ai_parse_document
função.
O Databricks Runtime 17.0 está em disponibilidade geral
24 de junho de 2025
O Databricks Runtime 17.0 e o Databricks Runtime 17.0 ML agora estão disponíveis em geral.
Consulte o Databricks Runtime 17.0 e o Databricks Runtime 17.0 para Machine Learning.
A federação OIDC para Compartilhamento Delta entre Databricks e Open Delta está geralmente disponível
24 de junho de 2025
O uso de Open ID Connect (OIDC) para o Compartilhamento do Delta, no qual os destinatários utilizam tokens JSON Web (JWT) de seu próprio IdP como tokens OAuth de curta duração para uma autenticação segura e federada, está disponível ao público.
Migrar pipelines do Lakeflow Declarative Pipelines do modo de publicação herdado
23 de junho de 2025
O Lakeflow Declarative Pipelines tem um modo de publicação herdado que só permitia a publicação em um único catálogo e esquema. O modo de publicação padrão permite a publicação em vários catálogos e esquemas. A migração do modo de publicação herdado para o modo de publicação padrão agora está disponível.
Consulte Habilitar o modo de publicação padrão em um pipeline.
Limites de taxa personalizados para pontos de extremidade de serviço de modelo
23 de junho de 2025
Agora você pode definir limites de taxa personalizados para os pontos de extremidade de serviço de modelo usando o Gateway de IA. Forneça limites de taxa para qualquer um dos seguintes:
- Ponto de extremidade: especifique o limite de taxa geral para todo o tráfego que passa pelo ponto de extremidade, independentemente dos limites individuais ou de grupo de usuários.
- Usuário (padrão): especifique o limite de taxa para todos os usuários do ponto de extremidade que não têm limites de taxa específicos do usuário ou específicos do grupo definidos.
- Usuário específico: especifique o limite de taxa para um usuário específico do ponto de extremidade.
- Especifique o limite de taxa para um service principal específico.
- Grupo de usuários: especifique o limite de taxa para um grupo de usuários específico. Esse limite é compartilhado entre todos os membros do grupo.
Confira Configurar o Gateway de IA usando a interface do usuário.
O compartilhamento de tabelas de Iceberg gerenciadas no Compartilhamento Delta está em Versão Prévia Pública
23 de junho de 2025
Agora você pode usar o Compartilhamento Delta para compartilhar tabelas Iceberg gerenciadas no compartilhamento de Databricks para Databricks e no compartilhamento aberto. Consulte Adicionar tabelas gerenciadas do Iceberg a um compartilhamento e Ler tabelas gerenciadas do Iceberg compartilhadas.
A documentação de IA para tabelas e colunas do Catálogo do Unity agora usa o mesmo modelo que o Assistente do Databricks
18 de junho de 2025
A documentação de IA para tabelas e colunas de tabela do Unity Catalog agora usa um modelo hospedado pelo Databricks.
- Se você já usar um modelo hospedado pelo Databricks para Assistente, não haverá nenhuma alteração.
- Se você desativar recursos assistenciais de IA alimentados por parceiros, a documentação de IA ainda estará disponível e usará um modelo hospedado pelo Databricks.
Para obter mais informações, consulte:
- Funcionalidades regidas pela configuração de funcionalidades assistivas de IA potencializadas por parceiros
- Adicionar comentários gerados por IA aos objetos do Catálogo do Unity
Trabalhos e pipelines no menu de navegação à esquerda
18 de junho de 2025
O item Jobs &Pipelines na navegação à esquerda é o ponto de entrada para os recursos unificados de engenharia de dados do Databricks, Lakeflow. Os itens pipelines e fluxos de trabalho na navegação à esquerda foram removidos e suas funcionalidades agora estão disponíveis no Jobs &Pipelines.
A movimentação de tabelas de streaming e visualizações materializadas entre pipelines está em versão preliminar pública
17 de junho de 2025
As tabelas criadas pelos pipelines declarativos do Lakeflow nos pipelines ETL do Catálogo do Unity podem ser movidas de um pipeline para outro. Consulte Mover tabelas entre pipelines declarativos do Lakeflow.
O ABAC (controle de acesso baseado em atributo) no Catálogo do Unity está em Beta
12 de junho de 2025
O Databricks agora oferece suporte ao controle de acesso baseado em atributos (ABAC) no Catálogo Unity, permitindo políticas de acesso dinâmicas orientadas por tags em catálogos, esquemas e tabelas. O ABAC usa marcas e UDFs (funções definidas pelo usuário) para impor controles de acesso refinados com base em atributos de dados, como confidencialidade, região ou domínio comercial.
Usando o ABAC, você pode definir políticas escalonáveis uma vez e aplicá-las em grandes conjuntos de ativos de dados. As políticas são herdadas na hierarquia de objetos e podem incluir filtros de nível de linha ou lógica de mascaramento de coluna. Isso simplifica a governança, dá suporte ao gerenciamento centralizado de políticas e melhora a postura de segurança. Consulte o ABAC (controle de acesso baseado em atributo) do Catálogo do Unity.
O agrupamento líquido automático agora está geralmente disponível
12 de junho de 2025
O agrupamento líquido automático agora está geralmente disponível. Você pode habilitar o agrupamento líquido automático em tabelas gerenciadas do Catálogo Unity. O agrupamento automático de dados líquidos seleciona inteligentemente as chaves de agrupamento para otimizar o arranjo de dados para suas consultas. Consulte Clustering líquido automático.
O Lakebase, um banco de dados OLTP do PostgreSQL gerenciado, está em Versão Prévia Pública
11 de junho de 2025
O Lakebase é um mecanismo de OLTP (processamento transacional) online totalmente integrado à Plataforma de Inteligência de Dados do Databricks. Você pode criar uma instância de banco de dados, um novo tipo de computação, que fornece armazenamento e computação dedicados compatíveis com PostgreSQL, permitindo que você execute cargas de trabalho transacionais junto com seus dados do Lakehouse.
Veja o que é Lakebase?
Monitorar e revogar tokens de acesso pessoal em sua conta (GA)
11 de junho de 2025
A página de relatório de token permite que os administradores da conta monitorem e revoguem PATs (tokens de acesso pessoal) no console da conta. O Databricks recomenda que você use tokens de acesso OAuth em vez de PATs para maior segurança e conveniência. Confira Monitorar e revogar tokens de acesso pessoal na conta.
Conector do Microsoft SharePoint (Beta)
11 de junho de 2025
O conector do Microsoft SharePoint totalmente gerenciado no Lakeflow Connect permite ingerir dados do SharePoint no Azure Databricks. Consulte Configurar o OAuth U2M para ingestão do Microsoft SharePoint.
A versão Beta dá suporte à criação de pipeline baseada em API. Ainda não há suporte para a criação de pipeline baseada em interface do usuário.
O Gateway de IA agora está geralmente disponível
11 de junho de 2025
O Gateway de IA Mosaic agora está disponível para o público. O Gateway de IA é um serviço centralizado que simplifica o uso e o gerenciamento de modelos de IA generativos em uma organização.
O AI Gateway traz governança, monitoramento e prontidão de produção para modelar endpoints de serviço usando os seguintes recursos:
- Limitação de taxa e permissões para controlar quem tem acesso e quanto acesso.
- Registro em log de conteúdo para monitorar e auditar dados enviados para APIs de modelo usando tabelas de inferência.
- Acompanhamento de uso para monitorar o uso operacional em pontos de extremidade e os custos associados usando tabelas do sistema.
- Roteamento de tráfego para balancear o tráfego de carga em vários modelos.
- Fallbacks para modelos externos para minimizar interrupções de produção durante e após a implantação.
Observação
AI Guardrails permanece em Visualização Pública.
AS APIs AUTO CDC substituem APPLY CHANGES
11 de junho de 2025
As novas APIs AUTO CDC
criam fluxos que dão suporte aos CDF (feeds de dados de alteração) nos Pipelines Declarativos do Lakeflow. O Databricks recomenda substituir o uso de APPLY CHANGES
APIs por AUTO CDC
.
Para obter informações sobre a API do SQL AUTO CDC
, consulte:
Para obter informações sobre as APIs do Python create_auto_cdc_flow
, consulte
- create_auto_cdc_flow
- create_auto_cdc_from_snapshot_flow (criar_fluxo_de_cdc_automático_a_partir_de_snapshot)
Os Trabalhos do Databricks agora são Trabalhos do Lakeflow
11 de junho de 2025
O produto anteriormente conhecido como Databricks Jobs agora é Lakeflow Jobs. Nenhuma migração é necessária para usar Trabalhos do Lakeflow. Consulte Trabalhos do Lakeflow.
O DLT agora é o Lakeflow Declarative Pipelines
11 de junho de 2025
O produto conhecido como DLT agora é Lakeflow Declarative Pipelines. Nenhuma migração é necessária para usar o Lakeflow Declarative Pipelines. Consulte Pipelines Declarativos do Lakeflow.
As tabelas gerenciadas do Apache Iceberg estão em Visualização Pública
11 de junho de 2025
As tabelas gerenciadas do Apache Iceberg agora estão em Visualização Pública. Você pode ler e gravar nessas tabelas a partir do Azure Databricks ou de mecanismos Iceberg externos usando a API do Catálogo REST do Iceberg. Essas tabelas são integradas à otimização preditiva para aplicar otimizações avançadas, incluindo automaticamente o agrupamento líquido. Veja O que é o Apache Iceberg no Azure Databricks? e as tabelas gerenciadas do Unity Catalog no Azure Databricks para Delta Lake e Apache Iceberg.
As tabelas estrangeiras do Apache Iceberg estão em visualização pública
11 de junho de 2025
As tabelas estrangeiras do Apache Iceberg agora estão em visualização pública. Você pode ler tabelas Iceberg gerenciadas por catálogos estrangeiros, como HMS, Glue e Snowflake Horizon, usando a Federação Lakehouse. Essas tabelas dão suporte a recursos avançados do Catálogo do Unity, como controles de acesso refinado, linhagem e auditoria. Veja o que é o Apache Iceberg no Azure Databricks? e Trabalhe com tabelas estrangeiras.
A conversão de uma tabela externa para uma tabela gerenciada no Unity Catalog está em Versão prévia pública.
11 de junho de 2025
ALTER TABLE ... SET MANAGED
agora está disponível na Visualização Pública para clientes participantes. Esse comando permite a conversão perfeita de tabelas externas do Catálogo do Unity em tabelas gerenciadas. Ele permite que você aproveite ao máximo os recursos de tabela gerenciada do Catálogo do Unity, como governança, confiabilidade e desempenho aprimorados. Consulte Converter tabela externa em tabela gerenciada do Catálogo Unity.
O MLflow 3.0 está disponível em geral
10 de junho de 2025
O MLflow 3.0 agora está disponível em geral.
O MLflow 3.0 no Azure Databricks fornece acompanhamento de experimentos de última geração, observabilidade e avaliação de desempenho para modelos de machine learning, aplicativos de IA generativos e agentes no Databricks Lakehouse. Consulte Introdução ao MLflow 3.
Tarefas de implantação (versão pública prévia)
10 de junho de 2025
Os trabalhos de implantação estão agora disponíveis na Versão prévia pública.
Os trabalhos de implantação permitem automatizar tarefas como avaliação, aprovação e implantação sempre que uma nova versão do modelo é criada, integrando-se perfeitamente aos modelos do Catálogo do Unity e aos Trabalhos do Lakeflow. Consulte os trabalhos de implantação do MLflow 3.
Os alvos de desempenho sem servidor agora estão em Disponibilidade Geral
10 de junho de 2025
A seleção da configuração de desempenho sem uso de servidor para trabalhos e pipelines agora está disponível de forma geral.
Quando a configuração otimizada para desempenho está habilitada, sua carga de trabalho é otimizada para um tempo de inicialização e execução mais rápido. Quando desabilitada, a carga de trabalho sem servidor é executada no modo de desempenho padrão, que é otimizada para custo e tem uma latência de inicialização ligeiramente maior.
Para obter mais informações, consulte Selecionar um modo de desempenho e selecionar um modo de desempenho.
O MCP (Protocolo de Contexto de Modelo) para agentes de IA está em Beta
10 de junho de 2025
O Databricks agora dá suporte ao MCP, um padrão aberto que permite que os agentes de IA acessem com segurança ferramentas, recursos, prompt e outras informações contextuais usando uma interface consistente.
- Servidores MCP gerenciados: use servidores hospedados pelo Databricks para acesso fácil e sem manutenção aos dados e ferramentas do Catálogo do Unity.
- Servidores MCP personalizados: hospede seu próprio servidor MCP ou servidor de terceiros como um aplicativo do Databricks.
Consulte Consulte o protocolo de contexto de modelo (PROTOCOLO MCP) no Databricks.
O compartilhamento de visualização entre plataformas agora está em disponibilidade geral
9 de junho de 2025
O compartilhamento de visualizações entre plataformas por meio do Delta Sharing agora está geralmente disponível. O método de acesso aos dados e cobrança quando as visualizações são compartilhadas são atualizados. Consulte Como faço para incorrer e verificar os custos do Delta Sharing?.
Uma nova tabela do sistema permite que você acompanhe o histórico de dados materializado compartilhado. Consulte a Referência da tabela do sistema de histórico de materialização do Delta Sharing.
Os administradores de contas agora podem configurar o TTL (tempo de vida útil) da materialização de dados. Consulte Configurar o TTL da materialização de dados.
O conector do Azure Databricks no Microsoft Power Platform está em versão prévia pública
9 de junho de 2025
Use dados do Azure Databricks para criar aplicativos de tela no Power Apps, fluxos no Power Automate e agentes no Copilot Studio criando uma conexão do Azure Databricks no Power Platform.
Consulte Conectar-se ao Azure Databricks por meio do Microsoft Power Platform.
Gerenciar políticas de rede para controle de saída sem servidor (Disponibilidade Geral)
9 de junho de 2025
Você pode configurar e impor políticas de saída de rede para recursos de computação sem servidor, incluindo SQL warehouses e pontos de extremidade de serviços de modelos.
Com as políticas de rede, você pode:
- Configure o acesso de saída para cargas de trabalho sem servidor.
- Permitir domínios específicos e contas de armazenamento para modo restrito.
- Habilite o modo de execução seca para monitorar o impacto da política antes da imposição.
- Exibir e analisar logs de negação no Catálogo do Unity para auditoria e solução de problemas.
Consulte Gerenciar políticas de rede para controle de saída sem servidor
As políticas de tags estão em Beta
9 de junho de 2025
As políticas de marca permitem que os administradores imponham a marcação consistente entre ativos de dados, como catálogos, esquemas e tabelas. As políticas de marca definem chaves e valores de marca permitidos e controlam quais usuários e grupos podem atribuí-los. Isso permite o gerenciamento de metadados padronizados para casos de classificação de dados, controle de custo, controle de acesso e uso de automação.
As políticas de etiqueta são gerenciadas no nível da conta e se aplicam em todos os espaços de trabalho. Para obter mais informações, consulte Políticas de marca
Suporte do Databricks Apps para padrões de perfil de segurança de conformidade
6 de junho de 2025
Agora, os Aplicativos do Databricks dão suporte a todos os padrões de perfil de segurança de conformidade compatíveis com o Azure Databricks, como HIPAA, PCI-DSS e FedRAMP Moderate. Para obter uma lista completa de padrões de conformidade com suporte, consulte o perfil de segurança de conformidade.
O novo direito do consumidor está geralmente disponível
5 de junho de 2025
Os administradores do workspace agora podem conceder acesso ao consumidor como um direito a usuários, entidades de serviço e grupos. Isso permite um controle mais refinado sobre o que os usuários podem fazer em um workspace do Azure Databricks. Detalhes principais
O acesso ao consumidor permite acesso limitado à interface do usuário do workspace, consultando armazéns de SQL usando ferramentas de BI e exibindo painéis com credenciais incorporadas ou de visualização.
Útil para usuários empresariais que precisam de acesso a conteúdo e dashboards compartilhados, mas não para criar ou gerenciar objetos de workspace.
Esse direito é mais restritivo do que o acesso ao workspace ou acesso ao SQL do Databricks. Para atribuí-lo de forma independente, remova direitos mais amplos do
users
grupo e configure-os por usuário ou grupo.
Consulte Gerenciar direitos.
Conector de Compartilhamento de Arquivos de Nuvem de Dados do Salesforce (Versão Prévia Pública)
4 de junho de 2025
O conector do Salesforce Data Cloud File Sharing oferece uma solução alternativa de cópia zero para consultar o Salesforce Data Cloud. Quando você usa a federação de arquivos em vez de federação de consulta, o Databricks chama as APIs de Dados como Serviço (DaaS) do Salesforce para ler dados diretamente no local de armazenamento de objetos de nuvem subjacente. As consultas são executadas na computação do Databricks sem usar o JDBC.
Em comparação com a federação de consulta, a federação de arquivos é ideal para federar uma grande quantidade de dados. Ele oferece melhor desempenho para ler arquivos de várias fontes de dados e melhores recursos de pushdown.
Para obter mais informações, consulte Lakehouse Federation for Salesforce Data Cloud File Sharing.
Link Privado do Azure da computação sem servidor para recursos em sua VNet (rede virtual) por meio de uma versão prévia pública do SLB (balanceador de carga) padrão
4 de junho de 2025
Agora você pode habilitar o Link Privado do Azure para recursos em sua VNet (rede virtual) por meio de um SLB (balanceador de carga padrão) da computação sem servidor. Veja Configuração da conectividade privada com recursos em sua VNet.
Valores corrigidos job_name
em system.billing.usage
3 de junho de 2025
O valor usage_metadata.job_name
na tabela system.billing.usage
agora contém corretamente os nomes de trabalho. Anteriormente, esse valor era preenchido com chaves de tarefa em vez dos nomes de trabalho fornecidos pelo usuário. Essa alteração não se aplica a execuções de trabalho único, que continuam sendo registradas com a chave de tarefa.
Veja Tabela de referência do sistema de uso faturável.
Os endpoints otimizados para armazenamento do Mosaic AI Vector Search estão em Versão prévia pública
3 de junho de 2025
O Vector Search da Mosaic AI agora oferece a opção de endpoints otimizados para armazenamento. Os pontos de extremidade com otimização de armazenamento têm uma capacidade maior (mais de um bilhão de vetores na dimensão 768) e fornecem uma indexação 10-20x mais rápida. O preço é otimizado para o maior número de vetores. Para obter detalhes, consulte as opções de ponto de extremidade da Pesquisa de Vetor.
O compartilhamento de histórico agora está habilitado por padrão para melhorar o desempenho de leitura da tabela para o Azure Databricks-to-Azure Databricks Delta Sharing (GA)
3 de junho de 2025
O compartilhamento de histórico é habilitado por padrão (para o Databricks Runtime 16.2 e superior) para melhorar o desempenho de leitura em tabelas no compartilhamento Delta entre Azure Databricks. Confira Melhore o desempenho de leitura de tabela com o compartilhamento de histórico.
As conexões HTTP do Unity Catalog suportam credenciais OAuth de Usuário para Máquina por usuário (Versão prévia pública)
2 de junho de 2025
Usuários individuais agora podem usar suas próprias credenciais OAuth para entrar em serviços externos ao usar uma conexão HTTP do Catálogo do Unity. Anteriormente, a única opção OAuth era compartilhar uma única credencial OAuth para a conexão, independentemente do usuário.
Consulte Conectar-se a serviços HTTP externos.