Compartilhar via


Gerenciar o catálogo padrão

Este artigo apresenta o catálogo padrão do Unity Catalog, explica como decidir qual catálogo usar como padrão e mostra como alterá-lo.

Qual é o catálogo padrão no Unity Catalog?

Um catálogo padrão é configurado para cada espaço de trabalho habilitado para o Unity Catalog. O catálogo padrão permite executar operações de dados sem especificar um catálogo. Se você omitir o nome do catálogo de nível superior ao executar operações de dados, o catálogo padrão será assumido.

Um administrador de espaço de trabalho pode exibir ou alternar o catálogo padrão usando a interface do usuário Configurações de administrador. Você também pode definir o catálogo padrão para um cluster usando uma configuração do Spark.

Os comandos que não especificam o catálogo (por exemplo GRANT CREATE TABLE ON SCHEMA myschema TO mygroup) são avaliados para o catálogo na seguinte ordem:

  1. O catálogo está definido para a sessão usando uma USE CATALOG instrução ou uma configuração JDBC?
  2. A configuração spark.databricks.sql.initial.catalog.namespace do Spark está definida no cluster?
  3. Existe um catálogo padrão de espaço de trabalho definido para o cluster?

A configuração padrão do catálogo quando o Unity Catalog está habilitado

O catálogo padrão que foi inicialmente configurado para seu espaço de trabalho depende de como seu espaço de trabalho foi habilitado para o Unity Catalog:

  • Para alguns espaços de trabalho que foram habilitados para o Unity Catalog automaticamente, o catálogo de espaços de trabalho foi definido como o catálogo padrão. Veja Ativação automática do Unity Catalog.
  • Para todos os outros espaços de trabalho, o hive_metastore catálogo foi definido como o catálogo padrão.

Se você estiver fazendo a transição do metastore do Hive para o Unity Catalog dentro de um espaço de trabalho existente, normalmente faz sentido usar hive_metastore como o catálogo padrão para evitar afetar o código existente que faz referência ao metastore do Hive.

Alterar o catálogo padrão

Um administrador de espaço de trabalho pode alterar o catálogo padrão para o espaço de trabalho. Qualquer pessoa com permissão para criar ou editar um recurso de computação pode definir um catálogo padrão diferente para o recurso de computação.

Aviso

Alterar o catálogo padrão pode interromper as operações de dados existentes que dependem dele.

Para configurar um catálogo padrão diferente para um espaço de trabalho:

  1. Inicie sessão na sua área de trabalho como administrador da área de trabalho.
  2. Clique no seu nome de utilizador na barra superior da área de trabalho e selecione Definições de administrador na lista pendente.
  3. Clique na guia Avançado .
  4. Na linha Catálogo padrão do espaço de trabalho, insira o nome do catálogo e clique em Salvar.

Reinicie os armazéns SQL e clusters para que a alteração entre em vigor. Todos os SQL warehouses e clusters novos e reiniciados usarão esse catálogo como o espaço de trabalho padrão.

Você também pode substituir o catálogo padrão para um cluster específico definindo a seguinte configuração do Spark no cluster. Esta abordagem não está disponível para armazéns SQL:

spark.databricks.sql.initial.catalog.name

Para obter instruções, consulte Configuração do Spark.

Exibir o catálogo padrão atual

Para obter o catálogo padrão atual para seu espaço de trabalho, você pode usar uma instrução SQL em um bloco de anotações ou consulta do Editor SQL. Um administrador de espaço de trabalho pode obter o catálogo padrão usando a interface do usuário de Configurações de administrador.

Configurações do administrador

  1. Inicie sessão na sua área de trabalho como administrador da área de trabalho.
  2. Clique no seu nome de utilizador na barra superior da área de trabalho e selecione Definições de administrador na lista pendente.
  3. Clique na guia Avançado .
  4. Na linha Catálogo padrão do espaço de trabalho, exiba o nome do catálogo.

SQL

Execute o seguinte comando em um bloco de anotações ou consulta do Editor SQL que esteja sendo executada em um armazém SQL ou cluster compatível com o Catálogo Unity. O catálogo padrão do espaço de trabalho é retornado desde que nenhuma USE CATALOG instrução ou configuração JDBC tenha sido definida na sessão e desde que nenhuma spark.databricks.sql.initial.catalog.namespace configuração seja definida para o cluster.

SELECT current_catalog();