Condividi tramite


Creare schemi

Questo articolo illustra come creare schemi nel catalogo unity e nel metastore Hive legacy.

Per informazioni sugli schemi in Azure Databricks, incluso un confronto del comportamento dello schema nel catalogo Unity e nel metastore Hive, vedere Che cosa sono gli schemi in Azure Databricks?.

Operazioni preliminari

Per creare uno schema nel catalogo unity:

  • È necessario disporre di un metastore del catalogo Unity collegato all'area di lavoro in cui si esegue la creazione dello schema.
  • È necessario disporre delle autorizzazioni per i USE CATALOG dati e CREATE SCHEMA nel catalogo padre dello schema. Un amministratore del metastore o il proprietario del catalogo può concedere questi privilegi. Gli amministratori del metastore possono concedere questi privilegi a se stessi.
  • Per specificare un percorso di archiviazione gestito facoltativo per le tabelle e i volumi nello schema, è necessario definire un percorso esterno nel catalogo unity ed è necessario disporre del CREATE MANAGED STORAGE privilegio per la posizione esterna. Vedere Specificare un percorso di archiviazione gestito nel catalogo unity.
  • Il cluster usato per eseguire un notebook per creare uno schema deve usare una modalità di accesso conforme al catalogo unity. Vedere Modalità di accesso. I warehouse SQL supportano sempre il catalogo Unity.

Per creare uno schema nel metastore Hive:

Creare uno schema

Per creare uno schema nel catalogo Unity, è possibile usare Esplora cataloghi o comandi SQL. Per creare uno schema nel metastore Hive, è necessario usare i comandi SQL.

Esplora cataloghi

  1. Accedere a un'area di lavoro collegata al metastore del catalogo Unity.
  2. Fare clic su Icona catalogo Catalogo.
  3. Nel riquadro Catalogo a sinistra fare clic sul catalogo in cui si vuole creare lo schema.
  4. Nel riquadro dei dettagli fare clic su Crea schema.
  5. Assegnare allo schema un nome e aggiungere qualsiasi commento che consenta agli utenti di comprendere lo scopo dello schema.
  6. (Facoltativo) Specificare un percorso di archiviazione gestito. Richiede il CREATE MANAGED STORAGE privilegio per la posizione esterna di destinazione. Per gli schemi, vedere Specificare un percorso di archiviazione gestito nel catalogo unity e nelle posizioni gestite.
  7. Cliccare su Crea.
  8. Concedere privilegi allo schema. Vedere Gestire i privilegi nel catalogo unity.
  9. Fare clic su Salva.

SQL

  1. Eseguire i comandi SQL seguenti in un notebook o nell'editor di query SQL. Gli elementi tra parentesi quadre sono facoltativi. Puoi usare entrambi SCHEMA o DATABASE. Sostituire i valori segnaposto:

    • <catalog-name>: nome del catalogo padre per lo schema. Se si sta creando uno schema nel metastore Hive e si è in un'area di lavoro abilitata per il catalogo unity, usare hive_metastore come nome del catalogo. Se l'area di lavoro non è abilitata per Unity Catalog, non specificare affatto un catalogo.
    • <schema-name>: nome dello schema.
    • <location-path>: percorso facoltativo di una posizione di archiviazione gestita. Usare con MANAGED LOCATION per il catalogo Unity e con LOCATION per il metastore Hive. In Unity Catalog è necessario avere il CREATE MANAGED STORAGE privilegio per la posizione esterna per il percorso specificato. Per gli schemi, vedere Specificare un percorso di archiviazione gestito nel catalogo unity e nelle posizioni gestite.
    • <comment>: Descrizione facoltativa o altro commento.
    • <property-key> = <property-value> [ , ... ]: facoltativo. Proprietà e valori di Spark SQL da impostare per lo schema.

    Per descrizioni dei parametri più dettagliate, vedere CREATE SCHEMA.

    CREATE { DATABASE | SCHEMA } [ IF NOT EXISTS ] <catalog-name>.<schema-name>
        [ MANAGED LOCATION '<location-path>' | LOCATION '<location-path>']
        [ COMMENT <comment> ]
        [ WITH DBPROPERTIES ( <property-key = property_value [ , ... ]> ) ];
    
  2. Concedere privilegi allo schema. Per i privilegi del catalogo Unity, vedere Gestire i privilegi nel catalogo unity.

È anche possibile creare uno schema usando il provider Databricks Terraform e databricks_schema. È possibile recuperare un elenco di ID schema usando databricks_schemas

Passaggi successivi