Delen via


Schema's maken

In dit artikel wordt beschreven hoe u schema's maakt in Unity Catalog en de verouderde Hive-metastore.

Voor meer informatie over schema's in Azure Databricks, waaronder een vergelijking van schemagedrag in Unity Catalog en Hive-metastore, raadpleegt u Wat zijn schema's in Azure Databricks?

Voordat u begint

Een schema maken in Unity Catalog:

  • U moet een Unity Catalog-metastore hebben gekoppeld aan de werkruimte waar u het maken van het schema uitvoert.
  • U moet over de USE CATALOG machtigingen en CREATE SCHEMA gegevens beschikken voor de bovenliggende catalogus van het schema. Een metastore-beheerder of de eigenaar van de catalogus kan u deze bevoegdheden verlenen. Als u een metastore-beheerder bent, kunt u deze bevoegdheden aan uzelf verlenen.
  • Als u een optionele beheerde opslaglocatie wilt opgeven voor de tabellen en volumes in het schema, moet een externe locatie worden gedefinieerd in Unity Catalog en moet u over de CREATE MANAGED STORAGE bevoegdheid beschikken op de externe locatie. Zie Een beheerde opslaglocatie opgeven in Unity Catalog.
  • Het cluster dat u gebruikt om een notebook uit te voeren om een schema te maken, moet gebruikmaken van een toegangsmodus die compatibel is met Unity Catalog. Zie Access-modi. SQL Warehouses bieden altijd ondersteuning voor Unity Catalog.

Een schema maken in Hive-metastore:

Een schema maken

Als u een schema wilt maken in Unity Catalog, kunt u Catalog Explorer of SQL-opdrachten gebruiken. Als u een schema wilt maken in Hive-metastore, moet u SQL-opdrachten gebruiken.

Catalogusverkenner

  1. Meld u aan bij een werkruimte die is gekoppeld aan de Unity Catalog-metastore.
  2. Klik op Cataloguspictogram Catalogus.
  3. Klik in het deelvenster Catalogus aan de linkerkant op de catalogus waarin u het schema wilt maken.
  4. Klik in het detailvenster op Schema maken.
  5. Geef het schema een naam en voeg een opmerking toe waarmee gebruikers het doel van het schema kunnen begrijpen.
  6. (Optioneel) Geef een beheerde opslaglocatie op. Vereist de CREATE MANAGED STORAGE bevoegdheid op de externe doellocatie. Zie Een beheerde opslaglocatie opgeven in Unity Catalog en beheerde locaties voor schema's.
  7. Klik op Create.
  8. Verdeel bevoegdheden voor het schema. Zie Bevoegdheden beheren in Unity Catalog.
  9. Klik op Opslaan.

SQL

  1. Voer de volgende SQL-opdrachten uit in een notebook of de SQL-queryeditor. Items tussen haakjes zijn optioneel. U kunt SCHEMA of DATABASE gebruiken. Vervang de waarden van de tijdelijke aanduidingen:

    • <catalog-name>: De naam van de bovenliggende catalogus voor het schema. Als u een schema maakt in Hive-metastore en u zich in een werkruimte met Unity Catalog-functionaliteit bevindt, gebruikt hive_metastore u deze als catalogusnaam. Als uw werkruimte niet is ingeschakeld voor Unity Catalog, geeft u helemaal geen catalogus op.
    • <schema-name>: Een naam voor het schema.
    • <location-path>: Optioneel pad naar een beheerde opslaglocatie. Gebruiken met MANAGED LOCATION voor Unity Catalog en met LOCATION voor Hive-metastore. In Unity Catalog moet u de CREATE MANAGED STORAGE bevoegdheid hebben op de externe locatie voor het pad dat u opgeeft. Zie Een beheerde opslaglocatie opgeven in Unity Catalog en beheerde locaties voor schema's.
    • <comment>: Optionele beschrijving of andere opmerking.
    • <property-key> = <property-value> [ , ... ]:Facultatief. Spark SQL-eigenschappen en -waarden die moeten worden ingesteld voor het schema.

    Zie CREATE SCHEMA voor gedetailleerdere parameterbeschrijvingen.

    CREATE { DATABASE | SCHEMA } [ IF NOT EXISTS ] <catalog-name>.<schema-name>
        [ MANAGED LOCATION '<location-path>' | LOCATION '<location-path>']
        [ COMMENT <comment> ]
        [ WITH DBPROPERTIES ( <property-key = property_value [ , ... ]> ) ];
    
  2. Verdeel bevoegdheden voor het schema. Zie Bevoegdheden beheren in Unity Catalog voor bevoegdheden in Unity Catalog.

U kunt ook een schema maken met behulp van de Databricks Terraform-provider en databricks_schema. U kunt een lijst met schema-id's ophalen met behulp van databricks_schemas

Volgende stappen