Förinställd lagring i Databricks

Den här sidan förklarar hur standardlagring i Azure Databricks fungerar och hur du skapar kataloger och dataobjekt som använder den.

Vad är standardlagring?

Standardlagring är en fullständigt hanterad lagringsplattform för objekt som tillhandahåller lagring som är redo att användas i ditt Azure Databricks-konto. Vissa Azure Databricks-funktioner använder standardlagring som ett alternativ till extern lagring.

Serverlösa arbetsytor använder standardlagring för intern lagring och lagring av arbetsytor och för standardkatalogen som skapas med arbetsytan. På serverlösa arbetsytor kan du skapa ytterligare kataloger i standardlagring eller i din egen molnobjektlagring.

I både klassiska arbetsytor och serverlösa arbetsytor används standardlagring av funktioner för att lagra saker som kontrollplansmetadata, härledda data, modeller och andra artefakter. Till exempel använder Clean Rooms, Data Classification, Anomaly Detection och Agent Bricks alla en arbetsytas standardlagring. Mer information om vad varje funktion lagrar på standardlagring finns i den enskilda funktionsdokumentationen.

Kravspecifikation

Skapa en ny katalog

Slutför följande steg för att skapa en ny katalog med standardlagring:

  1. Klicka på dataikonen.Katalog i sidofältet. Katalogutforskaren visas.
  2. Klicka på Skapa katalog. Dialogrutan Skapa en ny katalog visas.
  3. Ange ett katalognamn som är unikt i ditt konto.
  4. Välj alternativet Använd standardlagring.
  5. Klicka på Skapa.

På serverlösa arbetsytor kan du också använda följande SQL-kommando för att skapa en ny katalog i standardlagringen. Du behöver inte ange någon plats för katalogen.

CREATE CATALOG [ IF NOT EXISTS ] catalog_name
    [ COMMENT comment ]

Arbeta med standardlagring

Alla interaktioner med standardlagring kräver serverlös, Unity Catalog-aktiverad beräkning.

Resurser som backas upp som standardlagring använder samma behörighetsmodell som andra objekt i Unity Catalog. Du måste ha tillräcklig behörighet för att skapa, visa, fråga eller ändra dataobjekt. Se Behörigheter och skyddsbara objekt i Unity Catalog.

Du arbetar med standardlagring genom att skapa och interagera med hanterade tabeller och hanterade volymer som backas upp som standardlagring. Se Unity Catalog-hanterade tabeller i Azure Databricks för Delta Lake och Apache Iceberg och Vad är Unity Catalogvolymer?.

Du kan använda Catalog Explorer, notebook-filer, SQL-redigeraren och instrumentpaneler för att interagera med dataobjekt som lagras i standardlagringen.

Exempeluppgifter

Följande är exempel på uppgifter som du kan slutföra med standardlagring:

Begränsningar

Följande begränsningar gäller:

  • Klassisk beräkning (alla beräkningar som inte är serverlösa) kan inte interagera med datatillgångar i standardlagringen.
  • Deltadelning stöder delning av tabeller till alla mottagare – öppna eller Azure Databricks – och mottagarna kan använda klassisk beräkning för att få åtkomst till delade tabeller (Beta). Aktivera deltadelning för standardlagring – utökad åtkomst i kontokonsolen.
    • Den här funktionen stöds inte i följande regioner: southcentralus, uksouthoch westus2.
    • Alla andra delbara tillgångar kan bara delas med Azure Databricks-mottagare i samma moln. Mottagarna måste använda serverlös beräkning.
  • Tabeller med partitionering aktiverat kan inte delas med Delta.
  • Externa Iceberg- och Delta-klienter kan inte direkt komma åt underliggande metadata, manifestlistor och datafiler för UC-tabeller på standardlagring (FileIO-åtkomst stöds inte). BI-verktyg som Power BI och Tableau kan dock komma åt Unity Catalog-tabeller på standardlagring med ODBC- och JDBC-drivrutiner. Externa klienter kan också komma åt Unity Catalog-volymer på standardlagring med hjälp av Files-API:et.
  • Standardlagring stöder extern åtkomst via Azure Databricks ODBC - och JDBC-drivrutiner , inklusive ODBC-drivrutinens Cloud Fetch-prestandaoptimering för frågor över större datamängder. Men om du har åtkomst till en standardlagringstabell från en arbetsyta som har private link på klientsidan aktiverad, misslyckas dina ODBC-klientfrågor som är större än 100 MB eftersom Cloud Fetch-optimeringen för standardlagringstabeller för närvarande inte stöder Private Link i klientdelen.