Dela via


Kör underhåll av deltatabeller i Lakehouse

Kör tabellunderhåll på Delta-tabeller för att hålla dem felfria över tid genom att komprimera små filer, tillämpa läsoptimeringar och ta bort föråldrade filer som inte längre refereras till.

Du kan köra underhåll antingen som en ad hoc-åtgärd i Infrastrukturportalen ( Underhållsåtgärd för Lakehouse-tabellen) eller som en schemalagd och orkestrerad process med hjälp av notebook-filer, pipelines eller REST API. Den här artikeln fokuserar på ad hoc-portalarbetsflödet.

Vägledning för underhåll mellan arbetsbelastningar, inklusive rekommendationer för SQL-analysslutpunkt, Power BI Direct Lake och datalageranvändare, finns i Underhåll och optimering av tabeller mellan arbetsbelastningar. För underhållsmönster av typen kod först, se Delta Lake-tabelloptimering och V-Order och Hantera Lakehouse med Microsoft Fabric REST API.

Utför tabellunderhåll från Lakehouse

Tabellunderhåll i Lakehouse gäller endast för Delta-tabeller. Äldre Hive-tabeller som använder format som Parquet, ORC, AVRO eller CSV stöds inte.

I dialogrutan Kör underhållskommandon väljer du alternativ baserat på ditt mål.

Som allmän praxis kör du underhåll efter större inmatnings- eller uppdateringsaktivitet, eller när du observerar många små filer och långsammare läsprestanda.

  1. Från ditt Microsoft Fabric-konto går du till önskad Lakehouse.

  2. Högerklicka på måltabellen under Tabeller i Lakehouse Explorer (eller använd ellipsen).

  3. Välj menyposten Underhåll.

    Skärmbild som visar dialogrutan Kör underhållskommandon.

  4. I dialogrutan Kör underhållskommandon väljer du underhållsalternativen:

    • Markera kryssrutan OPTIMERA för att komprimera små Parquet-filer till större filer för mer effektiva läsningar.

    • Om OPTIMERA är markerat kan du också markera kryssrutan Tillämpa V-Order . När du väljer det här alternativet tillämpar Fabric V-Order (optimerad sortering, kodning och komprimering) som en del av optimeringen.

      Anteckning

      V-Order har ungefär 15% påverkan på genomsnittliga skrivtider. Det kan också ge upp till 50% mer komprimering.

    • Markera kryssrutan Kör VAKUUM för att köra Delta Lake-kommandot VACUUM och ta bort filer som är äldre än tröskelvärdet för kvarhållning. Information om kvarhållningsbeteende och säkerhetsinformation finns i Inställningar för vakuumkvarhållning.

  5. Välj Kör nu för att köra tabellunderhållsjobbet.

  6. Spåra jobbutförande på en av dessa två platser:

    • Aviseringsfönstret (klockikonen i sidhuvudet på Fabric-portalen) för omedelbar status för körning.
    • Övervakningshubben (välj Övervaka i det vänstra navigeringsfältet) för fullständig jobbinformation. Leta efter aktiviteter som innehåller TableMaintenance i aktivitetsnamnet.

När du har kört underhåll visas framgång som en slutförd tabellunderhållsaktivitet i Meddelanden och som en lyckad TableMaintenance post i Övervakningshubben.

Mer information om navigering och filter för övervakningshubben finns i Använda hubben Övervakning.

Inställningar för vakuumkvarhållning

Kommandot VACUUM tar bort filer som inte längre refereras till av Delta-loggen och som är äldre än kvarhållningströskeln. Standardtröskelvärdet för kvarhållning är sju dagar.

Om du använder ett kortare kvarhållningsintervall kan du minska Delta-systemets tidsresehistorik och påverka samtidiga läsare och skrivare. Infrastrukturportalen och API-underhållsbegäranden misslyckas som standard för kvarhållningsintervall under sju dagar.

Om du behöver använda ett kvarhållningsintervall på mindre än sju dagar, anger du spark.databricks.delta.retentionDurationCheck.enabled till false i Spark-egenskaperna för den Fabric-miljö som används av dina Spark-laster i arbetsytan. För att lära dig var du konfigurerar och kopplar miljöer, se Skapa, konfigurera och använda en miljö i Fabric och Inställningar för Spark-beräkningskonfiguration i Fabric-miljöer.