Dela via


Delta Lake-loggar i Warehouse i Microsoft Fabric

Gäller för:✅ Warehouse i Microsoft Fabric

Informationslager i Microsoft Fabric är uppbyggda öppna filformat. Användartabeller lagras i parquet-filformat och Delta Lake-loggar publiceras för alla användartabeller.

Delta Lake-loggarna öppnar direktåtkomst till lagrets användartabeller för alla motorer som kan läsa Delta Lake-tabeller. Den här åtkomsten är begränsad till skrivskyddad för att säkerställa att användardata upprätthåller ACID-transaktionsefterlevnad. Alla infogningar, uppdateringar och borttagningar till data i tabellerna måste köras via informationslagret. När en transaktion har checkats in initieras en systembakgrundsprocess för att publicera den uppdaterade Delta Lake-loggen för de berörda tabellerna.

Så här hämtar du OneLake-sökväg

Följande steg beskriver hur du hämtar OneLake-sökvägen från en tabell i ett lager:

  1. Öppna Warehouse på din Microsoft Fabric-arbetsyta.

  2. I Objektutforskaren hittar du fler alternativ (...) i en vald tabell i mappen Tabeller. Välj menyn Egenskaper.

    Skärmbild som visar var du hittar alternativet Egenskaper i en vald tabell.

  3. När du väljer visas följande information i fönstret Egenskaper :

    1. Name
    2. Format
    3. Typ
    4. webbadress
    5. Relativ sökväg
    6. ABFS-sökväg

    Skärmbild av fönstret Egenskaper.

Hämta sökvägen för Delta Lake-loggar

Du kan hitta Delta Lake-loggar via följande metoder:

  • Delta Lake-loggar kan efterfrågas via genvägar som skapats i ett sjöhus. Du kan visa filerna med hjälp av en Microsoft Fabric Spark Notebook eller Lakehouse-utforskaren i Synapse Data Engineering i Microsoft Fabric-portalen.

  • Delta Lake-loggar kan hittas via Azure Storage Explorer, via Spark-anslutningar som Power BI Direct Lake-läget eller med hjälp av andra tjänster som kan läsa deltatabeller.

  • Delta Lake-loggar finns i mappen för _delta_log varje tabell via OneLake Explorer i Windows, som du ser i följande skärmbild.

    Skärmbild av Windows OneLake Explorer som visar sökvägen till mappen deltaloggar för tabellen call_center.

Pausa Delta Lake-loggpublicering

Publicering av Delta Lake-loggar kan pausas och återupptas om det behövs. När publiceringen pausas ser Microsoft Fabric-motorer som läser tabeller utanför lagret data som de var före pausen. Det säkerställer att rapporterna förblir stabila och konsekventa, vilket återspeglar data från alla tabeller som de fanns innan några ändringar gjordes i tabellerna. När dina datauppdateringar är klara kan du återuppta Publiceringen av Delta Lake-loggen för att göra alla senaste dataändringar synliga för andra analysmotorer. Ett annat användningsfall för att pausa Delta Lake-loggpublicering är när användarna inte behöver samverkan med andra beräkningsmotorer i Microsoft Fabric, eftersom det kan bidra till att spara på beräkningskostnaderna.

Syntaxen för att pausa och återuppta Delta Lake-loggpublicering är följande:

ALTER DATABASE CURRENT SET DATA_LAKE_LOG_PUBLISHING = PAUSED | AUTO

Exempel: pausa och återuppta Delta Lake-loggpublicering

Om du vill pausa Delta Lake-loggpublicering använder du följande kodfragment:

ALTER DATABASE CURRENT SET DATA_LAKE_LOG_PUBLISHING = PAUSED

Frågor till lagertabeller i det aktuella lagret från andra Microsoft Fabric-motorer (till exempel frågor från en Lakehouse) visar nu en version av data som den var innan du pausade Delta Lake-loggpublicering. Informationslagerfrågor visar fortfarande den senaste versionen av data.

Om du vill återuppta Delta Lake-loggpublicering använder du följande kodfragment:

ALTER DATABASE CURRENT SET DATA_LAKE_LOG_PUBLISHING = AUTO

När tillståndet ändras tillbaka till AUTO publicerar Infrastrukturlagermotorn loggar över alla nyligen gjorda ändringar i tabeller i lagret, vilket gör det möjligt för andra analysmotorer i Microsoft Fabric att läsa den senaste versionen av data.

Kontrollera status för Delta Lake-loggpublicering

Om du vill kontrollera det aktuella tillståndet för Delta Lake-loggpublicering på alla lager för den aktuella arbetsytan använder du följande kodfragment:

SELECT [name], [DATA_LAKE_LOG_PUBLISHING_DESC] FROM sys.databases

Begränsningar

  • Tabellnamn kan bara användas av Spark och andra system om de bara innehåller följande tecken: A-Z a-z 0-9 och understreck.
  • Kolumnnamn som ska användas av Spark och andra system får inte innehålla:
    • Utrymmen
    • flikar
    • Vagnreturer
    • [
    • ,
    • ;
    • {
    • }
    • (
    • )
    • =
    • ]