Dela via


Vägledning för haveriberedskap för Azure Data Lake Analytics

>[! VIKTIGT] > Azure Data Lake Analytics drogs tillbaka den 29 februari 2024. Läs mer med det här meddelandet. > >För dataanalys kan din organisation använda Azure Synapse Analytics eller Microsoft Fabric.s

Azure Data Lake Analytics är en tjänst på begäran som gör det enklare att analysera stordata. I stället för att distribuera, konfigurera och justera maskinvara, kan du skriva frågor genom vilka du kan omvandla dina data och extrahera värdefulla insikter. Med Analytics-tjänsten kan du hantera jobb av alla skalor direkt bara genom att ange hur mycket kraft du behöver. Du betalar bara för ditt jobb när det körs, vilket gör det kostnadseffektivt. Den här artikeln innehåller vägledning om hur du skyddar dina jobb mot sällsynta avbrott i hela regionen eller oavsiktliga borttagningar.

Vägledning om haveriberedskap

När du använder Azure Data Lake Analytics är det viktigt att du förbereder en egen haveriberedskapsplan. Den här artikeln hjälper dig att skapa en haveriberedskapsplan. Det finns fler resurser som kan hjälpa dig att skapa en egen plan:

Metodtips och scenariovägledning

Du kan köra ett återkommande U-SQL-jobb i ett ADLA-konto i en region som läser och skriver U-SQL-tabeller och ostrukturerade data. Förbered för en katastrof genom att vidta följande steg:

  1. Skapa ADLA- och ADLS-konton i den sekundära regionen som ska användas under ett avbrott.

    Anteckning

    Eftersom kontonamn är globalt unika använder du ett konsekvent namngivningsschema som anger vilket konto som är sekundärt.

  2. Information om ostrukturerade data finns i Vägledning för haveriberedskap för data i Azure Data Lake Storage Gen1

  3. För strukturerade data som lagras i ADLA-tabeller och databaser skapar du kopior av metadataartefakter som databaser, tabeller, tabellvärdesfunktioner och sammansättningar. Du måste regelbundet synkronisera om artefakterna när ändringar sker i produktion. Nyligen infogade data måste till exempel replikeras till den sekundära regionen genom att data kopieras och infogas i den sekundära tabellen.

    Anteckning

    Dessa objektnamn är begränsade till det sekundära kontot och är inte globalt unika, så de kan ha samma namn som i det primära produktionskontot.

Under ett avbrott måste du uppdatera skripten så att indatasökvägarna pekar på den sekundära slutpunkten. Sedan skickar användarna sina jobb till ADLA-kontot i den sekundära regionen. Jobbets utdata skrivs sedan till ADLA- och ADLS-kontot i den sekundära regionen.

Nästa steg

Vägledning för haveriberedskap för data i Azure Data Lake Storage Gen1