Not
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Det första steget i data- och pipelinemigrering är att identifiera de data som du vill göra tillgängliga i OneLake och de pipelines som du tänker flytta.
Du har två alternativ för datamigrering:
- Alternativ 1: Azure Data Lake Storage (ADLS) Gen2 som standardlagring. Om du för närvarande använder ADLS Gen2 och vill undvika datakopiering bör du överväga att använda OneLake-genvägar.
- Alternativ 2: OneLake som standardlagring. Om du vill flytta från ADLS Gen2 till OneLake som ett lagringslager kan du läsa/skriva från/till OneLake från dina notebook-filer och Spark-jobbdefinitioner.
Datamigrering
Alternativ 1: ADLS Gen2 som lagring (genvägar)
Om du interagerar med ADLS Gen2 och vill undvika dataduplicering kan du skapa en genväg till ADLS Gen2-källsökvägen i OneLake. Du kan skapa genvägar i avsnitten Filer och tabeller i lakehouse i Fabric med följande överväganden:
- Avsnittet Filer är det ohanterade området i sjön. Om dina data är i CSV-, JSON- eller Parquet-format rekommenderar vi att du skapar en genväg till det här området.
- Avsnittet Tabeller är det hanterade området i sjön. Alla tabeller, både Spark-hanterade och ohanterade tabeller, registreras här. Om dina data är i Delta-format kan du skapa en genväg i det här området och den automatiska identifieringsprocessen registrerar automatiskt deltatabellerna i lakehouse-metaarkivet.
Läs mer om hur du skapar en genväg till ADLS Gen2.
Alternativ 2: OneLake som lagring
Om du vill använda OneLake som ett lagringslager och flytta data från ADLS Gen2 bör du först peka Azure Synapse Spark-relaterade objekt till OneLake och sedan överföra befintliga data till OneLake. Det förra finns i integrera OneLake med Azure Synapse Spark.
Om du vill flytta befintliga data till OneLake har du flera alternativ:
- mssparkutils fastcp: Mssparkutils-biblioteket tillhandahåller ett fastcp-API som gör att du kan kopiera data mellan från ADLS Gen2 till OneLake.
- AzCopy: Du kan använda kommandoradsverktyget AzCopy för att kopiera data från ADLS Gen2 till OneLake.
- Azure Data Factory, Azure Synapse Analytics och Data Factory i Fabric: Använd kopieringsaktivitet för att kopiera data till lakehouse.
- Använd genvägar: Du kan aktivera historiska ADLS Gen2-data i OneLake med hjälp av genvägar. Ingen datakopiering behövs.
- Azure Storage Explorer: Du kan flytta filer från ADLS Gen2-platsen till OneLake med Azure Storage Explorer. Se hur du integrerar OneLake med Azure Storage Explorer.
Pipelines-migrering (Spark-relaterade aktiviteter)
Om dina Azure Synapse-pipelines innehåller anteckningsböcker och/eller Spark-jobbdefinitioner behöver du flytta dessa pipelines från Azure Synapse till Data Factory-pipelines i Fabric och referera målanteckningsböckerna. Notebook-aktiviteten är tillgänglig i Data Factory pipelines. Se alla aktiviteter som stöds i Fabric här.
- Information om Spark-relaterade pipelineaktivitetsöverväganden finns i avsnittet om skillnader mellan Azure Synapse Spark och Fabric.
- Information om migrering av notebook-filer finns i Migrera notebook-filer från Azure Synapse till Fabric.
- För pipelinemigrering, se migrera till Data Factory i Fabric.