Migrera data och pipelines från Azure Synapse Analytics till Microsoft Fabric

Det första steget i data- och pipelinemigrering är att identifiera de data som du vill göra tillgängliga i OneLake och de pipelines som du tänker flytta.

Du har två alternativ för datamigrering:

  • Alternativ 1: Azure Data Lake Storage (ADLS) Gen2 som standardlagring. Om du för närvarande använder ADLS Gen2 och vill undvika datakopiering bör du överväga att använda OneLake-genvägar.
  • Alternativ 2: OneLake som standardlagring. Om du vill flytta från ADLS Gen2 till OneLake som ett lagringslager kan du läsa/skriva från/till OneLake från dina notebook-filer och Spark-jobbdefinitioner.

Datamigrering

Alternativ 1: ADLS Gen2 som lagring (genvägar)

Om du interagerar med ADLS Gen2 och vill undvika dataduplicering kan du skapa en genväg till ADLS Gen2-källsökvägen i OneLake. Du kan skapa genvägar i avsnitten Filer och tabeller i lakehouse i Fabric med följande överväganden:

  • Avsnittet Filer är det ohanterade området i sjön. Om dina data är i CSV-, JSON- eller Parquet-format rekommenderar vi att du skapar en genväg till det här området.
  • Avsnittet Tabeller är det hanterade området i sjön. Alla tabeller, både Spark-hanterade och ohanterade tabeller, registreras här. Om dina data är i Delta-format kan du skapa en genväg i det här området och den automatiska identifieringsprocessen registrerar automatiskt deltatabellerna i lakehouse-metaarkivet.

Läs mer om hur du skapar en genväg till ADLS Gen2.

Alternativ 2: OneLake som lagring

Om du vill använda OneLake som ett lagringslager och flytta data från ADLS Gen2 bör du först peka Azure Synapse Spark-relaterade objekt till OneLake och sedan överföra befintliga data till OneLake. Det förra finns i integrera OneLake med Azure Synapse Spark.

Om du vill flytta befintliga data till OneLake har du flera alternativ:

  • mssparkutils fastcp: Mssparkutils-biblioteket tillhandahåller ett fastcp-API som gör att du kan kopiera data mellan från ADLS Gen2 till OneLake.
  • AzCopy: Du kan använda kommandoradsverktyget AzCopy för att kopiera data från ADLS Gen2 till OneLake.
  • Azure Data Factory, Azure Synapse Analytics och Data Factory i Fabric: Använd kopieringsaktivitet för att kopiera data till lakehouse.
  • Använd genvägar: Du kan aktivera historiska ADLS Gen2-data i OneLake med hjälp av genvägar. Ingen datakopiering behövs.
  • Azure Storage Explorer: Du kan flytta filer från ADLS Gen2-platsen till OneLake med Azure Storage Explorer. Se hur du integrerar OneLake med Azure Storage Explorer.

Om dina Azure Synapse-pipelines innehåller anteckningsböcker och/eller Spark-jobbdefinitioner behöver du flytta dessa pipelines från Azure Synapse till Data Factory-pipelines i Fabric och referera målanteckningsböckerna. Notebook-aktiviteten är tillgänglig i Data Factory pipelines. Se alla aktiviteter som stöds i Fabric här.