Slik leser og skriver du data med Pandas i Microsoft Fabric

Microsoft Fabric-notatblokker støtter sømløs interaksjon med Lakehouse-data ved hjelp av Pandas, det mest populære Python-biblioteket for datautforskning og -behandling. I en notatblokk kan brukere raskt lese data fra og skrive data tilbake til Lakehouses i en rekke filformater. Denne veiledningen inneholder kodeeksempler som hjelper deg med å komme i gang i din egen notatblokk.

Viktig

Microsoft Fabric er for øyeblikket i FORHÅNDSVERSJON. Denne informasjonen er knyttet til et forhåndsutgitt produkt som kan endres vesentlig før det utgis. Microsoft gir ingen garantier, uttrykt eller underforstått, med hensyn til informasjonen som er oppgitt her.

Forutsetninger

Laste inn Lakehouse-data i en notatblokk

Når du legger ved en Lakehouse i Microsoft Fabric-notatblokken, kan du utforske lagrede data uten å forlate siden og lese den i notatblokken med noen klikk. Hvis du velger en Lakehouse-fil, får du alternativer for å laste inn data i en spark eller en Pandas DataFrame. (Du kan også kopiere filens fullstendige ABFS-bane eller en egendefinert relativ bane.)

Skjermbilde som viser hvor du velger alternativer for å laste inn data i en Pandas DataFrame.

Hvis du klikker på en av ledetekstene Last inn data, genereres en kodecelle for å laste inn filen i en DataFrame i notatblokken.

Skjermbilde av kodecellen som er lagt til i notatblokken.

Konvertere en Spark DataFrame til en Pandas DataFrame

For referanse viser følgende kommando hvordan du konverterer en Spark DataFrame til en Pandas DataFrame.

# Replace "spark_df" with the name of your own Spark DataFrame
pandas_df = spark_df.toPandas() 

Lese og skrive ulike filformater

Kodeeksempler nedenfor dokumenterer Pandas-operasjoner for lesing og skriving av ulike filformater.

Obs!

Du må erstatte filbanene i følgende eksempler. Pandas støtter både relative baner, som vist her, og fulle ABFS-baner. Begge kan hentes og kopieres fra grensesnittet i henhold til forrige trinn.

Lese data fra en CSV-fil

import pandas as pd

# Read a CSV file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pd.read_csv("/LAKEHOUSE_PATH/Files/FILENAME.csv")
display(df)

Skrive data som en CSV-fil

import pandas as pd 

# Write a Pandas DataFrame into a CSV file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_csv("/LAKEHOUSE_PATH/Files/FILENAME.csv") 

Lese data fra en Parquet-fil

import pandas as pd 
 
# Read a Parquet file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_parquet("/LAKEHOUSE_PATH/Files/FILENAME.parquet") 
display(df)

Skrive data som en parquet-fil

import pandas as pd 
 
# Write a Pandas DataFrame into a Parquet file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_parquet("/LAKEHOUSE_PATH/Files/FILENAME.parquet") 

Lese data fra en Excel-fil

import pandas as pd 
 
# Read an Excel file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_excel("/LAKEHOUSE_PATH/Files/FILENAME.xlsx") 
display(df) 

Skrive data som en Excel-fil

import pandas as pd 

# Write a Pandas DataFrame into an Excel file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_excel("/LAKEHOUSE_PATH/Files/FILENAME.xlsx") 

Lese data fra en JSON-fil

import pandas as pd 
 
# Read a JSON file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_json("/LAKEHOUSE_PATH/Files/FILENAME.json") 
display(df) 

Skrive data som en JSON-fil

import pandas as pd 
 
# Write a Pandas DataFrame into a JSON file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_json("/LAKEHOUSE_PATH/Files/FILENAME.json") 

Neste trinn