Jak číst a zapisovat data pomocí Knihovny Pandas v Microsoft Fabric
Poznámkové bloky Microsoft Fabric podporují bezproblémovou interakci s daty Lakehouse pomocí knihovny Pandas, nejoblíbenější knihovny Pythonu pro zkoumání a zpracování dat. V rámci poznámkového bloku můžou uživatelé rychle číst data ze svých lakehouses v různých formátech souborů a zapisovat je do něj. Tato příručka obsahuje ukázky kódu, které vám pomůžou začít pracovat s vlastním poznámkovými bloky.
Důležité
Microsoft Fabric je v současné době ve verzi PREVIEW. Tyto informace se týkají předběžného vydání produktu, který může být před vydáním podstatně změněn. Společnost Microsoft neposkytuje na zde uvedené informace žádné záruky, ať už vyjádřené nebo předpokládané.
Požadavky
Předplatné Power BI Premium. Pokud ho nemáte, podívejte se na článek Jak koupit Power BI Premium.
Pracovní prostor Power BI s přiřazenou kapacitou Premium Pokud pracovní prostor nemáte, vytvořte ho podle kroků v tématu Vytvoření pracovního prostoru a přiřaďte ho ke kapacitě Premium.
Přihlaste se k Microsoft Fabric.
Načtení dat Lakehouse do poznámkového bloku
Jakmile připojíte Lakehouse k poznámkovému bloku Microsoft Fabric, můžete procházet uložená data, aniž byste museli opustit stránku, a přečíst je do poznámkového bloku několika kliknutími. Při výběru libovolného souboru Lakehouse se zobrazí možnosti načtení dat do datového rámce Spark nebo Pandas. (Můžete také zkopírovat úplnou cestu ABFS souboru nebo popisnou relativní cestu.)
Kliknutím na jednu z výzev k načtení dat se vygeneruje buňka kódu, která tento soubor načte do datového rámce v poznámkovém bloku.
Převod datového rámce Sparku na datový rámec Pandas
Následující příkaz ukazuje, jak převést datový rámec Sparku na datový rámec Pandas.
# Replace "spark_df" with the name of your own Spark DataFrame
pandas_df = spark_df.toPandas()
Čtení a zápis různých formátů souborů
Následující ukázky kódu dokumentují operace Pandas pro čtení a zápis různých formátů souborů.
Poznámka
Cesty k souborům musíte nahradit v následujících ukázkách. Pandas podporuje relativní cesty, jak je znázorněno tady, i úplné cesty ABFS. Buď lze načíst a zkopírovat z rozhraní podle předchozího kroku.
Čtení dat ze souboru CSV
import pandas as pd
# Read a CSV file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pd.read_csv("/LAKEHOUSE_PATH/Files/FILENAME.csv")
display(df)
Zápis dat jako souboru CSV
import pandas as pd
# Write a Pandas DataFrame into a CSV file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_csv("/LAKEHOUSE_PATH/Files/FILENAME.csv")
Čtení dat ze souboru Parquet
import pandas as pd
# Read a Parquet file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_parquet("/LAKEHOUSE_PATH/Files/FILENAME.parquet")
display(df)
Zápis dat jako souboru Parquet
import pandas as pd
# Write a Pandas DataFrame into a Parquet file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_parquet("/LAKEHOUSE_PATH/Files/FILENAME.parquet")
Čtení dat z excelového souboru
import pandas as pd
# Read an Excel file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_excel("/LAKEHOUSE_PATH/Files/FILENAME.xlsx")
display(df)
Zápis dat jako excelového souboru
import pandas as pd
# Write a Pandas DataFrame into an Excel file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_excel("/LAKEHOUSE_PATH/Files/FILENAME.xlsx")
Čtení dat ze souboru JSON
import pandas as pd
# Read a JSON file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_json("/LAKEHOUSE_PATH/Files/FILENAME.json")
display(df)
Zápis dat jako souboru JSON
import pandas as pd
# Write a Pandas DataFrame into a JSON file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_json("/LAKEHOUSE_PATH/Files/FILENAME.json")
Další kroky
- Čištění a příprava dat pomocí nástroje Data Wrangler
- Zahájení trénování modelů ML