Adatok olvasása és írása a Pandas használatával a Microsoft Fabricben
A Microsoft Fabric-jegyzetfüzetek támogatják a Lakehouse-adatokkal való zökkenőmentes interakciót a Pandas használatával, amely a legnépszerűbb Python-kódtár az adatfeltáráshoz és -feldolgozáshoz. A jegyzetfüzetekben a felhasználók számos fájlformátumban gyorsan olvashatnak adatokat a Lakehouse-jukból, és visszaírhatják az adatokat a tótárházukba. Ez az útmutató kódmintákat tartalmaz, amelyek segítenek a saját jegyzetfüzetének használatbavételében.
Fontos
A Microsoft Fabric előzetes verzióban érhető el.
Előfeltételek
Egy Power BI Premium-előfizetés. Ha még nincs ilyenje, olvassa el A Power BI Premium vásárlása című témakört.
Egy Power BI-munkaterület hozzárendelt Premium-kapacitással. Ha nincs munkaterülete, a Munkaterület létrehozása című cikk lépéseit követve hozzon létre egyet, és rendelje hozzá egy Prémium szintű kapacitáshoz.
Jelentkezzen be a Microsoft Fabricbe.
Lakehouse-adatok betöltése jegyzetfüzetbe
Miután csatolt egy Lakehouse-t a Microsoft Fabric-jegyzetfüzethez, anélkül vizsgálhatja meg a tárolt adatokat, hogy elhagyná a lapot, és kattintások alatt elolvasná őket a jegyzetfüzetben. Ha kiválaszt egy Lakehouse-fájlfelületet, az "Adatok betöltése" lehetőséget választja a Sparkba vagy a Pandas DataFrame-be. (A fájl teljes ABFS-elérési útját vagy egy rövid relatív elérési utat is másolhat.)
Ha az egyik "Adatok betöltése" kérdésre kattint, létrejön egy kódcella, amely betölti a fájlt egy DataFrame-be a jegyzetfüzetben.
Spark-adatkeret konvertálása Pandas DataFrame-fájllá
Referenciaként a következő parancs bemutatja, hogyan konvertálhat Spark DataFrame-et Pandas DataFrame-mé.
# Replace "spark_df" with the name of your own Spark DataFrame
pandas_df = spark_df.toPandas()
Különböző fájlformátumok olvasása és írása
Az alábbi kódminták a Különböző fájlformátumok olvasására és írására szolgáló Pandas-műveleteket dokumentálják.
Megjegyzés
Az alábbi mintákban cserélje le a fájl elérési útját. A Pandas mindkét relatív útvonalat támogatja az itt látható módon, valamint a teljes ABFS-útvonalakat. Bármelyik lekérhető és másolható a felületről az előző lépésnek megfelelően.
Adatok beolvasása CSV-fájlból
import pandas as pd
# Read a CSV file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pd.read_csv("/LAKEHOUSE_PATH/Files/FILENAME.csv")
display(df)
Adatok írása CSV-fájlként
import pandas as pd
# Write a Pandas DataFrame into a CSV file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_csv("/LAKEHOUSE_PATH/Files/FILENAME.csv")
Adatok beolvasása Parquet-fájlból
import pandas as pd
# Read a Parquet file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_parquet("/LAKEHOUSE_PATH/Files/FILENAME.parquet")
display(df)
Adatok írása Parquet-fájlként
import pandas as pd
# Write a Pandas DataFrame into a Parquet file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_parquet("/LAKEHOUSE_PATH/Files/FILENAME.parquet")
Adatok olvasása Excel-fájlból
import pandas as pd
# Read an Excel file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_excel("/LAKEHOUSE_PATH/Files/FILENAME.xlsx")
display(df)
Adatok írása Excel-fájlként
import pandas as pd
# Write a Pandas DataFrame into an Excel file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_excel("/LAKEHOUSE_PATH/Files/FILENAME.xlsx")
Adatok olvasása JSON-fájlból
import pandas as pd
# Read a JSON file from your Lakehouse into a Pandas DataFrame
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df = pandas.read_json("/LAKEHOUSE_PATH/Files/FILENAME.json")
display(df)
Adatok írása JSON-fájlként
import pandas as pd
# Write a Pandas DataFrame into a JSON file in your Lakehouse
# Replace LAKEHOUSE_PATH and FILENAME with your own values
df.to_json("/LAKEHOUSE_PATH/Files/FILENAME.json")
Következő lépések
- Adatok tisztítása és előkészítése a Data Wrangler használatával
- Gépi tanulási modellek betanítása