Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Die Livy-API für Fabric Data Engineering befindet sich in der öffentlichen Vorschau. Die Livy-API unterstützt azure Service Principal (SPN) nicht, obwohl wir beabsichtigen, den SPN-Support in Kürze hinzuzufügen.
Gilt für:✅ Datentechnik und Data Science in Microsoft Fabric
Spark-Batch-Jobs mithilfe der Livy-API für die Fabric-Datenverarbeitung einreichen.
Voraussetzungen
Fabric Premium- oder Testkapazität mit einem Lakehouse.
Ein Remoteclient wie Visual Studio Code mit Jupyter Notebooks, PySpark und die Microsoft Authentication Library (MSAL) für Python.
Für den Zugriff auf die Fabric-REST-API ist ein Microsoft Entra-App-Token erforderlich. Registrieren einer Anwendung bei der Microsoft Identity Platform.
Einige Daten in Ihrem Lakehouse. Dieses Beispiel verwendet NYC Taxi & Limousine Commission (Parquet-Datei „green_tripdata_2022_08“, die in Lakehouse geladen wurde).
Die Livy-API definiert einen einheitlichen Endpunkt für Vorgänge. Ersetzen Sie die Platzhalter {Entra_TenantID}, {Entra_ClientID}, {Fabric_WorkspaceID} und {Fabric_LakehouseID} durch die entsprechenden Werte, wenn Sie den Beispielen in diesem Artikel folgen.
Konfigurieren von Visual Studio Code für Ihren Livy-API-Batch
Wählen Sie Lakehouse-Einstellungen in Ihrem Fabric Lakehouse aus.
Navigieren Sie zum Abschnitt Livy-Endpunkt.
Kopieren Sie die Verbindungszeichenfolge des Batchauftrags (zweites rotes Feld in der Abbildung) in Ihren Code.
Navigieren Sie zum Microsoft Entra Admin Center, und kopieren Sie sowohl die Anwendungs-ID (Client-ID) als auch die Verzeichnis-ID (Mandant) in Ihren Code.
Erstellen einer Spark-Nutzlast und Hochladen in Ihr Lakehouse
Erstellen Sie ein
.ipynb
-Notebook in Visual Studio Code, und fügen Sie den folgenden Code einimport sys import os from pyspark.sql import SparkSession from pyspark.conf import SparkConf from pyspark.sql.functions import col if __name__ == "__main__": #Spark session builder spark_session = (SparkSession .builder .appName("livybatchdemo") .getOrCreate()) spark_context = spark_session.sparkContext spark_context.setLogLevel("DEBUG") targetLakehouse = spark_context.getConf().get("spark.targetLakehouse") if targetLakehouse is not None: print("targetLakehouse: " + str(targetLakehouse)) else: print("targetLakehouse is None") df_valid_totalPrice = spark_session.sql("SELECT * FROM <YourLakeHouseDataTableName>.transactions where TotalPrice > 0") df_valid_totalPrice_plus_year = df_valid_totalPrice.withColumn("transaction_year", col("TransactionDate").substr(1, 4)) deltaTablePath = "abfss:<YourABFSSpath>"+str(targetLakehouse)+".Lakehouse/Tables/CleanedTransactions" df_valid_totalPrice_plus_year.write.mode('overwrite').format('delta').save(deltaTablePath)
Speichern Sie die Python-Datei lokal. Diese Python-Codenutzlast enthält zwei Spark-Anweisungen, die an Daten in einem Lakehouse arbeiten und in Ihr Lakehouse hochgeladen werden müssen. Sie benötigen den ABFS-Pfad (Azure Blob File System) der Nutzdaten, um in Ihrem Livy-API-Batchauftrag in Visual Studio Code darauf zu verweisen, und den Lakehouse-Tabellennamen in der SELECT-SQL-Anweisung.
Laden Sie die Python-Nutzdaten in den Dateiabschnitt Ihres Lakehouse hoch. > Daten abrufen > Dateien hochladen > klicken Sie das Feld „Dateien/Eingabe“.
Nachdem sich die Datei im Abschnitt „Dateien“ Ihres Lakehouse befindet, klicken Sie rechts neben dem Dateinamen der Nutzlast auf die drei Punkte, und wählen Sie „Eigenschaften“ aus.
Kopieren Sie diesen ABFS-Pfad in Ihre Notebookzelle in Schritt 1.
Erstellen Sie eine Livy-API-Spark-Batchsitzung
Erstellen Sie ein
.ipynb
-Notebook in Visual Studio Code, und fügen Sie den folgenden Code ein.from msal import PublicClientApplication import requests import time tenant_id = "<Entra_TenantID>" client_id = "<Entra_ClientID>" workspace_id = "<Fabric_WorkspaceID>" lakehouse_id = "<Fabric_LakehouseID>" app = PublicClientApplication( client_id, authority="https://login.microsoftonline.com/43a26159-4e8e-442a-9f9c-cb7a13481d48" ) result = None # If no cached tokens or user interaction needed, acquire tokens interactively if not result: result = app.acquire_token_interactive(scopes=["https://api.fabric.microsoft.com/Lakehouse.Execute.All", "https://api.fabric.microsoft.com/Lakehouse.Read.All", "https://api.fabric.microsoft.com/Item.ReadWrite.All", "https://api.fabric.microsoft.com/Workspace.ReadWrite.All", "https://api.fabric.microsoft.com/Code.AccessStorage.All", "https://api.fabric.microsoft.com/Code.AccessAzureKeyvault.All", "https://api.fabric.microsoft.com/Code.AccessAzureDataExplorer.All", "https://api.fabric.microsoft.com/Code.AccessAzureDataLake.All", "https://api.fabric.microsoft.com/Code.AccessFabric.All"]) # Print the access token (you can use it to call APIs) if "access_token" in result: print(f"Access token: {result['access_token']}") else: print("Authentication failed or no access token obtained.") if "access_token" in result: access_token = result['access_token'] api_base_url_mist='https://api.fabric.microsoft.com/v1' livy_base_url = api_base_url_mist + "/workspaces/"+workspace_id+"/lakehouses/"+lakehouse_id +"/livyApi/versions/2023-12-01/batches" headers = {"Authorization": "Bearer " + access_token}
Führen Sie das Notebookfenster aus. In Ihrem Browser sollte ein Popupfenster erscheinen, in dem Sie die Identität auswählen können, mit der Sie sich anmelden möchten.
Nachdem Sie die Identität ausgewählt haben, mit der Sie sich anmelden möchten, werden Sie auch aufgefordert, die API-Berechtigungen für die Microsoft Entra-App-Registrierung zu genehmigen.
Schließen Sie das Browserfenster nach Abschluss der Authentifizierung.
In Visual Studio Code sollten Sie das zurückgegebene Microsoft Entra-Token sehen.
Fügen Sie eine weitere Notebookzelle hinzu, und fügen Sie diesen Code ein.
# call get batch API get_livy_get_batch = livy_base_url get_batch_response = requests.get(get_livy_get_batch, headers=headers) if get_batch_response.status_code == 200: print("API call successful") print(get_batch_response.json()) else: print(f"API call failed with status code: {get_batch_response.status_code}") print(get_batch_response.text)
Führen Sie die Notebook-Zelle aus. Es sollten zwei Zeilen ausgegeben werden, wenn der Livy-Batchauftrag erstellt wird.
Übermitteln einer spark.sql-Anweisung mithilfe der Livy-API-Batchsitzung
Fügen Sie eine weitere Notebookzelle hinzu, und fügen Sie diesen Code ein.
# submit payload to existing batch session print('Submit a spark job via the livy batch API to ') newlakehouseName = "YourNewLakehouseName" create_lakehouse = api_base_url_mist + "/workspaces/" + workspace_id + "/items" create_lakehouse_payload = { "displayName": newlakehouseName, "type": 'Lakehouse' } create_lakehouse_response = requests.post(create_lakehouse, headers=headers, json=create_lakehouse_payload) print(create_lakehouse_response.json()) payload_data = { "name":"livybatchdemo_with"+ newlakehouseName, "file":"abfss://YourABFSPathToYourPayload.py", "conf": { "spark.targetLakehouse": "Fabric_LakehouseID" } } get_batch_response = requests.post(get_livy_get_batch, headers=headers, json=payload_data) print("The Livy batch job submitted successful") print(get_batch_response.json())
Führen Sie die Notebook-Zelle aus. Es sollten mehrere Zeilen ausgegeben werden, wenn der Livy Batch-Auftrag erstellt und ausgeführt wird.
Gehen Sie zurück zu Ihrem Lakehouse, um die Änderungen zu sehen.
Integration in Fabric-Umgebungen
Diese Livy-API-Sitzung wird standardmäßig für den Standardstartpool für den Arbeitsbereich ausgeführt. Alternativ können Sie Fabric-Umgebungen zum Erstellen, Konfigurieren und Verwenden einer Umgebung in Microsoft Fabric verwenden, um den Spark-Pool anzupassen, den die Livy-API-Sitzung für diese Spark-Aufträge verwendet. Um Ihre Fabric-Umgebung zu verwenden, aktualisieren Sie einfach die vorherige Notebook-Zelle mit dieser einzelnen Zeilenänderung.
payload_data = {
"name":"livybatchdemo_with"+ newlakehouseName,
"file":"abfss://YourABFSPathToYourPayload.py",
"conf": {
"spark.targetLakehouse": "Fabric_LakehouseID",
"spark.fabric.environmentDetails" : "{\"id\" : \""EnvironmentID"\"}" # remove this line to use starter pools instead of an environment, replace "EnvironmentID" with your environment ID
}
}
Anzeigen Ihrer Aufträge im Überwachungshub
Sie können auf den Überwachungshub zugreifen, um verschiedene Apache Spark-Aktivitäten anzuzeigen, indem Sie in den Navigationslinks auf der linken Seite „Überwachen“ auswählen.
Wenn der Batchauftrag abgeschlossen ist, können Sie den Sitzungsstatus anzeigen, indem Sie zu Monitor navigieren.
Wählen Sie den Namen der letzten Aktivität aus, und öffnen Sie sie.
In diesem Livy-API-Sitzungsszenario können Sie Ihre vorherigen Batch-Einsendungen, Ausführungsdetails, Spark-Versionen und Konfigurationen einsehen. Beachten Sie den Status „Angehalten“ oben rechts.
Um den gesamten Prozess zusammenzufassen, benötigen Sie einen Remote-Client wie Visual Studio Code, ein Microsoft Entra-App-Token, eine Livy-API-Endpunkt-URL, die Authentifizierung für den Zugriff auf Ihr Lakehouse, eine Spark-Payload in Ihrem Lakehouse und schließlich eine Batch-Livy-API-Sitzung.