Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die Microsoft Fabric-REST-API stellt einen Dienstendpunkt für die Erstellungs-, Lese-, Update- und Löschvorgänge (Create, Read, Update and Delete, CRUD) eines Fabric-Elements bereit. In diesem Artikel werden die verfügbaren REST-APIs der Umgebung und deren Verwendung beschrieben.
Wichtig
- Das neue Release umfasst neue APIs, eingestellte APIs und Änderungen am API-Antwort-/Anforderungsvertrag. Die Tabelle im folgenden Abschnitt fasst alle API-Änderungen zusammen.
Zusammenfassung der Umgebungs-APIs
Kategorie | Programmierschnittstelle (API) | Beschreibung | Hinweis |
---|---|---|---|
Elementvorgang | Erstellen der Umgebung | Erstellen Sie eine neue leere Umgebung im Arbeitsbereich. | Keine Änderung |
Elementvorgang | Erstellen einer Umgebung mit Definition | Erstellen Sie eine neue Umgebung mit Definition. | Neue API |
Elementvorgang | Umgebung löschen | Löschen Sie eine vorhandene Umgebung. | Keine Änderung |
Elementvorgang | Auflisten von Umgebungen | Die Liste der Umgebungen im Arbeitsbereich abrufen. | Keine Änderung |
Elementvorgang | Abrufen von Umgebungen | Rufen Sie die Metadaten einer Umgebung ab. Die Antwort enthält den Status der Umgebung. | Update des Antwortvertrags |
Elementvorgang | Umgebungsdefinition abrufen | Rufen Sie die Definition einer Umgebung ab. | Neue API |
Elementvorgang | Umgebung aktualisieren | Aktualisieren Sie die Metadaten einer Umgebung, z. B. Name und Beschreibung. | Keine Änderung |
Elementvorgang | Aktualisieren der Umgebungsdefinition | Aktualisieren Sie die Definition einer Umgebung. | Neue API |
Elementvorgang | Veröffentlichen von Umgebungen | Lösen Sie die Veröffentlichung der Umgebung mit aktuellen ausstehenden Änderungen aus. | Update des Antwortvertrags |
Elementvorgang | Abbrechen der Veröffentlichung von Umgebungen | Abbrechen laufender Veröffentlichungen von Umgebungen | Keine Änderung |
Inszenierung | Auflisten von Stagingbibliotheken | Rufen Sie die vollständige Liste der Stagingbibliotheken ab. Diese Liste enthält die veröffentlichten und ausstehenden Bibliotheken. | Update des Antwortvertrags |
Inszenierung | Importieren externer Bibliotheken | Laden Sie externe Bibliotheken als environment.yml Datei in eine Umgebung hoch. Sie setzt die Liste vorhandener externer Bibliotheken in der Umgebung außer Kraft. | Neue API |
Inszenierung | Exportieren externer Bibliotheken | Rufen Sie die vollständigen externen Bibliotheken als environment.yml Datei ab. | Neue API |
Inszenierung | Externe Bibliothek entfernen | Löschen einer externen Bibliothek aus einer Umgebung. Diese API akzeptiert jeweils eine Bibliothek. | Neue API |
Inszenierung | Benutzerdefinierte Bibliothek hochladen | Laden Sie ein benutzerdefiniertes Paket in eine Umgebung hoch. Diese API ermöglicht jeweils einen Dateiupload. Die unterstützten Dateiformate sind .jar, .py, WHL und .tar.gz. | Neue API |
Inszenierung | Benutzerdefinierte Bibliothek löschen | Löschen Eines benutzerdefinierten Pakets aus der Umgebung. Fügen Sie den vollständigen Namen des benutzerdefinierten Pakets mit der Erweiterung in die API-Anforderung ein, um es zu entfernen. | Neue API |
Inszenierung | Hochladen von Stagingbibliotheken | Hinzufügen einer benutzerdefinierten Bibliothek oder einer/mehrerer öffentlicher Bibliothek in der Umgebung. | Wird in Kürze als veraltet gekennzeichnet |
Inszenierung | Löschen von Stagingbibliotheken | Löschen Sie eine benutzerdefinierte Staging-Bibliothek oder die gesamte öffentliche Bibliothek. | Wird in Kürze als veraltet gekennzeichnet |
Inszenierung | Auflisten von Spark-Stagingeinstellungen | Rufen Sie die vollständige Computekonfigurationen für das Staging ab. Die Stagingkonfigurationen umfassen die veröffentlichten und noch ausstehenden Rechnerkonfigurationen. | Update des Antwortvertrags |
Inszenierung | Aktualisieren von Spark-Einstellungen | Aktualisieren Sie die Computer-Konfigurationen und Spark-Eigenschaften für eine Umgebung | Aktualisierung des Anforderungs-Antwort-Vertrags |
Veröffentlicht | Auflisten veröffentlichter Bibliotheken | Rufen Sie die Bibliotheken ab, die veröffentlicht wurden und in Spark-Sitzungen aktiv sind. | Update des Antwortvertrags |
Veröffentlicht | Veröffentlichte Spark-Einstellung auflisten | Rufen Sie die Spark-Computekonfigurationen und Spark-Eigenschaften ab, die veröffentlicht wurden und in Spark-Sitzungen aktiv sind. | Update des Antwortvertrags |
Veröffentlicht | Exportieren externer Bibliotheken | Rufen Sie die veröffentlichten externen Bibliotheken als environment.yml Datei ab. | Neue API |
Weitere Informationen zu den vorhandenen öffentlichen Umgebungs-APIs finden Sie unter Element-APIs: Umgebung.
Details zu den Updates an öffentlichen Umgebungs-APIs
In diesem Abschnitt werden die anstehenden Updates für vorhandene APIs beschrieben.
Abrufen von Umgebungen
In der Antwort der Get Environment-API wird "startTime" zu "startDateTime" und "endTime" wird "endDateTime". Sie stellen die Start-/Endzeit des Veröffentlichungsvorgangs dar.
Hinweis
„startTime“ und „endTime“ verwenden das DateTime-Format, während „startDateTime“ und „endDateTime“ Zeichenfolgen sind. Die Angabe erfolgt in UTC im Format „YYYY-MM-DDTHH:mm:ssZ“.
Schnittstelle
GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}
Ursprüngliche Beispielantwort
{ "displayName": "Environment_1", "description": "An Environment description", "type": "Environment", "workspaceId": "cfafbeb1-8037-4d0c-896e-a46fb27ff229", "id": "5b218778-e7a5-4d73-8187-f10824047715", "properties": { "publishDetails": { "state": "Success", "targetVersion": "46838a80-5450-4414-bea0-40fb6f3e0c0d", "startTime": "2024-03-29T14:17:09.0697022Z", "endTime": "2024-03-29T14:48:09.0697022Z", "componentPublishInfo": { "sparkLibraries": { "state": "Success" }, "sparkSettings": { "state": "Success" } } } } }
Neue Beispielantwort
{ "displayName": "Environment_1", "description": "An Environment description", "type": "Environment", "workspaceId": "cfafbeb1-8037-4d0c-896e-a46fb27ff229", "id": "5b218778-e7a5-4d73-8187-f10824047715", "properties": { "publishDetails": { "state": "Success", "targetVersion": "46838a80-5450-4414-bea0-40fb6f3e0c0d", "startDateTime": "2024-03-29T14:17:09Z", "endDateTime": "2024-03-29T14:48:09Z", "componentPublishInfo": { "sparkLibraries": { "state": "Success" }, "sparkSettings": { "state": "Success" } } } } }
Veröffentlichen von Umgebungen
Die API zur Umgebungsveröffentlichung unterstützt ab Veröffentlichung zeitintensive Vorgänge. Der Antwortvertrag ändert sich. Der Endpunkt bleibt für das Senden von Anforderungen identisch.
Schnittstelle
POST https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/staging/publish
Ursprüngliche Beispielantwort
{ "publishDetails": { "state": "Running", "targetVersion": "46838a80-5450-4414-bea0-40fb6f3e0c0d", "startTime": "2024-03-29T14:17:09.0697022Z", "componentPublishInfo": { "sparkLibraries": { "state": "Running" }, "sparkSettings": { "state": "Running" } } } }
Neue Beispielantwort
Location: https://api.fabric.microsoft.com/v1/operations/abcdef00-9d7e-469a-abf1-fca847a0ea69 x-ms-operation-id: abcdef00-9d7e-469a-abf1-fca847a0ea69 Retry-After: 60
Auflisten von Staging- und veröffentlichten Bibliotheken
Mit diesen beiden APIs können Sie die vollständige Liste der Stagingbibliotheken und veröffentlichten Bibliotheken von Umgebungen abrufen. Die Endpunkte bleiben für das Senden von Anforderungen gleich, während die Bibliotheken mit unterschiedlicher Struktur zurückgegeben werden.
Schnittstellen
Abrufen von Stagingbibliotheken
GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/staging/libraries
Veröffentlichte Bibliotheken abrufen
GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/libraries
Ursprüngliche Beispielantwort
{ "customLibraries": { "wheelFiles": [ "samplewheel-0.18.0-py2.py3-none-any.whl" ], "pyFiles": [ "samplepython.py" ], "jarFiles": [ "samplejar.jar" ], "rTarFiles": [ "sampleR.tar.gz" ] }, "environmentYml": "dependencies:\r\n- pip:\r\n - matplotlib==3.4.3" }
Neue Beispielantwort
{ "libraries": [ { "name": "samplewheel-0.18.0-py2.py3-none-any.whl", "libraryType": "Custom" }, { "name": "samplepython.py", "libraryType": "Custom" }, { "name": "samplejar.jar", "libraryType": "Custom" }, { "name": "sampleR.tar.gz", "libraryType": "Custom" }, { "name": "fuzzywuzzy", "libraryType": "External", "version": "0.0.1" }, { "name": "matplotlib", "libraryType": "External", "version": "0.0.1" } ], "continuationToken": "null", "continuationUri": "null" }
Auflisten von Staging-/veröffentlichten Spark-Einstellungen
Diese beiden APIs können die Spark-Computekonfigurationen und -eigenschaften der Umgebung abrufen. Die Endpunkte bleiben für das Senden von Anforderungen gleich, während die Konfigurationen mit unterschiedlicher Struktur zurückgegeben werden. Die Spark-Eigenschaften werden in eine Liste umgewandelt.
Schnittstellen
Abrufen von Spark-Stagingeinstellungen
GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/staging/sparkcompute
Veröffentlichte Spark-Einstellungen abrufen
GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/sparkcompute
Ursprüngliche Beispielantwort
{ "instancePool": { "name": "MyWorkspacePool", "type": "Workspace", "id": "78942136-106c-4f3e-80fc-7ff4eae11603" }, "driverCores": 4, "driverMemory": "56g", "executorCores": 4, "executorMemory": "56g", "dynamicExecutorAllocation": { "enabled": false, "minExecutors": 1, "maxExecutors": 1 }, "sparkProperties": { "spark.acls.enable": "false" }, "runtimeVersion": "1.2" }
Neue Beispielantwort
{ "instancePool": { "name": "MyWorkspacePool", "type": "Workspace", "id": "78942136-106c-4f3e-80fc-7ff4eae11603" }, "driverCores": "4", "driverMemory": "56G", "executorCores": "4", "executorMemory": "56G", "dynamicExecutorAllocation": { "enabled": false, "minExecutors": 1, "maxExecutors": 1 }, "sparkProperties": [ { "key": "spark.acls.enable", "value": "false" } ], "runtimeVersion": "1.2" }
Aktualisieren von Spark-Einstellungen
Diese API dient zum Aktualisieren der Spark-Computeressourcen und -Eigenschaften einer Umgebung. Der Vertrag der Spark-Eigenschaft in einer Anforderung/Antwort werden ab Veröffentlichung aktualisiert.
Ursprüngliche Beispielanforderung
PATCH https://api.fabric.microsoft.com/v1/workspaces/f089354e-8366-4e18-aea3-4cb4a3a50b48/environments/707cfd07-cbf1-41da-aad7-dd157ddb8c11/staging/sparkcompute { "instancePool": { "name": "MyWorkspacePool", "type": "Workspace" }, "driverCores": 4, "driverMemory": "56g", "executorCores": 4, "executorMemory": "56g", "dynamicExecutorAllocation": { "enabled": false, "minExecutors": 1, "maxExecutors": 1 }, "sparkProperties": { "spark.acls.enable": "false", "spark.admin.acls": null }, "runtimeVersion": "1.2" }
Neue Beispielanforderung
PATCH https://api.fabric.microsoft.com/v1/workspaces/f089354e-8366-4e18-aea3-4cb4a3a50b48/environments/707cfd07-cbf1-41da-aad7-dd157ddb8c11/staging/sparkcompute { "instancePool": { "name": "MyWorkspacePool", "type": "Workspace" }, "driverCores": "4", "driverMemory": "56G", "executorCores": "4", "executorMemory": "56G", "dynamicExecutorAllocation": { "enabled": false, "minExecutors": 1, "maxExecutors": 1 }, "sparkProperties": [ { "key": "spark.acls.enable", "value": "false" }, { "key": "spark.admin.acls", "value": null } ], "runtimeVersion": "1.2" }
Ursprüngliche Beispielantwort
{ "instancePool": { "name": "MyWorkspacePool", "type": "Workspace", "id": "78942136-106c-4f3e-80fc-7ff4eae11603" }, "driverCores": 4, "driverMemory": "56g", "executorCores": 4, "executorMemory": "56g", "dynamicExecutorAllocation": { "enabled": false, "minExecutors": 1, "maxExecutors": 1 }, "sparkProperties": { "spark.acls.enable": "false" }, "runtimeVersion": "1.2" }
Neue Beispielantwort
{ "instancePool": { "name": "MyWorkspacePool", "type": "Workspace", "id": "78942136-106c-4f3e-80fc-7ff4eae11603" }, "driverCores": "4", "driverMemory": "56G", "executorCores": "4", "executorMemory": "56G", "dynamicExecutorAllocation": { "enabled": false, "minExecutors": 1, "maxExecutors": 1 }, "sparkProperties": [ { "key": "spark.acls.enable", "value": "false" } ], "runtimeVersion": "1.2" }
Anwendungsfälle für öffentliche Umgebungs-APIs
Wichtig
Die neuen APIs und Vertragsänderungen sind in diesem Abschnitt nicht enthalten.
In diesem Abschnitt wird veranschaulicht, wie Sie die derzeit verfügbaren APIs verwenden, um bestimmte Ziele zu erreichen. Ersetzen Sie in den folgenden Beispielen {WORKSPACE_ID}
und {ARTIFACT_ID}
durch die entsprechenden Werte.
Eine neue Umgebung erstellen
Sie können eine neue leere Umgebung mit der folgenden API erstellen.
Beispielanforderung
POST https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments { "displayName": "Environment_1", "description": "An environment description" }
Verwalten von Stagingbibliotheken
Sie können die APIs für das Hochladen/Löschen von Staging-Bibliotheken verwenden, um den Bibliotheksbereich in der Umgebung zu verwalten.
Überprüfen der veröffentlichten Bibliotheken von Umgebungen
Vor dem Hinzufügen/Löschen der Bibliothek können Sie die API zum Abrufen veröffentlichter Bibliotheken verwenden, um zu überprüfen, welche Bibliotheken derzeit wirksam sind.
Beispielanforderung
GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/libraries
Beispiel für eine Antwort
{ "customLibraries": { "wheelFiles": [ "samplewheel-0.18.0-py2.py3-none-any.whl" ], "pyFiles": [ "samplepython.py" ], "jarFiles": [ "samplejar.jar" ], "rTarFiles": [ "sampleR.tar.gz" ] }, "environmentYml": "dependencies:\r\n- pip:\r\n - matplotlib==3.4.3" }
Hochladen der Bibliotheken
Die API zum Hochladen der Stagingbibliothek akzeptiert jeweils eine Datei. Die unterstützten Dateitypen sind WHL, .jar, .tar.gz, .py und environment.yml für öffentliche Bibliothek. Sie können die Datei über den Inhaltstyp "multipart/form-data" angeben.
Hinweis
- Um die öffentliche Bibliothek effizienter zu bearbeiten, empfiehlt es sich, alle erwarteten Bibliotheken aus PyPI und Conda in einer environment.yml Datei zu erstellen.
- Die Upload-API ermöglicht bis zu 200 MB Datei in einer Anforderung, Bibliothek, die diesen Größengrenzwert überschreitet, wird derzeit in der öffentlichen API nicht unterstützt.
Beispielanforderungen
POST https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/libraries
Löschen der Bibliotheken
Durch Angeben des vollständigen Bibliotheksdateinamens mit dem Typsuffix können Sie jeweils eine Bibliothek löschen.
Hinweis
- Wenn Sie
environment.yml
als gelöschte Datei angeben, entfernen Sie alle öffentlichen Bibliotheken. - Falls Sie eine Teilmenge der bestehenden öffentlichen Bibliothek entfernen möchten, verwenden Sie stattdessen die Upload-Bibliothek und laden Sie eine environment.yml hoch, die nur die erwarteten Bibliotheken enthält. Der hochgeladene environment.yml ersetzt den vorhandenen Abschnitt der öffentlichen Bibliothek vollständig.
Beispielanforderungen
DELETE https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/libraries?libraryToDelete=fuzzywuzzy-0.18.0-py2.py3-none-any.whl
Verwalten der Spark-Computeressourcen für das Staging
Mit der API zum Aktualisieren von Spark-Computeressourcen für das Staging können Sie das Spark-Computing verwalten.
Überprüfen der veröffentlichten Spark-Computeressourcen in Umgebungen
Bevor Sie die Konfigurationen für die Umgebung ändern, können Sie die veröffentlichte Spark-Compute-API verwenden, um zu überprüfen, welche Spark-Computekonfigurationen derzeit effektiv sind.
Beispielanforderung
GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/sparkcompute
Beispiel für eine Antwort
{ "instancePool": { "name": "Starter Pool", "type": "Workspace" }, "driverCores": 4, "driverMemory": "56g", "executorCores": 4, "executorMemory": "56g", "dynamicExecutorAllocation": { "enabled": false, "minExecutors": 1, "maxExecutors": 1 }, "sparkProperties": { "spark.acls.enable": "false" }, "runtimeVersion": "1.2" }
Aktualisierungen der Rechenkonfigurationen
Sie können die Spark-Laufzeit aktualisieren, zu einem anderen Pool wechseln, die Computekonfiguration verfeinern und Spark-Eigenschaften hinzufügen/entfernen, indem Sie den Anforderungstext dieser API bearbeiten.
Sie können den angefügten Pool wechseln, indem Sie den Poolnamen und den Pool angeben. Geben Sie den Poolnamen als Starter Pool
an, um den Pool auf die Standardeinstellungen umzustellen. Die vollständige Liste der verfügbaren benutzerdefinierten Pools im Arbeitsbereich nach REST-API finden Sie unter Benutzerdefinierte Pools – Liste der benutzerdefinierten Pools im Arbeitsbereich.
Wenn Sie eine vorhandene Spark-Eigenschaft entfernen möchten, müssen Sie den Wert mit null
mit dem Schlüssel angeben, den Sie entfernen möchten, wie im folgenden Beispiel gezeigt.
Beispielanforderung
PATCH https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/sparkcompute { "instancePool": { "name": "Starter Pool", "type": "Workspace" }, "driverCores": 4, "driverMemory": "56g", "executorCores": 4, "executorMemory": "56g", "dynamicExecutorAllocation": { "enabled": false, "minExecutors": 1, "maxExecutors": 1 }, "sparkProperties": { "spark.acls.enable": null }, "runtimeVersion": "1.2" }
Effektive Änderungen vornehmen
Verwenden sie die folgenden APIs, um die Änderungen zu veröffentlichen.
Vorbereiten einer Veröffentlichung
Die Umgebung kann jeweils eine Veröffentlichung akzeptieren. Bevor Sie Ihre Umgebung veröffentlichen, können Sie den Status Ihrer Umgebung überprüfen und eine abschließende Überprüfung der Änderungen in der Staging-Umgebung vornehmen. Sobald die Umgebung erfolgreich veröffentlicht wurde, werden alle Konfigurationen im Stagingstatus wirksam.
Schritt 1: Abrufen der Metadaten der Umgebung
GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/
Im Antworttext können Sie den Zustand der Umgebung deutlich erkennen. Stellen Sie sicher, dass keine aktuelle Veröffentlichung stattfindet, bevor Sie mit dem nächsten Schritt fortfahren.
Schritt 2: Abrufen der Stagingbibliotheken/Spark-Computeressourcen für eine abschließende Überprüfung
GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/libraries GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/sparkcompute
Auslösen der Veröffentlichung der Umgebung
Die Änderungen, die Sie für die Stagingbibliotheken und Spark Compute vorgenommen haben, werden zwischengespeichert, müssen jedoch veröffentlicht werden, um wirksam zu werden. Folgen Sie dem folgenden Beispiel, um die Veröffentlichung auszulösen.
Beispielanforderung
POST https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/publish
Beispiel für eine Antwort
{ "publishDetails": { "state": "Running", "targetVersion": "46838a80-5450-4414-bea0-40fb6f3e0c0d", "startTime": "2024-03-29T14:17:09.0697022Z", "componentPublishInfo": { "sparkLibraries": { "state": "Running" }, "sparkSettings": { "state": "Running" } } } }
Während der Veröffentlichung können Sie auch die folgende API aufrufen, um sie abzubrechen.
Beispielanforderung
POST https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/cancelPublish