Freigeben über


Verwalten der Umgebung über öffentliche APIs

Die Microsoft Fabric-REST-API stellt einen Dienstendpunkt für die Erstellungs-, Lese-, Update- und Löschvorgänge (Create, Read, Update and Delete, CRUD) eines Fabric-Elements bereit. In diesem Artikel werden die verfügbaren REST-APIs der Umgebung und deren Verwendung beschrieben.

Wichtig

  • Das neue Release umfasst neue APIs, eingestellte APIs und Änderungen am API-Antwort-/Anforderungsvertrag. Die Tabelle im folgenden Abschnitt fasst alle API-Änderungen zusammen.

Zusammenfassung der Umgebungs-APIs

Kategorie Programmierschnittstelle (API) Beschreibung Hinweis
Elementvorgang Erstellen der Umgebung Erstellen Sie eine neue leere Umgebung im Arbeitsbereich. Keine Änderung
Elementvorgang Erstellen einer Umgebung mit Definition Erstellen Sie eine neue Umgebung mit Definition. Neue API
Elementvorgang Umgebung löschen Löschen Sie eine vorhandene Umgebung. Keine Änderung
Elementvorgang Auflisten von Umgebungen Die Liste der Umgebungen im Arbeitsbereich abrufen. Keine Änderung
Elementvorgang Abrufen von Umgebungen Rufen Sie die Metadaten einer Umgebung ab. Die Antwort enthält den Status der Umgebung. Update des Antwortvertrags
Elementvorgang Umgebungsdefinition abrufen Rufen Sie die Definition einer Umgebung ab. Neue API
Elementvorgang Umgebung aktualisieren Aktualisieren Sie die Metadaten einer Umgebung, z. B. Name und Beschreibung. Keine Änderung
Elementvorgang Aktualisieren der Umgebungsdefinition Aktualisieren Sie die Definition einer Umgebung. Neue API
Elementvorgang Veröffentlichen von Umgebungen Lösen Sie die Veröffentlichung der Umgebung mit aktuellen ausstehenden Änderungen aus. Update des Antwortvertrags
Elementvorgang Abbrechen der Veröffentlichung von Umgebungen Abbrechen laufender Veröffentlichungen von Umgebungen Keine Änderung
Inszenierung Auflisten von Stagingbibliotheken Rufen Sie die vollständige Liste der Stagingbibliotheken ab. Diese Liste enthält die veröffentlichten und ausstehenden Bibliotheken. Update des Antwortvertrags
Inszenierung Importieren externer Bibliotheken Laden Sie externe Bibliotheken als environment.yml Datei in eine Umgebung hoch. Sie setzt die Liste vorhandener externer Bibliotheken in der Umgebung außer Kraft. Neue API
Inszenierung Exportieren externer Bibliotheken Rufen Sie die vollständigen externen Bibliotheken als environment.yml Datei ab. Neue API
Inszenierung Externe Bibliothek entfernen Löschen einer externen Bibliothek aus einer Umgebung. Diese API akzeptiert jeweils eine Bibliothek. Neue API
Inszenierung Benutzerdefinierte Bibliothek hochladen Laden Sie ein benutzerdefiniertes Paket in eine Umgebung hoch. Diese API ermöglicht jeweils einen Dateiupload. Die unterstützten Dateiformate sind .jar, .py, WHL und .tar.gz. Neue API
Inszenierung Benutzerdefinierte Bibliothek löschen Löschen Eines benutzerdefinierten Pakets aus der Umgebung. Fügen Sie den vollständigen Namen des benutzerdefinierten Pakets mit der Erweiterung in die API-Anforderung ein, um es zu entfernen. Neue API
Inszenierung Hochladen von Stagingbibliotheken Hinzufügen einer benutzerdefinierten Bibliothek oder einer/mehrerer öffentlicher Bibliothek in der Umgebung. Wird in Kürze als veraltet gekennzeichnet
Inszenierung Löschen von Stagingbibliotheken Löschen Sie eine benutzerdefinierte Staging-Bibliothek oder die gesamte öffentliche Bibliothek. Wird in Kürze als veraltet gekennzeichnet
Inszenierung Auflisten von Spark-Stagingeinstellungen Rufen Sie die vollständige Computekonfigurationen für das Staging ab. Die Stagingkonfigurationen umfassen die veröffentlichten und noch ausstehenden Rechnerkonfigurationen. Update des Antwortvertrags
Inszenierung Aktualisieren von Spark-Einstellungen Aktualisieren Sie die Computer-Konfigurationen und Spark-Eigenschaften für eine Umgebung Aktualisierung des Anforderungs-Antwort-Vertrags
Veröffentlicht Auflisten veröffentlichter Bibliotheken Rufen Sie die Bibliotheken ab, die veröffentlicht wurden und in Spark-Sitzungen aktiv sind. Update des Antwortvertrags
Veröffentlicht Veröffentlichte Spark-Einstellung auflisten Rufen Sie die Spark-Computekonfigurationen und Spark-Eigenschaften ab, die veröffentlicht wurden und in Spark-Sitzungen aktiv sind. Update des Antwortvertrags
Veröffentlicht Exportieren externer Bibliotheken Rufen Sie die veröffentlichten externen Bibliotheken als environment.yml Datei ab. Neue API

Weitere Informationen zu den vorhandenen öffentlichen Umgebungs-APIs finden Sie unter Element-APIs: Umgebung.

Details zu den Updates an öffentlichen Umgebungs-APIs

In diesem Abschnitt werden die anstehenden Updates für vorhandene APIs beschrieben.

Abrufen von Umgebungen

In der Antwort der Get Environment-API wird "startTime" zu "startDateTime" und "endTime" wird "endDateTime". Sie stellen die Start-/Endzeit des Veröffentlichungsvorgangs dar.

Hinweis

„startTime“ und „endTime“ verwenden das DateTime-Format, während „startDateTime“ und „endDateTime“ Zeichenfolgen sind. Die Angabe erfolgt in UTC im Format „YYYY-MM-DDTHH:mm:ssZ“.

  • Schnittstelle

    GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}
    
  • Ursprüngliche Beispielantwort

    {
      "displayName": "Environment_1",
      "description": "An Environment description",
      "type": "Environment",
      "workspaceId": "cfafbeb1-8037-4d0c-896e-a46fb27ff229",
      "id": "5b218778-e7a5-4d73-8187-f10824047715",
      "properties": {
        "publishDetails": {
          "state": "Success",
          "targetVersion": "46838a80-5450-4414-bea0-40fb6f3e0c0d",
          "startTime": "2024-03-29T14:17:09.0697022Z",
          "endTime": "2024-03-29T14:48:09.0697022Z",
          "componentPublishInfo": {
            "sparkLibraries": {
              "state": "Success"
            },
            "sparkSettings": {
              "state": "Success"
            }
          }
        }
      }
    }
    
  • Neue Beispielantwort

    {
      "displayName": "Environment_1",
      "description": "An Environment description",
      "type": "Environment",
      "workspaceId": "cfafbeb1-8037-4d0c-896e-a46fb27ff229",
      "id": "5b218778-e7a5-4d73-8187-f10824047715",
      "properties": {
        "publishDetails": {
          "state": "Success",
          "targetVersion": "46838a80-5450-4414-bea0-40fb6f3e0c0d",
          "startDateTime": "2024-03-29T14:17:09Z",
          "endDateTime": "2024-03-29T14:48:09Z",
          "componentPublishInfo": {
            "sparkLibraries": {
              "state": "Success"
            },
            "sparkSettings": {
              "state": "Success"
            }
          }
        }
      }
    }
    

Veröffentlichen von Umgebungen

Die API zur Umgebungsveröffentlichung unterstützt ab Veröffentlichung zeitintensive Vorgänge. Der Antwortvertrag ändert sich. Der Endpunkt bleibt für das Senden von Anforderungen identisch.

  • Schnittstelle

    POST https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/staging/publish
    
  • Ursprüngliche Beispielantwort

    {
      "publishDetails": {
        "state": "Running",
        "targetVersion": "46838a80-5450-4414-bea0-40fb6f3e0c0d",
        "startTime": "2024-03-29T14:17:09.0697022Z",
        "componentPublishInfo": {
          "sparkLibraries": {
            "state": "Running"
          },
          "sparkSettings": {
            "state": "Running"
          }
        }
      }
    }
    
  • Neue Beispielantwort

    
    Location: https://api.fabric.microsoft.com/v1/operations/abcdef00-9d7e-469a-abf1-fca847a0ea69
    x-ms-operation-id: abcdef00-9d7e-469a-abf1-fca847a0ea69
    Retry-After: 60
    
    

Auflisten von Staging- und veröffentlichten Bibliotheken

Mit diesen beiden APIs können Sie die vollständige Liste der Stagingbibliotheken und veröffentlichten Bibliotheken von Umgebungen abrufen. Die Endpunkte bleiben für das Senden von Anforderungen gleich, während die Bibliotheken mit unterschiedlicher Struktur zurückgegeben werden.

  • Schnittstellen

    Abrufen von Stagingbibliotheken

    GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/staging/libraries
    

    Veröffentlichte Bibliotheken abrufen

    GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/libraries
    
  • Ursprüngliche Beispielantwort

    
    {
      "customLibraries": {
        "wheelFiles": [
          "samplewheel-0.18.0-py2.py3-none-any.whl"
        ],
        "pyFiles": [
          "samplepython.py"
        ],
        "jarFiles": [
          "samplejar.jar"
        ],
        "rTarFiles": [
          "sampleR.tar.gz"
        ]
      },
      "environmentYml": "dependencies:\r\n- pip:\r\n  - matplotlib==3.4.3"
    }
    
    
  • Neue Beispielantwort

    {
      "libraries": [
        {
          "name": "samplewheel-0.18.0-py2.py3-none-any.whl",
          "libraryType": "Custom"
        },
        {
          "name": "samplepython.py",
          "libraryType": "Custom"
        },
        {
          "name": "samplejar.jar",
          "libraryType": "Custom"
        },
        {
          "name": "sampleR.tar.gz",
          "libraryType": "Custom"
        },
        {
          "name": "fuzzywuzzy",
          "libraryType": "External",
          "version": "0.0.1"
        },
        {
          "name": "matplotlib",
          "libraryType": "External",
          "version": "0.0.1"
        }
      ],
      "continuationToken": "null",
      "continuationUri": "null"
    }
    
    

Auflisten von Staging-/veröffentlichten Spark-Einstellungen

Diese beiden APIs können die Spark-Computekonfigurationen und -eigenschaften der Umgebung abrufen. Die Endpunkte bleiben für das Senden von Anforderungen gleich, während die Konfigurationen mit unterschiedlicher Struktur zurückgegeben werden. Die Spark-Eigenschaften werden in eine Liste umgewandelt.

  • Schnittstellen

    Abrufen von Spark-Stagingeinstellungen

    GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/staging/sparkcompute
    

    Veröffentlichte Spark-Einstellungen abrufen

    GET https://api.fabric.microsoft.com/v1/workspaces/{workspaceId}/environments/{environmentId}/sparkcompute
    
  • Ursprüngliche Beispielantwort

    {
      "instancePool": {
        "name": "MyWorkspacePool",
        "type": "Workspace",
        "id": "78942136-106c-4f3e-80fc-7ff4eae11603"
      },
      "driverCores": 4,
      "driverMemory": "56g",
      "executorCores": 4,
      "executorMemory": "56g",
      "dynamicExecutorAllocation": {
        "enabled": false,
        "minExecutors": 1,
        "maxExecutors": 1
      },
      "sparkProperties": {
        "spark.acls.enable": "false"
      },
      "runtimeVersion": "1.2"
    }
    
  • Neue Beispielantwort

    {
      "instancePool": {
        "name": "MyWorkspacePool",
        "type": "Workspace",
        "id": "78942136-106c-4f3e-80fc-7ff4eae11603"
      },
      "driverCores": "4",
          "driverMemory": "56G",
      "executorCores": "4",
      "executorMemory": "56G",
      "dynamicExecutorAllocation": {
        "enabled": false,
        "minExecutors": 1,
        "maxExecutors": 1
      },
      "sparkProperties": [
        {
          "key": "spark.acls.enable",
          "value": "false"
        }
      ],
      "runtimeVersion": "1.2"
    }
    

Aktualisieren von Spark-Einstellungen

Diese API dient zum Aktualisieren der Spark-Computeressourcen und -Eigenschaften einer Umgebung. Der Vertrag der Spark-Eigenschaft in einer Anforderung/Antwort werden ab Veröffentlichung aktualisiert.

  • Ursprüngliche Beispielanforderung

    PATCH https://api.fabric.microsoft.com/v1/workspaces/f089354e-8366-4e18-aea3-4cb4a3a50b48/environments/707cfd07-cbf1-41da-aad7-dd157ddb8c11/staging/sparkcompute
    
    {
      "instancePool": {
        "name": "MyWorkspacePool",
        "type": "Workspace"
      },
      "driverCores": 4,
      "driverMemory": "56g",
      "executorCores": 4,
      "executorMemory": "56g",
      "dynamicExecutorAllocation": {
        "enabled": false,
        "minExecutors": 1,
        "maxExecutors": 1
      },
      "sparkProperties": {
        "spark.acls.enable": "false",
        "spark.admin.acls": null
      },
      "runtimeVersion": "1.2"
    }
    
  • Neue Beispielanforderung

    PATCH https://api.fabric.microsoft.com/v1/workspaces/f089354e-8366-4e18-aea3-4cb4a3a50b48/environments/707cfd07-cbf1-41da-aad7-dd157ddb8c11/staging/sparkcompute
    
    {
      "instancePool": {
        "name": "MyWorkspacePool",
        "type": "Workspace"
      },
      "driverCores": "4",
      "driverMemory": "56G",
      "executorCores": "4",
      "executorMemory": "56G",
      "dynamicExecutorAllocation": {
        "enabled": false,
        "minExecutors": 1,
        "maxExecutors": 1
      },
      "sparkProperties": [
        {
          "key": "spark.acls.enable",
          "value": "false"
        },
        {
          "key": "spark.admin.acls",
          "value": null
        }
      ],
      "runtimeVersion": "1.2"
    }
    
  • Ursprüngliche Beispielantwort

    {
      "instancePool": {
        "name": "MyWorkspacePool",
        "type": "Workspace",
        "id": "78942136-106c-4f3e-80fc-7ff4eae11603"
      },
      "driverCores": 4,
      "driverMemory": "56g",
      "executorCores": 4,
      "executorMemory": "56g",
      "dynamicExecutorAllocation": {
        "enabled": false,
        "minExecutors": 1,
        "maxExecutors": 1
      },
      "sparkProperties": {
        "spark.acls.enable": "false"
      },
      "runtimeVersion": "1.2"
    }
    
  • Neue Beispielantwort

    {
      "instancePool": {
        "name": "MyWorkspacePool",
        "type": "Workspace",
        "id": "78942136-106c-4f3e-80fc-7ff4eae11603"
      },
      "driverCores": "4",
      "driverMemory": "56G",
      "executorCores": "4",
      "executorMemory": "56G",
      "dynamicExecutorAllocation": {
        "enabled": false,
        "minExecutors": 1,
        "maxExecutors": 1
      },
      "sparkProperties": [
        {
          "key": "spark.acls.enable",
          "value": "false"
        }
      ],
      "runtimeVersion": "1.2"
    }
    

Anwendungsfälle für öffentliche Umgebungs-APIs

Wichtig

Die neuen APIs und Vertragsänderungen sind in diesem Abschnitt nicht enthalten.

In diesem Abschnitt wird veranschaulicht, wie Sie die derzeit verfügbaren APIs verwenden, um bestimmte Ziele zu erreichen. Ersetzen Sie in den folgenden Beispielen {WORKSPACE_ID} und {ARTIFACT_ID} durch die entsprechenden Werte.

Eine neue Umgebung erstellen

Sie können eine neue leere Umgebung mit der folgenden API erstellen.

  • Beispielanforderung

    POST https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments
    
    {
        "displayName": "Environment_1",
        "description": "An environment description"
    }
    

Verwalten von Stagingbibliotheken

Sie können die APIs für das Hochladen/Löschen von Staging-Bibliotheken verwenden, um den Bibliotheksbereich in der Umgebung zu verwalten.

Überprüfen der veröffentlichten Bibliotheken von Umgebungen

Vor dem Hinzufügen/Löschen der Bibliothek können Sie die API zum Abrufen veröffentlichter Bibliotheken verwenden, um zu überprüfen, welche Bibliotheken derzeit wirksam sind.

  • Beispielanforderung

    GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/libraries
    
  • Beispiel für eine Antwort

    {
        "customLibraries": {
            "wheelFiles": [
                "samplewheel-0.18.0-py2.py3-none-any.whl"
            ],
            "pyFiles": [
                "samplepython.py"
            ],
            "jarFiles": [
                "samplejar.jar"
            ],
            "rTarFiles": [
                "sampleR.tar.gz"
            ]
        },
        "environmentYml": "dependencies:\r\n- pip:\r\n  - matplotlib==3.4.3"
    }
    

Hochladen der Bibliotheken

Die API zum Hochladen der Stagingbibliothek akzeptiert jeweils eine Datei. Die unterstützten Dateitypen sind WHL, .jar, .tar.gz, .py und environment.yml für öffentliche Bibliothek. Sie können die Datei über den Inhaltstyp "multipart/form-data" angeben.

Hinweis

  • Um die öffentliche Bibliothek effizienter zu bearbeiten, empfiehlt es sich, alle erwarteten Bibliotheken aus PyPI und Conda in einer environment.yml Datei zu erstellen.
  • Die Upload-API ermöglicht bis zu 200 MB Datei in einer Anforderung, Bibliothek, die diesen Größengrenzwert überschreitet, wird derzeit in der öffentlichen API nicht unterstützt.
  • Beispielanforderungen

    POST https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/libraries
    

Löschen der Bibliotheken

Durch Angeben des vollständigen Bibliotheksdateinamens mit dem Typsuffix können Sie jeweils eine Bibliothek löschen.

Hinweis

  • Wenn Sie environment.yml als gelöschte Datei angeben, entfernen Sie alle öffentlichen Bibliotheken.
  • Falls Sie eine Teilmenge der bestehenden öffentlichen Bibliothek entfernen möchten, verwenden Sie stattdessen die Upload-Bibliothek und laden Sie eine environment.yml hoch, die nur die erwarteten Bibliotheken enthält. Der hochgeladene environment.yml ersetzt den vorhandenen Abschnitt der öffentlichen Bibliothek vollständig.
  • Beispielanforderungen

    DELETE https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/libraries?libraryToDelete=fuzzywuzzy-0.18.0-py2.py3-none-any.whl
    

Verwalten der Spark-Computeressourcen für das Staging

Mit der API zum Aktualisieren von Spark-Computeressourcen für das Staging können Sie das Spark-Computing verwalten.

Überprüfen der veröffentlichten Spark-Computeressourcen in Umgebungen

Bevor Sie die Konfigurationen für die Umgebung ändern, können Sie die veröffentlichte Spark-Compute-API verwenden, um zu überprüfen, welche Spark-Computekonfigurationen derzeit effektiv sind.

  • Beispielanforderung

    GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/sparkcompute
    
  • Beispiel für eine Antwort

    {
        "instancePool": {
            "name": "Starter Pool",
            "type": "Workspace"
        },
        "driverCores": 4,
        "driverMemory": "56g",
        "executorCores": 4,
        "executorMemory": "56g",
        "dynamicExecutorAllocation": {
            "enabled": false,
            "minExecutors": 1,
            "maxExecutors": 1
        },
        "sparkProperties": {
            "spark.acls.enable": "false"
        },
        "runtimeVersion": "1.2"
    }
    

Aktualisierungen der Rechenkonfigurationen

Sie können die Spark-Laufzeit aktualisieren, zu einem anderen Pool wechseln, die Computekonfiguration verfeinern und Spark-Eigenschaften hinzufügen/entfernen, indem Sie den Anforderungstext dieser API bearbeiten.

Sie können den angefügten Pool wechseln, indem Sie den Poolnamen und den Pool angeben. Geben Sie den Poolnamen als Starter Pool an, um den Pool auf die Standardeinstellungen umzustellen. Die vollständige Liste der verfügbaren benutzerdefinierten Pools im Arbeitsbereich nach REST-API finden Sie unter Benutzerdefinierte Pools – Liste der benutzerdefinierten Pools im Arbeitsbereich.

Wenn Sie eine vorhandene Spark-Eigenschaft entfernen möchten, müssen Sie den Wert mit null mit dem Schlüssel angeben, den Sie entfernen möchten, wie im folgenden Beispiel gezeigt.

  • Beispielanforderung

    PATCH https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/sparkcompute
    
    {
        "instancePool": {
            "name": "Starter Pool",
            "type": "Workspace"
        },
        "driverCores": 4,
        "driverMemory": "56g",
        "executorCores": 4,
        "executorMemory": "56g",
        "dynamicExecutorAllocation": {
            "enabled": false,
            "minExecutors": 1,
            "maxExecutors": 1
        },
        "sparkProperties": {
            "spark.acls.enable": null
        },
        "runtimeVersion": "1.2"
    }
    

Effektive Änderungen vornehmen

Verwenden sie die folgenden APIs, um die Änderungen zu veröffentlichen.

Vorbereiten einer Veröffentlichung

Die Umgebung kann jeweils eine Veröffentlichung akzeptieren. Bevor Sie Ihre Umgebung veröffentlichen, können Sie den Status Ihrer Umgebung überprüfen und eine abschließende Überprüfung der Änderungen in der Staging-Umgebung vornehmen. Sobald die Umgebung erfolgreich veröffentlicht wurde, werden alle Konfigurationen im Stagingstatus wirksam.

  • Schritt 1: Abrufen der Metadaten der Umgebung

    GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/
    

    Im Antworttext können Sie den Zustand der Umgebung deutlich erkennen. Stellen Sie sicher, dass keine aktuelle Veröffentlichung stattfindet, bevor Sie mit dem nächsten Schritt fortfahren.

  • Schritt 2: Abrufen der Stagingbibliotheken/Spark-Computeressourcen für eine abschließende Überprüfung

    GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/libraries
    
    GET https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/sparkcompute
    

Auslösen der Veröffentlichung der Umgebung

Die Änderungen, die Sie für die Stagingbibliotheken und Spark Compute vorgenommen haben, werden zwischengespeichert, müssen jedoch veröffentlicht werden, um wirksam zu werden. Folgen Sie dem folgenden Beispiel, um die Veröffentlichung auszulösen.

  • Beispielanforderung

    POST https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/publish
    
  • Beispiel für eine Antwort

    {
        "publishDetails":
        {
            "state": "Running",
            "targetVersion": "46838a80-5450-4414-bea0-40fb6f3e0c0d",
            "startTime": "2024-03-29T14:17:09.0697022Z",
            "componentPublishInfo": {
                "sparkLibraries": {
                    "state": "Running"
                },
                "sparkSettings": {
                    "state": "Running"
                }
            }
        }
    }   
    

Während der Veröffentlichung können Sie auch die folgende API aufrufen, um sie abzubrechen.

  • Beispielanforderung

    POST https://api.fabric.microsoft.com/v1/workspaces/{{WORKSPACE_ID}}/environments/{{ARTIFACT_ID}}/staging/cancelPublish