Wat is de Databricks CLI?

Notitie

Deze informatie is van toepassing op Databricks CLI-versies 0.205 en hoger, die zich in openbare preview bevinden. Voer de opdracht uit databricks -vom uw versie van de Databricks CLI te vinden.

De Databricks-opdrachtregelinterface (ook wel bekend als de Databricks CLI) biedt een hulpprogramma voor het automatiseren van het Azure Databricks-platform vanuit uw terminal-, opdrachtprompt- of automatiseringsscripts.

Informatie voor verouderde Databricks CLI-gebruikers

Hoe werkt de Databricks CLI?

De CLI verpakt de Databricks REST API, een API (Application Programming Interface) die gebruikmaakt van een REST-perspectief om Azure Databricks-account en werkruimtebronnen en -gegevens te automatiseren. Zie de naslaginformatie over de REST API van Azure Databricks.

Als u bijvoorbeeld informatie over een afzonderlijk cluster in een werkruimte wilt afdrukken, voert u de CLI als volgt uit:

databricks clusters get 1234-567890-a12bcde3

De curlequivalente bewerking is langer om uit te drukken en is gevoeliger voor het typen van fouten, als volgt:

curl --request GET "https://${DATABRICKS_HOST}/api/2.0/clusters/get" \
     --header "Authorization: Bearer ${DATABRICKS_TOKEN}" \
     --data '{ "cluster_id": "1234-567890-a12bcde3" }'

Voorbeeld: een Azure Databricks-taak maken

In het volgende voorbeeld wordt de CLI gebruikt om een Azure Databricks-taak te maken. Deze taak bevat één taak. Met deze taak wordt het opgegeven Azure Databricks-notebook uitgevoerd. Dit notebook heeft een afhankelijkheid van een specifieke versie van het PyPI-pakket met de naam wheel. Als u deze taak wilt uitvoeren, maakt de taak tijdelijk een taakcluster waarmee een omgevingsvariabele met de naam PYSPARK_PYTHONwordt geëxporteerd. Nadat de taak is uitgevoerd, wordt het cluster beëindigd.

databricks jobs create --json '{
  "name": "My hello notebook job",
  "tasks": [
    {
      "task_key": "my_hello_notebook_task",
      "notebook_task": {
        "notebook_path": "/Workspace/Users/someone@example.com/hello",
        "source": "WORKSPACE"
      },
      "libraries": [
        {
          "pypi": {
            "package": "wheel==0.41.2"
          }
        }
      ],
      "new_cluster": {
        "spark_version": "13.3.x-scala2.12",
        "node_type_id": "Standard_DS3_v2",
        "num_workers": 1,
        "spark_env_vars": {
          "PYSPARK_PYTHON": "/databricks/python3/bin/python3"
        }
      }
    }
  ]
}'

Volgende stappen