Dela via


Databricks kommandoradsgränssnitt (CLI)

Kommentar

Den här informationen gäller för Databricks CLI-versionerna 0.205 och senare. Databricks CLI finns i offentlig förhandsversion.

Databricks CLI-användning omfattas av Databricks-licensen och Databricks sekretessmeddelande, inklusive eventuella användningsdatabestämmelser.

Med Databricks CLI (kommandoradsgränssnitt) kan du interagera med Azure Databricks-plattformen från dina lokala terminal- eller automationsskript. Du kan också köra Databricks CLI-kommandon från en Databricks-arbetsyta med hjälp av webbterminalen. Se Kör shell-kommandon i Azure Databricks webbterminal.

Information om hur du installerar och konfigurerar autentisering för Databricks CLI finns i Installera eller uppdatera Databricks CLI- och -autentisering för Databricks CLI-.

Tips

Databricks CLI-källan är offentligt tillgänglig i lagringsplatsen databricks/cli GitHub.

Information för äldre Databricks CLI-användare

  • Databricks planerar inget stöd eller nytt funktionsarbete för äldre Databricks CLI.
  • Mer information om äldre Databricks CLI finns i Äldre Databricks CLI.
  • Information om hur du migrerar från Databricks CLI version 0.18 eller senare till Databricks CLI version 0.205 eller senare finns i Databricks CLI-migrering.

Hur fungerar Databricks CLI?

CLI omsluter Databricks REST API, som tillhandahåller slutpunkter för att ändra eller begära information om Azure Databricks konto- och arbetsyteobjekt. Se referensen Azure Databricks REST API.

Om du till exempel vill skriva ut information om ett enskilt kluster på en arbetsyta kör du CLI på följande sätt:

databricks clusters get 1234-567890-a12bcde3

Med curlär motsvarande åtgärd följande:

curl --request GET "https://${DATABRICKS_HOST}/api/2.0/clusters/get" \
     --header "Authorization: Bearer ${DATABRICKS_TOKEN}" \
     --data '{ "cluster_id": "1234-567890-a12bcde3" }'

Exempel: skapa ett Azure Databricks jobb

I följande exempel används CLI för att skapa ett Azure Databricks jobb. Det här jobbet innehåller en arbetsuppgift. Den här uppgiften kör den angivna Azure Databricks notebook-filen. Den här notebook-filen är beroende av en specifik version av PyPI-paketet med namnet wheel. För att köra den här uppgiften skapar jobbet tillfälligt ett jobbkluster som exporterar en miljövariabel med namnet PYSPARK_PYTHON. När jobbet har körts avslutas klustret.

databricks jobs create --json '{
  "name": "My hello notebook job",
  "tasks": [
    {
      "task_key": "my_hello_notebook_task",
      "notebook_task": {
        "notebook_path": "/Workspace/Users/someone@example.com/hello",
        "source": "WORKSPACE"
      },
      "libraries": [
        {
          "pypi": {
            "package": "wheel==0.41.2"
          }
        }
      ],
      "new_cluster": {
        "spark_version": "13.3.x-scala2.12",
        "node_type_id": "Standard_DS3_v2",
        "num_workers": 1,
        "spark_env_vars": {
          "PYSPARK_PYTHON": "/databricks/python3/bin/python3"
        }
      }
    }
  ]
}'

Nästa steg