Freigeben über


Databricks Utilities mit Databricks Connect für Scala

Hinweis

Dieser Artikel behandelt Databricks Connect für Databricks Runtime Version 13.3 LTS und höher.

In diesem Artikel wird beschrieben, wie Databricks Utilities mit Databricks Connect für Scala verwendet werden. Mit Databricks Connect können Sie beliebte IDEs, Notebookserver und benutzerdefinierte Anwendungen mit Azure Databricks-Clustern verbinden. Weitere Informationen finden Sie unter Was ist Databricks Connect?. Die Python-Version dieses Artikels finden Sie unter Databricks Utilities mit Databricks Connect für Python.

Hinweis

Bevor Sie beginnen, Databricks Connect zu verwenden, müssen Sie den Databricks Connect-Client einrichten.

Sie verwenden Databricks Connect für den Zugriff auf Databricks Utilities wie folgt:

  • Verwenden Sie DBUtils.getDBUtils, um mit Databricks Utilities auf das Databricks File System (DBFS) und Secrets zuzugreifen. DBUtils.getDBUtils gehört zur Databricks Utilities for Scala Library.
  • Keine Databricks-Utilities-Funktionalität außer der vorher genannten Hilfsprogramme ist für Scala-Projekte verfügbar.
  • Databricks Connect für Scala deklariert bereits eine Abhängigkeit von der Databricks Utilities for Scala-Bibliothek, sodass Sie diese Abhängigkeit nicht explizit in der Builddatei Ihres Scala-Projekts wie build.sbt z. B. für sbtMaven pom.xml oder build.gradle für Gradle deklarieren müssen.
  • Die Authentifizierung für die Databricks Utilities für Scala-Bibliothek wird durch Initialisieren der DatabricksSession Klasse in Ihrem Databricks Connect-Projekt für Scala bestimmt.

Tipp

Sie können auch das Databricks SDK für Java von Scala verwenden, um auf alle verfügbaren Databricks-REST-API zuzugreifen, nicht nur die vorherigen Databricks Utilities-APIs. Sehen Sie sich das databricks/databricks-sdk-java-Repository in GitHub an und verwenden Sie Scala auch mit dem Databricks SDK für Java.

Das folgende Beispiel zeigt, wie Sie mithilfe der Databricks Utilities for Scala-Bibliothek ein Unity Catalog-Volume automatisieren. In diesem Beispiel wird eine Datei mit dem Namen zzz_hello.txt im Verzeichnispfad des Volumes innerhalb des Arbeitsbereichs erstellt, anschließend werden die Daten aus der Datei gelesen und schließlich wird die Datei gelöscht.

import com.databricks.sdk.scala.dbutils.DBUtils

object Main {
  def main(args: Array[String]): Unit = {

    val filePath = "/Volumes/main/default/my-volume/zzz_hello.txt"
    val fileData = "Hello, Databricks!"
    val dbutils = DBUtils.getDBUtils()

    dbutils.fs.put(
      file = filePath,
      contents = fileData,
      overwrite = true
    )

    println(dbutils.fs.head(filePath))

    dbutils.fs.rm(filePath)
  }
}