Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Dieser Artikel behandelt Databricks Connect für Databricks Runtime Version 13.3 LTS und höher.
In diesem Artikel wird beschrieben, wie Databricks Utilities mit Databricks Connect für Scala verwendet werden. Mit Databricks Connect können Sie beliebte IDEs, Notebookserver und benutzerdefinierte Anwendungen mit Azure Databricks-Clustern verbinden. Weitere Informationen finden Sie unter Was ist Databricks Connect?. Die Python-Version dieses Artikels finden Sie unter Databricks Utilities mit Databricks Connect für Python.
Hinweis
Bevor Sie beginnen, Databricks Connect zu verwenden, müssen Sie den Databricks Connect-Client einrichten.
Sie verwenden Databricks Connect für den Zugriff auf Databricks Utilities wie folgt:
- Verwenden Sie
DBUtils.getDBUtils
, um mit Databricks Utilities auf das Databricks File System (DBFS) und Secrets zuzugreifen.DBUtils.getDBUtils
gehört zur Databricks Utilities for Scala Library. - Keine Databricks-Utilities-Funktionalität außer der vorher genannten Hilfsprogramme ist für Scala-Projekte verfügbar.
- Databricks Connect für Scala deklariert bereits eine Abhängigkeit von der Databricks Utilities for Scala-Bibliothek, sodass Sie diese Abhängigkeit nicht explizit in der Builddatei Ihres Scala-Projekts wie
build.sbt
z. B. fürsbt
Mavenpom.xml
oderbuild.gradle
für Gradle deklarieren müssen. - Die Authentifizierung für die Databricks Utilities für Scala-Bibliothek wird durch Initialisieren der
DatabricksSession
Klasse in Ihrem Databricks Connect-Projekt für Scala bestimmt.
Tipp
Sie können auch das Databricks SDK für Java von Scala verwenden, um auf alle verfügbaren Databricks-REST-API zuzugreifen, nicht nur die vorherigen Databricks Utilities-APIs. Sehen Sie sich das databricks/databricks-sdk-java-Repository in GitHub an und verwenden Sie Scala auch mit dem Databricks SDK für Java.
Das folgende Beispiel zeigt, wie Sie mithilfe der Databricks Utilities for Scala-Bibliothek ein Unity Catalog-Volume automatisieren. In diesem Beispiel wird eine Datei mit dem Namen zzz_hello.txt
im Verzeichnispfad des Volumes innerhalb des Arbeitsbereichs erstellt, anschließend werden die Daten aus der Datei gelesen und schließlich wird die Datei gelöscht.
import com.databricks.sdk.scala.dbutils.DBUtils
object Main {
def main(args: Array[String]): Unit = {
val filePath = "/Volumes/main/default/my-volume/zzz_hello.txt"
val fileData = "Hello, Databricks!"
val dbutils = DBUtils.getDBUtils()
dbutils.fs.put(
file = filePath,
contents = fileData,
overwrite = true
)
println(dbutils.fs.head(filePath))
dbutils.fs.rm(filePath)
}
}