Condividi tramite


Utilità di Databricks con Databricks Connessione per Scala

Nota

Questo articolo illustra databricks Connessione per Databricks Runtime 13.3 LTS e versioni successive.

Questo articolo descrive come usare le utilità di Databricks con Databricks Connessione per Scala. Databricks Connessione consente di connettere gli IDE, i server notebook e le applicazioni personalizzate più diffusi ai cluster Azure Databricks. Vedere Che cos'è Databricks Connessione?. Per la versione Python di questo articolo, vedere Utilità di Databricks con Databricks Connessione per Python.

Nota

Prima di iniziare a usare Databricks Connessione, è necessario configurare il client databricks Connessione.

Si usa Databricks Connessione per accedere alle utilità di Databricks come indicato di seguito:

  • Usare DBUtils.getDBUtils per accedere a Databricks File System (DBFS) e ai segreti tramite Databricks Utilities. DBUtils.getDBUtils appartiene alle utilità di Databricks per la libreria Scala .
  • Non sono disponibili funzionalità di Utilità databricks diverse dalle utilità precedenti per i progetti Scala.
  • Databricks Connessione per Scala dichiara già una dipendenza dalla libreria Databricks Utilities for Scala, quindi non è necessario dichiarare esplicitamente questa dipendenza nel file di compilazione del progetto Scala, build.sbt ad esempio per sbt, pom.xml per Maven o build.gradle per Gradle.
  • L'autenticazione per la libreria Databricks Utilities per Scala viene determinata tramite l'inizializzazione della DatabricksSession classe nel progetto databricks Connessione per Scala.

Suggerimento

È anche possibile usare Databricks SDK per Java da Scala per accedere a qualsiasi API REST di Databricks disponibile, non solo alle API di Utilità di Databricks precedenti. Vedere il repository databricks/databricks-sdk-java in GitHub e anche Usare Scala con Databricks SDK per Java.

L'esempio seguente illustra come usare le utilità di Databricks per la libreria Scala per automatizzare un volume di Unity Catalog. Questo esempio crea un file denominato zzz_hello.txt nel percorso del volume all'interno dell'area di lavoro, legge i dati dal file e quindi elimina il file.

import com.databricks.sdk.scala.dbutils.DBUtils

object Main {
  def main(args: Array[String]): Unit = {

    val filePath = "/Volumes/main/default/my-volume/zzz_hello.txt"
    val fileData = "Hello, Databricks!"
    val dbutils = DBUtils.getDBUtils()

    dbutils.fs.put(
      file = filePath,
      contents = fileData,
      overwrite = true
    )

    println(dbutils.fs.head(filePath))

    dbutils.fs.rm(filePath)
  }
}