Bagikan melalui


DatabricksCompute Kelas

Mengelola target komputasi Databricks di Azure Machine Learning.

Azure Databricks adalah lingkungan berbasis Apache Spark di cloud Azure. Ini dapat digunakan sebagai target komputasi dengan alur Azure Machine Learning. Untuk informasi selengkapnya, lihat Apa itu target komputasi di Azure Machine Learning?

Konstruktor Class ComputeTarget.

Ambil representasi cloud dari objek Komputasi yang terkait dengan ruang kerja yang disediakan. Mengembalikan instans kelas anak yang sesuai dengan jenis tertentu dari objek Komputasi yang diambil.

Warisan
DatabricksCompute

Konstruktor

DatabricksCompute(workspace, name)

Parameter

workspace
Workspace
Diperlukan

Objek ruang kerja yang berisi objek DatabricksCompute untuk diambil.

name
str
Diperlukan

Nama objek DatabricksCompute untuk diambil.

workspace
Workspace
Diperlukan

Objek ruang kerja yang berisi objek Azure Compute yang akan diambil.

name
str
Diperlukan

Nama objek Komputasi yang akan diambil.

Keterangan

Contoh berikut menunjukkan cara melampirkan Azure Databricks sebagai target komputasi.


   # Replace with your account info before running.

   db_compute_name=os.getenv("DATABRICKS_COMPUTE_NAME", "<my-databricks-compute-name>") # Databricks compute name
   db_resource_group=os.getenv("DATABRICKS_RESOURCE_GROUP", "<my-db-resource-group>") # Databricks resource group
   db_workspace_name=os.getenv("DATABRICKS_WORKSPACE_NAME", "<my-db-workspace-name>") # Databricks workspace name
   db_access_token=os.getenv("DATABRICKS_ACCESS_TOKEN", "<my-access-token>") # Databricks access token

   try:
       databricks_compute = DatabricksCompute(workspace=ws, name=db_compute_name)
       print('Compute target {} already exists'.format(db_compute_name))
   except ComputeTargetException:
       print('Compute not found, will use below parameters to attach new one')
       print('db_compute_name {}'.format(db_compute_name))
       print('db_resource_group {}'.format(db_resource_group))
       print('db_workspace_name {}'.format(db_workspace_name))
       print('db_access_token {}'.format(db_access_token))

       config = DatabricksCompute.attach_configuration(
           resource_group = db_resource_group,
           workspace_name = db_workspace_name,
           access_token= db_access_token)
       databricks_compute=ComputeTarget.attach(ws, db_compute_name, config)
       databricks_compute.wait_for_completion(True)

Sampel lengkap tersedia dari https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-use-databricks-as-compute-target.ipynb

Metode

attach

TIDAK DIGUNAKAN LAGI. Gunakan metode attach_configuration sebagai gantinya.

Asosiasikan sumber daya komputasi Databricks yang ada dengan ruang kerja yang disediakan.

attach_configuration

Buat objek konfigurasi untuk melampirkan target komputasi Databricks.

delete

Opsi hapus tidak didukung untuk objek DatabricksCompute. Gunakan detach sebagai gantinya.

deserialize

Ubah objek JSON menjadi objek DatabricksCompute.

detach

Mencopot objek Databricks dari ruang kerja terkaitnya.

Objek cloud yang mendasarinya tidak dihapus, hanya asosiasi yang dihapus.

get_credentials

Ambil informasi masuk untuk target Databricks.

refresh_state

Lakukan pembaruan di tempat dari properti objek.

Metode ini memperbarui properti berdasarkan status objek cloud yang sesuai saat ini. Ini terutama digunakan untuk polling manual status komputasi.

serialize

Ubah objek DatabricksCompute ini menjadi kamus serial JSON.

attach

TIDAK DIGUNAKAN LAGI. Gunakan metode attach_configuration sebagai gantinya.

Asosiasikan sumber daya komputasi Databricks yang ada dengan ruang kerja yang disediakan.

static attach(workspace, name, resource_id, access_token)

Parameter

workspace
Workspace
Diperlukan

Objek ruang kerja untuk mengasosiasikan sumber daya komputasi.

name
str
Diperlukan

Nama yang akan diasosiasikan dengan sumber daya komputasi di dalam ruang kerja yang disediakan. Tidak harus cocok dengan nama sumber daya komputasi yang akan dihubungkan.

resource_id
str
Diperlukan

ID sumber daya Azure untuk sumber daya komputasi yang dilampirkan.

access_token
str
Diperlukan

Token akses untuk sumber daya yang dilampirkan.

Mengembalikan

Representasi objek DatabricksCompute dari objek komputasi.

Tipe hasil

Pengecualian

attach_configuration

Buat objek konfigurasi untuk melampirkan target komputasi Databricks.

static attach_configuration(resource_group=None, workspace_name=None, resource_id=None, access_token='')

Parameter

resource_group
str
nilai default: None

Nama grup sumber daya tempat Databricks berada.

workspace_name
str
nilai default: None

Nama ruang kerja Databricks.

resource_id
str
nilai default: None

ID sumber daya Azure untuk sumber daya komputasi yang dilampirkan.

access_token
str
Diperlukan

Token akses untuk sumber daya komputasi yang dilampirkan.

Mengembalikan

Objek konfigurasi yang akan digunakan saat melampirkan objek Azure Compute.

Tipe hasil

Pengecualian

delete

Opsi hapus tidak didukung untuk objek DatabricksCompute. Gunakan detach sebagai gantinya.

delete()

Pengecualian

deserialize

Ubah objek JSON menjadi objek DatabricksCompute.

static deserialize(workspace, object_dict)

Parameter

workspace
Workspace
Diperlukan

Objek ruang kerja yang diasosiasikan dengan objek DatabricksCompute.

object_dict
dict
Diperlukan

Objek JSON untuk diubah ke objek DatabricksCompute.

Mengembalikan

Representasi DatabricksCompute dari objek JSON yang disediakan.

Tipe hasil

Pengecualian

Keterangan

Mengajukan ComputeTargetException jika ruang kerja yang disediakan bukan ruang kerja yang diasosiasikan dengan Azure Compute.

detach

Mencopot objek Databricks dari ruang kerja terkaitnya.

Objek cloud yang mendasarinya tidak dihapus, hanya asosiasi yang dihapus.

detach()

Pengecualian

get_credentials

Ambil informasi masuk untuk target Databricks.

get_credentials()

Mengembalikan

Info masuk untuk target Databricks.

Tipe hasil

Pengecualian

refresh_state

Lakukan pembaruan di tempat dari properti objek.

Metode ini memperbarui properti berdasarkan status objek cloud yang sesuai saat ini. Ini terutama digunakan untuk polling manual status komputasi.

refresh_state()

Pengecualian

serialize

Ubah objek DatabricksCompute ini menjadi kamus serial JSON.

serialize()

Mengembalikan

Representasi JSON dari objek DatabricksCompute ini.

Tipe hasil

Pengecualian