Membuat dan menjalankan Pekerjaan Azure Databricks

Artikel ini merinci cara membuat dan menjalankan Pekerjaan Azure Databricks menggunakan antarmuka pengguna Pekerjaan.

Untuk mempelajari tentang opsi konfigurasi untuk pekerjaan dan cara mengedit pekerjaan yang ada, lihat Mengonfigurasi pengaturan untuk pekerjaan Azure Databricks.

Untuk mempelajari cara mengelola dan memantau eksekusi pekerjaan, lihat Menampilkan dan mengelola eksekusi pekerjaan.

Untuk membuat alur kerja pertama Anda dengan pekerjaan Azure Databricks, lihat mulai cepat.

Penting

  • Ruang kerja dibatasi hingga 1000 eksekusi tugas bersamaan. Respons 429 Too Many Requests dikembalikan saat Anda meminta eksekusi yang tidak dapat segera dimulai.
  • Jumlah pekerjaan yang dapat dibuat ruang kerja dalam satu jam dibatasi hingga 10000 (termasuk “pengiriman eksekusi”). Batas ini juga memengaruhi tugas yang dibuat oleh REST API dan alur kerja notebook.

Membuat dan menjalankan pekerjaan menggunakan CLI, API, atau notebook

  • Untuk mempelajari tentang menggunakan Databricks CLI untuk membuat dan menjalankan pekerjaan, lihat Apa itu Databricks CLI?.
  • Untuk mempelajari tentang menggunakan JOBS API untuk membuat dan menjalankan pekerjaan, lihat Pekerjaan di referensi REST API.
  • Untuk mempelajari cara menjalankan dan menjadwalkan pekerjaan secara langsung di buku catatan Databricks, lihat Membuat dan mengelola pekerjaan buku catatan terjadwal.

Membuat pekerjaan

  1. Lakukan salah satu hal berikut ini:

    • Klik Ikon PekerjaanAlur Kerja di bar samping dan klik Tombol Buat Pekerjaan.
    • Di bar samping, klik Ikon BaruBaru dan pilih Pekerjaan.

    Tab Tugas muncul dengan dialog buat tugas bersama dengan panel sisi Detail pekerjaan yang berisi pengaturan tingkat pekerjaan.

    Buat layar pekerjaan

  2. Ganti Pekerjaan Baru... dengan nama pekerjaan Anda.

  3. Masukkan nama untuk tugas di bidang Nama tugas.

  4. Di menu drop-down Jenis, pilih jenis tugas yang akan dijalankan. Lihat Opsi jenis tugas.

  5. Mengonfigurasi kluster tempat tugas berjalan. Secara default, komputasi tanpa server dipilih jika ruang kerja Anda berada di ruang kerja yang mendukung Katalog Unity dan Anda telah memilih tugas yang didukung oleh komputasi tanpa server untuk alur kerja. Lihat Menjalankan pekerjaan Azure Databricks Anda dengan komputasi tanpa server untuk alur kerja. Jika komputasi tanpa server tidak tersedia, atau Anda ingin menggunakan jenis komputasi yang berbeda, Anda dapat memilih kluster pekerjaan baru atau kluster semua tujuan yang ada di menu dropdown Komputasi .

    • Kluster Pekerjaan Baru: Klik Edit di menu drop-down Kluster dan selesaikan konfigurasi kluster.
    • Kluster Serba Guna yang Ada: Pilih kluster yang ada di menu drop-down Kluster . Untuk membuka kluster pada halaman baru, klik ikon di Tautan Eksternal sebelah kanan nama dan deskripsi kluster.

    Untuk mempelajari selengkapnya tentang memilih dan mengonfigurasi kluster untuk menjalankan tugas, lihat Menggunakan komputasi Azure Databricks dengan pekerjaan Anda.

  6. Untuk menambahkan pustaka dependen, klik + Tambahkan di samping Pustaka dependen. Lihat Mengonfigurasi pustaka dependen.

  7. Anda dapat meneruskan parameter untuk tugas Anda. Untuk informasi tentang persyaratan untuk memformat dan meneruskan parameter, lihat Meneruskan parameter ke tugas pekerjaan Azure Databricks.

  8. Untuk menerima pemberitahuan secara opsional untuk mulai, berhasil, atau gagal tugas, klik + Tambahkan di samping Email. Pemberitahuan kegagalan dikirim pada kegagalan tugas awal dan percobaan ulang berikutnya. Untuk memfilter pemberitahuan dan mengurangi jumlah email yang dikirim, centang Matikan suara pemberitahuan untuk eksekusi yang dilewati, Matikan suara pemberitahuan untuk eksekusi yang dibatalkan, atau Matikan suara pemberitahuan hingga coba lagi terakhir.

  9. Untuk mengonfigurasi kebijakan coba lagi secara opsional untuk tugas, klik + Tambahkan di samping Coba Lagi. Lihat Mengonfigurasi kebijakan coba lagi untuk tugas.

  10. Untuk mengonfigurasi durasi atau batas waktu tugas yang diharapkan secara opsional, klik + Tambahkan di samping Ambang durasi. Lihat Mengonfigurasi waktu penyelesaian yang diharapkan atau batas waktu untuk tugas.

  11. Klik Buat.

Setelah membuat tugas pertama, Anda dapat mengonfigurasi pengaturan tingkat pekerjaan seperti pemberitahuan, pemicu pekerjaan, dan izin. Lihat Mengedit pekerjaan.

Untuk menambahkan tugas lain, klik Tombol Tambahkan Tugas tampilan DAG. Opsi kluster bersama disediakan jika Anda telah memilih komputasi Tanpa Server atau mengonfigurasi Kluster Pekerjaan Baru untuk tugas sebelumnya. Anda juga dapat mengonfigurasi kluster untuk setiap tugas saat membuat atau mengedit tugas. Untuk mempelajari selengkapnya tentang memilih dan mengonfigurasi kluster untuk menjalankan tugas, lihat Menggunakan komputasi Azure Databricks dengan pekerjaan Anda.

Anda dapat secara opsional mengonfigurasi pengaturan tingkat pekerjaan seperti pemberitahuan, pemicu pekerjaan, dan izin. Lihat Mengedit pekerjaan. Anda juga dapat mengonfigurasi parameter tingkat pekerjaan yang dibagikan dengan tugas pekerjaan. Lihat Menambahkan parameter untuk semua tugas pekerjaan.

Opsi jenis tugas

Berikut ini adalah jenis tugas yang bisa Anda tambahkan ke pekerjaan Azure Databricks dan opsi yang tersedia untuk berbagai jenis tugas:

  • Buku Catatan: Di menu drop-down Sumber , pilih Ruang Kerja untuk menggunakan buku catatan yang terletak di folder ruang kerja Azure Databricks atau penyedia Git untuk buku catatan yang terletak di repositori Git jarak jauh.

    Ruang kerja: Gunakan browser file untuk menemukan buku catatan, klik nama buku catatan, dan klik Konfirmasi.

    Penyedia Git: Klik Edit atau Tambahkan referensi git dan masukkan informasi repositori Git. Lihat Menggunakan buku catatan dari repositori Git jarak jauh.

    Catatan

    Total output sel notebook (output gabungan dari semua sel notebook) tunduk pada batas ukuran 20 MB. Selain itu, output sel individu tunduk pada batas ukuran 8 MB. Jika total output sel melebihi ukuran 20 MB, atau jika output sel individual lebih besar dari 8 MB, eksekusi dibatalkan dan ditandai sebagai gagal.

    Jika Anda memerlukan bantuan untuk menemukan sel yang dekat atau melebihi batas, jalankan notebook terhadap kluster serba guna dan gunakan teknik simpan otomatis notebook ini.

  • JAR: Tentukan Kelas utama. Gunakan nama kelas yang sepenuhnya memenuhi syarat yang berisi metode utama, misalnya, org.apache.spark.examples.SparkPi. Kemudian klik Tambahkan di bawah Pustaka Dependen untuk menambahkan pustaka yang diperlukan untuk menjalankan tugas. Salah satu pustaka ini harus berisi kelas utama.

    Untuk mempelajari selengkapnya tentang tugas JAR, lihat Menggunakan JAR dalam pekerjaan Azure Databricks.

  • Spark Submit: Dalam kotak teks Parameter, tentukan kelas utama, jalur ke JAR pustaka, dan semua argumen, yang diformat sebagai array string JSON. Contoh berikut mengonfigurasi tugas spark-submit untuk menjalankan DFSReadWriteTest dari contoh Apache Spark:

    ["--class","org.apache.spark.examples.DFSReadWriteTest","dbfs:/FileStore/libraries/spark_examples_2_12_3_1_1.jar","/discover/databricks-datasets/README.md","/FileStore/examples/output/"]
    

    Penting

    Ada beberapa batasan untuk tugas spark-submit :

    • Anda dapat menjalankan tugas spark-submit hanya di kluster baru.
    • Spark-submit tidak mendukung penskalaan otomatis. Untuk mempelajari selengkapnya tentang penskalaan otomatis, lihat Penskalaan otomatis kluster.
    • Spark-submit tidak mendukung referensi Utilitas Databricks (dbutils). Untuk menggunakan Utilitas Databricks, gunakan tugas JAR sebagai gantinya.
    • Jika Anda menggunakan kluster yang mendukung Unity Catalog, spark-submit hanya didukung jika kluster menggunakan mode akses yang ditetapkan. Mode akses bersama tidak didukung.
    • Pekerjaan Spark Streaming seharusnya tidak pernah memiliki eksekusi bersamaan maksimum yang diatur ke lebih dari 1. Pekerjaan streaming harus diatur untuk dijalankan menggunakan ekspresi cron "* * * * * ?" (setiap menit). Karena tugas streaming berjalan terus menerus, tugas tersebut harus selalu menjadi tugas akhir dalam pekerjaan.
  • Skrip Python: Di menu drop-down Sumber , pilih lokasi untuk skrip Python, baik Ruang Kerja untuk skrip di ruang kerja lokal, DBFS untuk skrip yang terletak di DBFS, atau penyedia Git untuk skrip yang terletak di repositori Git. Di kotak teks Jalur , masukkan jalur ke skrip Python:

    Ruang kerja: Dalam dialog Pilih File Python, telusuri ke skrip Python dan klik Konfirmasi.

    DBFS: Masukkan URI skrip Python pada DBFS atau penyimpanan cloud; misalnya, dbfs:/FileStore/myscript.py.

    Penyedia Git: Klik Edit dan masukkan informasi repositori Git. Lihat Menggunakan kode Python dari repositori Git jarak jauh.

  • Alur Tabel Langsung Delta: Di menu drop-down Alur, pilih alur Tabel Langsung Delta yang sudah ada.

    Penting

    Anda hanya dapat menggunakan alur yang dipicu dengan tugas Alur . Alur berkelanjutan tidak didukung sebagai tugas pekerjaan. Untuk mempelajari selengkapnya tentang alur yang dipicu dan berkelanjutan, lihat Eksekusi alur berkelanjutan vs. yang dipicu.

  • Python Wheel: Dalam kotak teks Nama paket, masukkan paket yang akan diimpor, misalnya, myWheel-1.0-py2.py3-none-any.whl. Dalam kotak teks Titik Masuk, masukkan fungsi yang akan dipanggil saat memulai file roda Python. Klik Tambahkan di bawah Pustaka Dependen untuk menambahkan pustaka yang diperlukan untuk menjalankan tugas.

  • SQL: Di menu drop-down tugas SQL, pilih Kueri, Dasbor warisan, Pemberitahuan, atau File.

    Catatan

    • Tugas SQL memerlukan Databricks SQL dan gudang SQL tanpa server atau pro.

    Kueri: Di menu drop-down kueri SQL, pilih kueri yang akan dijalankan saat tugas berjalan.

    Dasbor warisan: Di menu drop-down dasbor SQL, pilih dasbor yang akan diperbarui saat tugas berjalan.

    Pemberitahuan: Di menu drop-down pemberitahuan SQL, pilih pemberitahuan yang akan dipicu untuk evaluasi.

    File: Untuk menggunakan file SQL yang terletak di folder ruang kerja Azure Databricks, di menu drop-down Sumber , pilih Ruang Kerja, gunakan browser file untuk menemukan file SQL, klik nama file, dan klik Konfirmasi. Untuk menggunakan file SQL yang terletak di repositori Git jarak jauh, pilih Penyedia Git, klik Edit atau Tambahkan referensi git dan masukkan detail untuk repositori Git. Lihat Menggunakan kueri SQL dari repositori Git jarak jauh.

    Di menu drop-down gudang SQL, pilih gudang tanpa server atau pro SQL untuk menjalankan tugas.

  • dbt: Lihat Menggunakan transformasi dbt dalam pekerjaan Azure Databricks untuk contoh terperinci tentang mengonfigurasi tugas dbt.

  • Jalankan Pekerjaan: Di menu drop-down Pekerjaan , pilih pekerjaan yang akan dijalankan oleh tugas. Untuk mencari pekerjaan yang akan dijalankan, mulai ketik nama pekerjaan di menu Pekerjaan .

    Penting

    Anda tidak boleh membuat pekerjaan dengan dependensi melingkar saat menggunakan Run Job tugas atau pekerjaan yang menumpuk lebih dari tiga Run Job tugas. Dependensi melingkar adalah Run Job tugas yang secara langsung atau tidak langsung memicu satu sama lain. Misalnya, Pekerjaan A memicu Pekerjaan B, dan Pekerjaan B memicu Pekerjaan A. Databricks tidak mendukung pekerjaan dengan dependensi melingkar atau yang menumpuk lebih dari tiga Run Job tugas dan mungkin tidak mengizinkan menjalankan pekerjaan ini di rilis mendatang.

  • Jika/lainnya: Untuk mempelajari cara menggunakan If/else condition tugas, lihat Menambahkan logika percabangan ke pekerjaan Anda dengan tugas kondisi If/else.

Meneruskan parameter ke tugas pekerjaan Azure Databricks

Anda dapat meneruskan parameter ke banyak jenis tugas pekerjaan. Setiap jenis tugas memiliki persyaratan yang berbeda untuk memformat dan meneruskan parameter.

Untuk mengakses informasi tentang tugas saat ini, seperti nama tugas, atau meneruskan konteks tentang eksekusi saat ini di antara tugas pekerjaan, seperti waktu mulai pekerjaan atau pengidentifikasi pekerjaan saat ini berjalan, gunakan referensi nilai dinamis. Untuk melihat daftar referensi nilai dinamis yang tersedia, klik Telusuri nilai dinamis.

Jika parameter pekerjaan dikonfigurasi pada pekerjaan tempat tugas berada, parameter tersebut ditampilkan saat Anda menambahkan parameter tugas. Jika parameter pekerjaan dan tugas berbagi kunci, parameter pekerjaan lebih diutamakan. Peringatan ditampilkan di UI jika Anda mencoba menambahkan parameter tugas dengan kunci yang sama dengan parameter pekerjaan. Untuk meneruskan parameter pekerjaan ke tugas yang tidak dikonfigurasi dengan parameter nilai kunci seperti JAR atau Spark Submit tugas, format argumen sebagai {{job.parameters.[name]}}, mengganti [name] dengan key yang mengidentifikasi parameter.

  • Notebook: Klik Tambahkan dan tentukan kunci dan nilai setiap parameter untuk diteruskan ke tugas. Anda dapat mengambil alih atau menambahkan parameter tambahan saat menjalankan tugas secara manual menggunakan opsi Jalankan pekerjaan dengan parameter yang berbeda. Parameter mengatur nilai widget notebook yang ditentukan oleh kunci parameter.

  • JAR: Gunakan array string yang diformat JSON untuk menentukan parameter. String ini diteruskan sebagai argumen ke metode utama kelas utama. Lihat Mengonfigurasi parameter pekerjaan JAR.

  • Spark Submit: Parameter ditentukan sebagai array string yang diformat JSON. Sesuai dengan konvensi spark-submit Apache Spark, parameter setelah jalur JAR diteruskan ke metode utama kelas utama.

  • Roda Python: Di menu drop-down Parameter , pilih Argumen posisi untuk memasukkan parameter sebagai array string berformat JSON, atau pilih Argumen kata > kunci Tambahkan untuk memasukkan kunci dan nilai setiap parameter. Argumen posisi dan kata kunci diteruskan ke tugas roda Python sebagai argumen baris perintah. Untuk melihat contoh membaca argumen dalam skrip Python yang dikemas dalam file roda Python, lihat Menggunakan file roda Python dalam pekerjaan Azure Databricks.

  • Jalankan Pekerjaan: Masukkan kunci dan nilai setiap parameter pekerjaan untuk diteruskan ke pekerjaan.

  • Skrip Python: Gunakan array string berformat JSON untuk menentukan parameter. String ini diteruskan sebagai argumen dan dapat dibaca sebagai argumen posisional atau diurai menggunakan modul argparse di Python. Untuk melihat contoh membaca argumen posisional dalam skrip Python, lihat Langkah 2: Membuat skrip untuk mengambil data GitHub.

  • SQL: Jika tugas Anda menjalankan kueri berparameter atau dasbor berparameter, masukkan nilai untuk parameter dalam kotak teks yang disediakan.

Menyalin jalur tugas

Jenis tugas tertentu, misalnya, tugas buku catatan, memungkinkan Anda menyalin jalur ke kode sumber tugas:

  1. Klik tab Tugas.
  2. Pilih tugas yang berisi jalur yang akan disalin.
  3. Klik Ikon Salin Pekerjaan di samping jalur tugas untuk menyalin jalur ke clipboard.

Membuat pekerjaan dari pekerjaan yang sudah ada

Anda dapat dengan cepat membuat pekerjaan baru dengan mengkloning pekerjaan yang ada. Mengkloning pekerjaan membuat salinan pekerjaan yang identik, kecuali ID pekerjaan. Di halaman pekerjaan, klik Lainnya ... di samping nama pekerjaan dan pilih Klon dari menu drop-down.

Membuat tugas dari tugas yang sudah ada

Anda dapat dengan cepat membuat tugas baru dengan mengkloning tugas yang ada:

  1. Di halaman pekerjaan, klik tab Tugas.
  2. Pilih tugas untuk dikloning.
  3. Klik Elipsis Vertikal Pekerjaan dan pilih Kloning tugas.

Menghapus pekerjaan

Untuk menghapus pekerjaan, di halaman pekerjaan, klik Lainnya ... di samping nama pekerjaan dan pilih Hapus dari menu drop-down.

Menghapus tugas

Untuk menghapus tugas:

  1. Klik tab Tugas.
  2. Pilih tugas yang akan dihapus.
  3. Klik Elipsis Vertikal Pekerjaan dan pilih Hapus tugas.

Menjalankan pekerjaan

  1. Klik Ikon PekerjaanAlur Kerja di bilah samping.
  2. Pilih pekerjaan dan klik tab Eksekusi. Anda dapat menjalankan pekerjaan dengan segera atau menjadwalkan pekerjaan untuk dijalankan nanti.

Jika satu atau beberapa tugas dalam pekerjaan dengan beberapa tugas tidak berhasil, Anda dapat menjalankan kembali subset tugas yang tidak berhasil. Lihat Menjalankan kembali tugas yang gagal dan dilewati.

Segera menjalankan pekerjaan

Untuk segera menjalankan pekerjaan, klik Tombol Jalankan Sekarang.

Tip

Anda dapat melakukan uji coba pekerjaan dengan tugas notebook dengan mengeklik Jalankan Sekarang. Jika Anda perlu membuat perubahan pada notebook, mengeklik Jalankan Sekarang lagi setelah mengedit notebook akan secara otomatis menjalankan versi baru notebook.

Menjalankan pekerjaan dengan parameter berbeda

Anda dapat menggunakan Jalankan Sekarang dengan Parameter Berbeda untuk menjalankan kembali pekerjaan dengan parameter yang berbeda atau nilai yang berbeda untuk parameter yang ada.

Catatan

Anda tidak dapat mengambil alih parameter pekerjaan jika pekerjaan yang dijalankan sebelum pengenalan parameter pekerjaan menimpa parameter tugas dengan kunci yang sama.

  1. Klik Kart Biru Ke bawah di samping Jalankan Sekarang dan pilih Jalankan Sekarang dengan Parameter Berbeda atau, di tabel Eksekusi Aktif, klik Jalankan Sekarang dengan Parameter Yang Berbeda. Masukkan parameter baru tergantung pada jenis tugas. Lihat Meneruskan parameter ke tugas pekerjaan Azure Databricks.
  2. Klik Jalankan.

Menjalankan pekerjaan sebagai perwakilan layanan

Catatan

Jika pekerjaan Anda menjalankan kueri SQL menggunakan tugas SQL, identitas yang digunakan untuk menjalankan kueri ditentukan oleh pengaturan berbagi setiap kueri, bahkan jika pekerjaan berjalan sebagai perwakilan layanan. Jika kueri dikonfigurasi ke Run as owner, kueri selalu dijalankan menggunakan identitas pemilik dan bukan identitas perwakilan layanan. Jika kueri dikonfigurasi ke Run as viewer, kueri dijalankan menggunakan identitas perwakilan layanan. Untuk mempelajari selengkapnya tentang pengaturan berbagi kueri, lihat Mengonfigurasi izin kueri.

Secara default, pekerjaan berjalan sebagai identitas pemilik pekerjaan. Ini berarti bahwa pekerjaan tersebut mengasumsikan izin pemilik pekerjaan. Pekerjaan hanya dapat mengakses data dan objek Azure Databricks yang memiliki izin untuk diakses oleh pemilik pekerjaan. Anda dapat mengubah identitas yang dijalankan pekerjaan sebagai perwakilan layanan. Kemudian, pekerjaan mengasumsikan izin dari perwakilan layanan tersebut alih-alih pemilik.

Untuk mengubah pengaturan Jalankan sebagai , Anda harus memiliki izin CAN MANAGE atau IS OWNER pada pekerjaan. Anda dapat mengatur pengaturan Jalankan sebagai untuk diri Anda sendiri atau ke perwakilan layanan apa pun di ruang kerja tempat Anda memiliki peran Pengguna Perwakilan Layanan. Untuk informasi selengkapnya, lihat Peran untuk mengelola perwakilan layanan.

Catatan

RestrictWorkspaceAdmins Saat pengaturan pada ruang kerja diatur ke ALLOW ALL, admin ruang kerja juga dapat mengubah pengaturan Jalankan sebagai ke pengguna mana pun di ruang kerja mereka. Untuk membatasi admin ruang kerja agar hanya mengubah pengaturan Jalankan sebagai sebagai milik mereka sendiri atau perwakilan layanan tempat mereka memiliki peran Pengguna Perwakilan Layanan, lihat Membatasi admin ruang kerja.

Untuk mengubah bidang jalankan sebagai, lakukan hal berikut:

  1. Di bilah samping, klik Ikon PekerjaanAlur Kerja.
  2. Di kolom Nama, klik nama pekerjaan.
  3. Di panel sisi Detail pekerjaan, klik ikon pensil di samping bidang Jalankan sebagai .
  4. Cari dan pilih perwakilan layanan.
  5. Klik Simpan.

Anda juga dapat mencantumkan perwakilan layanan tempat Anda memiliki peran Pengguna dalam menggunakan API Perwakilan Layanan Ruang Kerja. Untuk informasi selengkapnya, lihat Mencantumkan perwakilan layanan yang dapat Anda gunakan.

Menjalankan pekerjaan sesuai jadwal

Anda dapat menggunakan jadwal untuk menjalankan pekerjaan Azure Databricks secara otomatis pada waktu dan periode tertentu. Lihat Menambahkan jadwal pekerjaan.

Menjalankan pekerjaan berkelanjutan

Anda dapat memastikan selalu ada eksekusi aktif dari pekerjaan Anda. Lihat Menjalankan pekerjaan berkelanjutan.

Menjalankan pekerjaan saat file baru tiba

Untuk memicu eksekusi pekerjaan saat file baru tiba di lokasi atau volume eksternal Katalog Unity, gunakan pemicu kedatangan file.

Menampilkan dan menjalankan pekerjaan yang dibuat dengan Bundel Aset Databricks

Anda dapat menggunakan UI Pekerjaan Azure Databricks untuk melihat dan menjalankan pekerjaan yang disebarkan oleh Bundel Aset Databricks. Secara default, pekerjaan ini bersifat baca-saja di antarmuka pengguna Pekerjaan. Untuk mengedit pekerjaan yang disebarkan oleh bundel, ubah file konfigurasi bundel dan sebarkan ulang pekerjaan. Menerapkan perubahan hanya pada konfigurasi bundel memastikan bahwa file sumber bundel selalu mengambil konfigurasi pekerjaan saat ini.

Namun, jika Anda harus segera membuat perubahan pada pekerjaan, Anda dapat memutuskan koneksi pekerjaan dari konfigurasi bundel untuk mengaktifkan pengeditan pengaturan pekerjaan di UI. Untuk memutuskan sambungan pekerjaan, klik Putuskan sambungan dari sumber. Dalam dialog Putuskan sambungan dari sumber, klik Putuskan sambungan untuk mengonfirmasi.

Setiap perubahan yang Anda buat pada pekerjaan di UI tidak diterapkan ke konfigurasi bundel. Untuk menerapkan perubahan yang Anda buat di UI ke bundel, Anda harus memperbarui konfigurasi bundel secara manual. Untuk menyambungkan kembali pekerjaan ke konfigurasi bundel, sebarkan ulang pekerjaan menggunakan bundel.

Bagaimana jika pekerjaan saya tidak dapat berjalan karena batas konkurensi?

Catatan

Antrean diaktifkan secara default saat pekerjaan dibuat di UI.

Untuk mencegah eksekusi pekerjaan dilewati karena batas konkurensi, Anda dapat mengaktifkan antrean untuk pekerjaan tersebut. Saat antrean diaktifkan, jika sumber daya tidak tersedia untuk pekerjaan yang dijalankan, eksekusi diantrekan hingga 48 jam. Ketika kapasitas tersedia, pekerjaan yang dijalankan dilepas dan dijalankan. Eksekusi antrean ditampilkan dalam daftar eksekusi untuk pekerjaan dan daftar eksekusi pekerjaan terbaru.

Eksekusi diantrekan saat salah satu batas berikut tercapai:

  • Eksekusi aktif bersamaan maksimum di ruang kerja.
  • Tugas serentak Run Job maksimum berjalan di ruang kerja.
  • Eksekusi pekerjaan bersamaan maksimum.

Antrean adalah properti tingkat pekerjaan yang mengantre hanya berjalan untuk pekerjaan tersebut.

Untuk mengaktifkan atau menonaktifkan antrean, klik Pengaturan tingkat lanjut dan klik tombol pengalih Antrean di panel sisi Detail pekerjaan.