Bagikan melalui


Panduan pemulihan bencana untuk Azure Data Lake Analytics

>[! PENTING] > Azure Data Lake Analytics pensiun pada 29 Februari 2024. Pelajari lebih lanjut dengan pengumuman ini. >>Untuk analitik data, organisasi Anda dapat menggunakan Azure Synapse Analytics atau Microsoft Fabric.s

Azure Data Lake Analytics adalah layanan pekerjaan analitik sesuai permintaan yang menyederhanakan big data. Alih-alih menyebarkan, mengonfigurasi, dan menyetel perangkat keras, Anda menulis kueri untuk mengubah data Anda dan mengekstrak wawasan berharga. Layanan analitik dapat menangani pekerjaan dalam skala apa pun secara instan dengan mengatur seberapa banyak daya yang Anda butuhkan pada kontrol putar. Anda hanya membayar pekerjaan Anda ketika berjalan, membuatnya hemat biaya. Artikel ini memberikan panduan tentang cara melindungi pekerjaan Anda dari pemadaman yang jarang terjadi di seluruh wilayah atau penghapusan yang tidak disengaja.

Panduan pemulihan bencana

Saat menggunakan Azure Data Lake Analytics, sangat penting bagi Anda untuk menyiapkan rencana pemulihan bencana Anda sendiri. Artikel ini membantu memandu Anda untuk membangun rencana pemulihan bencana. Ada lebih banyak sumber daya yang dapat membantu Anda membuat paket Anda sendiri:

Praktik terbaik dan panduan skenario

Anda dapat menjalankan pekerjaan U-SQL berulang di akun ADLA di wilayah yang membaca dan menulis tabel U-SQL dan data yang tidak terstruktur. Bersiaplah menghadapi bencana dengan mengambil langkah-langkah berikut:

  1. Buat akun Data Lake Analytics dan ADLS di wilayah sekunder yang akan digunakan selama pemadaman.

    Catatan

    Karena nama akun unik secara global, gunakan skema penamaan yang konsisten yang menunjukkan akun mana yang sekunder.

  2. Untuk data yang tidak terstruktur, referensi Panduan pemulihan bencana untuk data di Azure Data Lake Storage Gen1

  3. Untuk data terstruktur yang disimpan dalam tabel dan database Data Lake Analytics, buat salinan artefak metadata seperti database, tabel, fungsi bernilai tabel, dan majelis. Anda perlu secara berkala mengubah kembali artefak ini ketika perubahan terjadi dalam produksi. Misalnya, data yang baru disisipkan harus direplikasi ke wilayah sekunder dengan menyalin data dan menyisipkan ke dalam tabel sekunder.

    Catatan

    Nama objek ini dicakup ke akun sekunder dan tidak unik secara global, sehingga mereka dapat memiliki nama yang sama seperti di akun produksi utama.

Selama pemadaman, Anda perlu memperbarui skrip Anda sehingga jalur input menunjuk ke titik akhir sekunder. Kemudian pengguna mengirimkan pekerjaan mereka ke akun Data Lake Analytics di wilayah sekunder. Output pekerjaan kemudian akan ditulis ke akun Data Lake Analytics dan ADLS di wilayah sekunder.

Langkah berikutnya

Panduan pemulihan bencana untuk data di Azure Data Lake Storage Gen1