Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Dalam tutorial ini, Anda akan mempelajari cara memperkaya data Anda dengan mudah di Azure Synapse Analytics dengan layanan Azure AI. Anda akan menggunakan Azure AI Anomaly Detector untuk menemukan anomali. Pengguna di Azure Synapse cukup memilih tabel untuk memperkaya deteksi anomali.
Tutorial ini mencakup:
- Langkah untuk mendapatkan himpunan data tabel Spark yang berisi data rangkaian waktu.
- Penggunaan pengalaman wizard di Azure Synapse untuk memperkaya data dengan menggunakan Detektor Anomali.
Jika Anda tidak memiliki langganan Azure, buat akun gratis sebelum Anda memulai.
Prasyarat
- Ruang kerja Azure Synapse Analytics dengan akun penyimpanan Azure Data Lake Storage Gen2 yang dikonfigurasi sebagai penyimpanan default. Anda perlu menjadi Kontributor Data Blob Penyimpanan di sistem berkas Data Lake Storage Gen2 yang Anda gunakan.
- Kumpulan Spark di ruang kerja Azure Synapse Analytics Anda. Untuk detailnya, lihat Membuat kumpulan Spark di Azure Synapse.
- Penyelesaian langkah-langkah pra-konfigurasi dalam tutorial Mengonfigurasi layanan Azure AI di Azure Synapse .
Masuk ke portal Microsoft Azure.
Masuk ke portal Azure.
Membuat tabel Spark
Anda memerlukan tabel Spark untuk tutorial ini.
Buat buku catatan PySpark dan jalankan kode berikut.
from pyspark.sql.functions import lit
df = spark.createDataFrame([
("1972-01-01T00:00:00Z", 826.0),
("1972-02-01T00:00:00Z", 799.0),
("1972-03-01T00:00:00Z", 890.0),
("1972-04-01T00:00:00Z", 900.0),
("1972-05-01T00:00:00Z", 766.0),
("1972-06-01T00:00:00Z", 805.0),
("1972-07-01T00:00:00Z", 821.0),
("1972-08-01T00:00:00Z", 20000.0),
("1972-09-01T00:00:00Z", 883.0),
("1972-10-01T00:00:00Z", 898.0),
("1972-11-01T00:00:00Z", 957.0),
("1972-12-01T00:00:00Z", 924.0),
("1973-01-01T00:00:00Z", 881.0),
("1973-02-01T00:00:00Z", 837.0),
("1973-03-01T00:00:00Z", 9000.0)
], ["timestamp", "value"]).withColumn("group", lit("series1"))
df.write.mode("overwrite").saveAsTable("anomaly_detector_testing_data")
Tabel Spark bernama anomaly_detector_testing_data sekarang akan muncul di database Spark default.
Buka wizard layanan Azure AI
Klik kanan tabel Spark yang dibuat di langkah sebelumnya. Pilih Pembelajaran Mesin>Prediksi dengan model untuk membuka wizard.
Panel konfigurasi muncul, dan Anda diminta untuk memilih model yang telah dilatih sebelumnya. Pilih Detektor Anomali.
Konfigurasikan Detektor Anomali
Berikan detail berikut untuk mengonfigurasi Detektor Anomali:
Layanan tertaut Azure Cognitive Services: Sebagai bagian dari langkah-langkah prasyarat, Anda membuat layanan tertaut ke Azure AI Anda. Pilih di sini.
Granuralitas: Rasio pengambilan sampel data Anda. Pilih bulanan.
Kolom tanda waktu: Kolom yang menunjukkan waktu rangkaian. Pilih tanda waktu (string).
Kolom nilai rangkaian waktu:Kolom yang mewakili nilai rangkaian pada waktu yang ditentukan oleh kolom Tanda waktu. Pilih nilai (ganda).
Kolom pengelompokan: Kolom yang mengelompokkan rangkaian. Artinya, semua baris yang memiliki nilai yang sama dalam kolom ini harus membentuk satu rangkaian waktu. Pilih grup (string).
Jika sudah selesai, pilih Buka notebook. Ini akan menghasilkan notebook untuk Anda dengan kode PySpark yang menggunakan layanan Azure AI untuk mendeteksi anomali.
Jalankan buku catatan
Buku catatan yang baru saja Anda buka menggunakan pustaka SynapseML untuk menyambungkan ke layanan Azure AI. Layanan Azure AI tertaut yang Anda berikan memungkinkan Anda mereferensikan layanan Azure AI Anda dengan aman dari pengalaman ini tanpa mengungkapkan rahasia apa pun.
Anda sekarang dapat menjalankan semua sel untuk melakukan deteksi anomali. Pilihlah Jalankan Semua. Pelajari selengkapnya tentang Detektor Anomali di layanan Azure AI.