Menyebarkan AI dan komputasi pembelajaran mesin lokal dan ke tepi

Azure Container Registry
Azure IoT Edge
Azure Machine Learning
Azure Stack Edge

Arsitektur referensi ini menggambarkan cara menggunakan Azure Stack Edge untuk memperluas inferensi pembelajaran mesin yang cepat dari cloud ke skenario lokal atau tepi. Azure Stack Hub menghadirkan kemampuan Azure seperti komputasi, penyimpanan, jaringan, dan pembelajaran mesin yang dipercepat perangkat keras ke lokasi tepi mana pun.

Sistem

Diagram arsitektur: data lokal yang melatih model dalam Azure Machine Learning, dengan model yang disebarkan kembali ke tepi untuk inferensi.

Unduh file Visio arsitektur ini.

Alur kerja

Arsitektur terdiri dari langkah-langkah berikut:

  • Pembelajaran Mesin Azure. Pembelajaran Mesin memungkinkan Anda membangun, melatih, menyebarkan, dan mengelola model pembelajaran mesin di lingkungan berbasis cloud. Model ini selanjutnya dapat disebarkan ke layanan Azure, termasuk (namun tidak terbatas pada) Azure Container Instances, Azure Kubernetes Service (AKS), dan Azure Functions.
  • Azure Container Registry. Container Registry adalah layanan yang membuat dan mengelola Docker Registry. Container Registry membangun, menyimpan, dan mengelola gambar kontainer Docker serta dapat menyimpan model pembelajaran mesin kontainer.
  • Azure Stack Edge. Azure Stack Edge adalah perangkat komputasi tepi yang dirancang untuk inferensi pembelajaran mesin di tepi. Data diproses terlebih dulu di tepi sebelum ditransfer ke Azure. Azure Stack Edge menyertakan perangkat keras akselerasi komputasi yang dirancang untuk meningkatkan performa inferensi AI di tepi.
  • Data lokal. Data lokal merujuk pada data apa pun yang digunakan dalam pelatihan model pembelajaran mesin. Data dapat berada di solusi penyimpanan lokal apa pun, termasuk penyebaran Azure Arc.

Komponen

Detail skenario

Kemungkinan kasus penggunaan

Solusi ini sangat ideal untuk industri telekomunikasi. Penggunaan khas untuk memperluas inferensi meliputi kapan Anda perlu:

  • Menjalankan inferensi pembelajaran mesin lokal yang cepat terhadap data saat diserap dan Anda memiliki jejak perangkat keras lokal yang signifikan.
  • Membuat solusi penelitian jangka panjang ketika data lokal yang ada dihapus dan digunakan untuk menghasilkan model. Model ini selanjutnya digunakan secara lokal dan di cloud; ini dilatih ulang secara berkala saat data baru masuk.
  • Membangun aplikasi perangkat lunak yang perlu membuat kesimpulan tentang pengguna, baik di lokasi fisik maupun online.

Rekomendasi

Menyerap, mengubah, dan mentransfer data yang disimpan secara lokal

Azure Stack Edge dapat mengubah data yang bersumber dari penyimpanan lokal sebelum mentransfer data tersebut ke Azure. Transformasi ini dilakukan oleh perangkat Azure IoT Edge yang disebarkan di perangkat Azure Stack Edge. Perangkat IoT Edge ini dikaitkan dengan sumber daya Azure IoT Hub di platform cloud Azure.

Setiap modul IoT Edge adalah kontainer Docker yang melakukan tugas tertentu dalam alur kerja serap, ubah, dan transfer. Misalnya, modul IoT Edge dapat mengumpulkan data dari berbagi lokal Azure Stack Edge dan mengubah data menjadi format yang siap untuk pembelajaran mesin. Selanjutnya, modul mentransfer data yang diubah ke berbagi cloud Azure Stack Edge. Anda dapat menambahkan modul kustom atau bawaan ke perangkat IoT Edge Anda atau mengembangkan modul IoT Edge khusus.

Catatan

Modul IoT Edge terdaftar sebagai gambar kontainer Docker di Container Registry.

Di sumber daya Azure Stack Edge pada platform cloud Azure, berbagi cloud didukung oleh sumber akun penyimpanan Azure Blob. Semua data di berbagi cloud akan secara otomatis diunggah ke akun penyimpanan terkait. Anda dapat memverifikasi transformasi dan transfer data dengan memasang berbagi lokal atau cloud, atau dengan melewati akun Azure Storage.

Melatih dan menyebarkan model

Setelah menyiapkan dan menyimpan data di penyimpanan Blob, Anda dapat membuat himpunan data Pembelajaran Mesin yang terhubung ke Azure Storage. Himpunan data mewakili satu salinan data Anda dalam penyimpanan yang langsung dirujuk oleh Pembelajaran Mesin.

Anda dapat menggunakan antarmuka baris perintah (CLI) Pembelajaran Mesin, SDK R, SDK Python, desainer, atau Visual Studio Code untuk membangun skrip yang diperlukan untuk melatih model Anda.

Setelah melatih dan menyiapkan model yang akan disebarkan, Anda dapat menyebarkannya ke berbagai layanan Azure, termasuk namun tidak terbatas pada:

Catatan

Untuk arsitektur referensi ini, model akan disebarkan ke Azure Stack Edge untuk membuat model tersedia untuk inferensi lokal. Model ini juga disebarkan ke Container Registry untuk memastikan bahwa model tersedia untuk inferensi di berbagai layanan Azure terluas.

Inferensi dengan model yang baru disebarkan

Azure Stack Edge dapat dengan cepat menjalankan model pembelajaran mesin secara lokal terhadap data lokal dengan menggunakan perangkat keras akselerasi komputasi bawaannya. Perhitungan ini terjadi sepenuhnya di tepi. Hasilnya adalah wawasan cepat dari data dengan menggunakan perangkat keras yang lebih dekat ke sumber data daripada wilayah cloud publik.

Selain itu, Azure Stack Edge terus mentransfer data ke Pembelajaran Mesin untuk pelatihan ulang dan peningkatan berkelanjutan dengan menggunakan alur pembelajaran mesin yang terkait dengan model yang sudah berjalan terhadap data yang disimpan secara lokal.

Pertimbangan

Pertimbangan ini mengimplementasikan pilar Azure Well-Architected Framework, yang merupakan serangkaian tenet panduan yang dapat digunakan untuk meningkatkan kualitas beban kerja. Untuk informasi selengkapnya, lihat Microsoft Azure Well-Architected Framework.

Ketersediaan

  • Pertimbangkan untuk menempatkan sumber daya Azure Stack Edge Anda di wilayah Azure yang sama seperti layanan Azure lain yang akan mengaksesnya. Untuk mengoptimalkan performa unggah, pertimbangkan untuk menempatkan akun penyimpanan Azure Blob Anda di wilayah tempat alat Anda memiliki koneksi jaringan terbaik.
  • Pertimbangkan Azure ExpressRoute untuk koneksi yang stabil dan redundan antara perangkat Anda dan Azure.

Keterkelolaan

  • Administrator dapat memverifikasi bahwa sumber data dari penyimpanan lokal telah ditransfer ke sumber daya Azure Stack Edge dengan benar. Mereka dapat memverifikasi dengan memasang berbagi file Server Message Block (SMB)/Network File System (NFS) atau menghubungkan ke akun penyimpanan Blob terkait dengan menggunakan Azure Storage Explorer.
  • Gunakan himpunan data Pembelajaran Mesin untuk mereferensikan data Anda di penyimpanan Blob saat melatih model Anda. Referensi penyimpanan menghilangkan kebutuhan untuk menyematkan rahasia, jalur data, atau string koneksi dalam skrip pelatihan Anda.
  • Di ruang kerja Pembelajaran Mesin Anda, daftarkan dan lacak model pembelajaran mesin untuk melacak perbedaan antara model Anda pada titik waktu yang berbeda. Anda juga dapat mencerminkan metadata penerapan versi dan pelacakan dalam tag yang Anda gunakan untuk gambar kontainer Docker yang menyebarkan ke Container Registry.

DevOps

  • Ulas pendekatan manajemen siklus hidup MLOps untuk Pembelajaran Mesin. Misalnya, gunakan GitHub atau Azure Pipelines untuk membuat proses integrasi berkelanjutan yang secara otomatis melatih dan melatih ulang model. Pelatihan dapat dipicu baik ketika data baru mengisi himpunan data maupun perubahan dibuat untuk skrip pelatihan.
  • Ruang kerja Azure Machine Learning akan secara otomatis mendaftarkan dan mengelola gambar kontainer Docker untuk model pembelajaran mesin dan modul IoT Edge.

Pengoptimalan biaya

Optimalisasi biaya adalah tentang mencari cara untuk mengurangi pengeluaran yang tidak perlu dan meningkatkan efisiensi operasional. Untuk informasi selengkapnya, lihat Gambaran umum pilar pengoptimalan biaya.

Langkah berikutnya

Dokumentasi produk

Modul Microsoft Learn: