Bagikan melalui


Menyebarkan model untuk inferensi dan prediksi batch

Artikel ini menjelaskan apa yang direkomendasikan Databricks untuk inferensi batch.

Untuk penyajian model real time di Azure Databricks, lihat Menyebarkan model menggunakan Mosaic AI Model Serving.

Gunakan ai_query untuk inferensi batch

Penting

Fitur ini ada di Pratinjau Publik.

Databricks merekomendasikan penggunaan ai_query dengan Model Serving untuk inferensi batch. ai_query adalah fungsi SQL Databricks bawaan yang memungkinkan Anda mengkueri model yang ada yang melayani titik akhir menggunakan SQL. Ini telah diverifikasi untuk memproses himpunan data dengan andal dan konsisten dalam kisaran miliaran token. Lihat fungsi ai_query untuk detail selengkapnya tentang fungsi AI ini.

Untuk eksperimen cepat, ai_query dapat digunakan untuk inferensi LLM batch dengan titik akhir bayar per token, yang telah dikonfigurasi sebelumnya di ruang kerja Anda.

Ketika Anda siap untuk menjalankan inferensi LLM batch pada data besar atau produksi, Databricks merekomendasikan penggunaan titik akhir throughput yang disediakan untuk performa yang lebih cepat.

Untuk contoh inferensi batch model ML tradisional, lihat buku catatan berikut ini:

Inferensi batch menggunakan BERT untuk pengenalan entitas bernama dalam notebook

Ambil buku catatan