Mulai mengkueri LLM di Databricks
Artikel ini menjelaskan cara mulai menggunakan API Model Foundation untuk melayani dan mengkueri LLM di Databricks.
Cara term mudah untuk mulai melayani dan mengkueri model LLM di Databricks adalah menggunakan APIModel Foundation berdasarkan bayar per token . API menyediakan akses ke model fondasi populer dari titik akhir bayar per token yang secara otomatis tersedia di Antarmuka Pengguna Penyajian ruang kerja Databricks Anda. Lihat Model yang didukung untuk bayar per token.
Anda juga dapat menguji dan mengobrol dengan model bayar per token menggunakan AI Playground. Lihat Mengobrol dengan LLM yang didukung menggunakan AI Playground.
Untuk beban kerja produksi, terutama jika Anda memiliki model yang disempurnakan atau beban kerja yang memerlukan jaminan performa, Databricks menyarankan Anda meningkatkan ke menggunakan API Model Foundation pada titik akhir throughput yang disediakan.
Persyaratan
- Ruang kerja Databricks di wilayah yang didukung untuk API Model Foundation bayar per token.
- Token akses pribadi Databricks untuk mengkueri dan mengakses titik akhir Mosaic AI Model Serving menggunakan klien OpenAI.
Penting
Sebagai praktik terbaik keamanan untuk skenario produksi, Databricks merekomendasikan agar Anda menggunakan token OAuth mesin-ke-mesin untuk autentikasi selama produksi.
Untuk pengujian dan pengembangan, Databricks merekomendasikan penggunaan token akses pribadi milik perwakilan layanan alih-alih pengguna ruang kerja. Untuk membuat token untuk perwakilan layanan, lihat Mengelola token untuk perwakilan layanan.
Mulai menggunakan API Model Foundation
Contoh berikut mengkueri databricks-dbrx-instruct
model yang disajikan pada titik akhir bayar per token,databricks-dbrx-instruct
. Pelajari selengkapnya tentang model Instruksi DBRX.
Dalam contoh ini, Anda menggunakan klien OpenAI untuk mengkueri model dengan mengisi model
bidang dengan nama model yang melayani titik akhir yang menghosting model yang ingin Anda kueri. Gunakan token akses pribadi Anda untuk mengisi DATABRICKS_TOKEN
dan instans ruang kerja Databricks Anda untuk menghubungkan klien OpenAI ke Databricks.
Catatan
Jika Anda menemukan pesan ImportError: cannot import name 'OpenAI' from 'openai'
berikut meningkatkan versi Anda openai
menggunakan !pip install -U openai
.
from openai import OpenAI
import os
DATABRICKS_TOKEN = os.environ.get("DATABRICKS_TOKEN")
client = OpenAI(
api_key=DATABRICKS_TOKEN, # your personal access token
base_url='https://<workspace_id>.databricks.com/serving-endpoints', # your Databricks workspace instance
)
chat_completion = client.chat.completions.create(
messages=[
{
"role": "system",
"content": "You are an AI assistant",
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
model="databricks-dbrx-instruct",
max_tokens=256
)
print(chat_completion.choices[0].message.content)
Output yang diharapkan:
{
"id": "xxxxxxxxxxxxx",
"object": "chat.completion",
"created": "xxxxxxxxx",
"model": "databricks-dbrx-instruct",
"choices": [
{
"index": 0,
"message":
{
"role": "assistant",
"content": "A Mixture of Experts (MoE) model is a machine learning technique that combines the predictions of multiple expert models to improve overall performance. Each expert model specializes in a specific subset of the data, and the MoE model uses a gating network to determine which expert to use for a given input."
},
"finish_reason": "stop"
}
],
"usage":
{
"prompt_tokens": 123,
"completion_tokens": 23,
"total_tokens": 146
}
}
Langkah berikutnya
- Gunakan taman bermain AI untuk mencoba model yang berbeda dalam antarmuka obrolan yang sudah dikenal.
- Model fondasi kueri.
- Model akses yang dihosting di luar Databricks menggunakan model eksternal.
- Pelajari cara menyebarkan model yang disempurnakan menggunakan titik akhir throughput yang disediakan.
- Jelajahi metode untuk memantau kualitas model dan kesehatan titik akhir.
Saran dan Komentar
https://aka.ms/ContentUserFeedback.
Segera hadir: Sepanjang tahun 2024 kami akan menghentikan penggunaan GitHub Issues sebagai mekanisme umpan balik untuk konten dan menggantinya dengan sistem umpan balik baru. Untuk mengetahui informasi selengkapnya, lihat:Kirim dan lihat umpan balik untuk