Commencer à interroger les LLM sur Databricks
Cet article décrit comment commencer à utiliser les API de Foundation Model pour servir et interroger les LLM sur Databricks.
Le moyen le plus simple de commencer à mettre en service et à interroger des modèles LLM sur Databricks consiste à utiliser les API Foundation Model sur une base paiement par jeton. Les API permettent d’accéder aux modèles de base les plus courants à partir de points de terminaison payants qui sont automatiquement disponibles dans l’interface utilisateur de votre espace de travail Databricks. Voir Modèles pris en charge pour le paiement par jeton.
Vous pouvez également tester et converser avec des modèles avec paiement par jeton en utilisant le Terrain de jeu IA. Consultez Conversation avec des LLM pris en charge en utilisant AI Playground.
Pour des charges de travail de production, en particulier si vous disposez d’un modèle affiné ou d’une charge de travail qui nécessite des garanties de performance, Databricks vous recommande d’effectuer une mise à niveau pour utiliser les API Foundation Model sur un point de terminaison à débit approvisionné.
Spécifications
- Espace de travail Databricks dans une région prise en charge pour les API model Foundation Model paiement par jeton.
- Jeton d’accès personnel Databricks pour interroger et accéder au modèle Databricks servant des points de terminaison à l’aide du client OpenAI.
Important
À titre de meilleure pratique de sécurité pour les scénarios de production, Databricks vous recommande d’utiliser des jetons OAuth machine à machine pour l’authentification en production.
Pour les tests et le développement, Databricks recommande d’utiliser un jeton d’accès personnel appartenant à des principaux de service et non pas à des utilisateurs de l’espace de travail. Pour créer des jetons d’accès pour des principaux de service, consultez la section Gérer les jetons pour un principal de service.
Prise en main des API Foundation Model
L’exemple suivant interroge le modèle databricks-dbrx-instruct
qui est servi sur le point de terminaison de paiement par jeton,databricks-dbrx-instruct
. Découvrez plus d’informations sur le modèle DBRX Instruct.
Dans cet exemple, vous utilisez le client OpenAI pour interroger le modèle en remplissant le champ model
avec le nom du point de terminaison de service de modèle qui héberge le modèle que vous voulez interroger. Utilisez votre jeton d’accès personnel pour remplir les DATABRICKS_TOKEN
et votre instance d’espace de travail Databricks pour connecter le client OpenAI à Databricks.
from openai import OpenAI
import os
DATABRICKS_TOKEN = os.environ.get("DATABRICKS_TOKEN")
client = OpenAI(
api_key=DATABRICKS_TOKEN, # your personal access token
base_url='https://<workspace_id>.databricks.com/serving-endpoints', # your Databricks workspace instance
)
chat_completion = client.chat.completions.create(
messages=[
{
"role": "system",
"content": "You are an AI assistant",
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
model="databricks-dbrx-instruct",
max_tokens=256
)
print(chat_completion.choices[0].message.content)
Sortie attendue :
{
"id": "xxxxxxxxxxxxx",
"object": "chat.completion",
"created": "xxxxxxxxx",
"model": "databricks-dbrx-instruct",
"choices": [
{
"index": 0,
"message":
{
"role": "assistant",
"content": "A Mixture of Experts (MoE) model is a machine learning technique that combines the predictions of multiple expert models to improve overall performance. Each expert model specializes in a specific subset of the data, and the MoE model uses a gating network to determine which expert to use for a given input."
},
"finish_reason": "stop"
}
],
"usage":
{
"prompt_tokens": 123,
"completion_tokens": 23,
"total_tokens": 146
}
}
Étapes suivantes
- Utilisez le terrain de jeu IA pour tester différents modèles dans une interface de conversation familière.
- Interroger les modèles de fondation.
- Accéder à des modèles hébergés en dehors de Databricks en utilisant des modèles externes.
- Découvrez comment déployer des modèles affinés à l’aide de points de terminaison de débit approvisionnés.
- Explorer les méthodes de contrôle de la qualité des modèles et de la santé des points de terminaison.
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour