Not
Åtkomst till denna sida kräver auktorisation. Du kan prova att logga in eller byta katalog.
Åtkomst till denna sida kräver auktorisation. Du kan prova att byta katalog.
I den här artikeln får du lära dig hur du skriver frågebegäranden för grundläggande modeller som är optimerade för chattuppgifter och allmänna uppgifter och skickar dem till din modell som betjänar slutpunkten.
Exemplen i den här artikeln gäller för förfrågningar mot grundmodeller som görs tillgängliga genom antingen:
- Foundation Models API:er som benämns som grundmodeller hostade av Databricks.
- Externa modeller som kallas grundmodeller som finns utanför Databricks.
Kravspecifikation
- Se kraven.
- Installera lämpligt paket i klustret baserat på det frågeklientalternativ du väljer.
Frågeexempel
Exemplen i det här avsnittet visar hur du gör förfrågningar om Anthropic Claude Sonnet 4.5-modellen, som görs tillgänglig via slutpunkten för pay-per-token i Foundation Model-API:erna, databricks-claude-sonnet-4-5*, med hjälp av de olika klientalternativen.
OpenAI-chatten har slutförts
Om du vill använda OpenAI-klienten anger du modellens slutpunktsnamn som model indata. I följande exempel förutsätter vi att du har en Databricks API-token och openai är installerad på din beräkning. Du behöver också din Databricks-arbetsyteinstans för att ansluta OpenAI-klienten till Databricks.
import os
import openai
from openai import OpenAI
client = OpenAI(
api_key="dapi-your-databricks-token",
base_url="https://example.staging.cloud.databricks.com/serving-endpoints"
)
response = client.chat.completions.create(
model="databricks-claude-sonnet-4-5",
messages=[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
max_tokens=256
)
OpenAI-svar
Viktigt!
Svars-API:et är endast kompatibelt med OpenAI-modeller.
Om du vill använda OPENAI-svars-API:et anger du den modell som betjänar slutpunktens namn som model indata. I följande exempel förutsätter vi att du har en Azure Databricks API-token och openai är installerad på din beräkning. Du behöver också din Azure Databricks-arbetsyteinstans för att ansluta OpenAI-klienten till Azure Databricks.
import os
import openai
from openai import OpenAI
client = OpenAI(
api_key="dapi-your-databricks-token",
base_url="https://example.staging.cloud.databricks.com/serving-endpoints"
)
response = client.responses.create(
model="databricks-gpt-5",
input=[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
max_output_tokens=256
)
REST-API
Viktigt!
I följande exempel används REST API-parametrar för att köra frågor mot serverslutpunkter som hanterar externa modeller. Dessa parametrar finns i offentlig förhandsversion och definitionen kan ändras. Se även POST /serving-endpoints/{name}/invocations.
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": " What is a mixture of experts model?"
}
]
}' \
https://<workspace_host>.databricks.com/serving-endpoints/<your-external-model-endpoint>/invocations \
SDK för MLflow-distributioner
Viktigt!
I följande exempel används API:et predict() från MLflow Deployments SDK.
import mlflow.deployments
# Only required when running this example outside of a Databricks Notebook
export DATABRICKS_HOST="https://<workspace_host>.databricks.com"
export DATABRICKS_TOKEN="dapi-your-databricks-token"
client = mlflow.deployments.get_deploy_client("databricks")
chat_response = client.predict(
endpoint="databricks-claude-sonnet-4-5",
inputs={
"messages": [
{
"role": "user",
"content": "Hello!"
},
{
"role": "assistant",
"content": "Hello! How can I assist you today?"
},
{
"role": "user",
"content": "What is a mixture of experts model??"
}
],
"temperature": 0.1,
"max_tokens": 20
}
)
Databricks Python SDK
Den här koden måste köras i en notebook-fil på din arbetsyta. Se Använda Databricks SDK för Python från en Azure Databricks-notebook-fil.
from databricks.sdk import WorkspaceClient
from databricks.sdk.service.serving import ChatMessage, ChatMessageRole
w = WorkspaceClient()
response = w.serving_endpoints.query(
name="databricks-claude-sonnet-4-5",
messages=[
ChatMessage(
role=ChatMessageRole.SYSTEM, content="You are a helpful assistant."
),
ChatMessage(
role=ChatMessageRole.USER, content="What is a mixture of experts model?"
),
],
max_tokens=128,
)
print(f"RESPONSE:\n{response.choices[0].message.content}")
Följande är till exempel det förväntade formatet för begäran för en chattmodell när du använder REST-API:et. För externa modeller kan du inkludera ytterligare parametrar som är giltiga för en viss provider och slutpunktskonfiguration. Se Ytterligare frågeparametrar.
{
"messages": [
{
"role": "user",
"content": "What is a mixture of experts model?"
}
],
"max_tokens": 100,
"temperature": 0.1
}
Följande är ett förväntat svarsformat för en begäran som görs med hjälp av REST-API:et:
{
"model": "databricks-claude-sonnet-4-5",
"choices": [
{
"message": {},
"index": 0,
"finish_reason": null
}
],
"usage": {
"prompt_tokens": 7,
"completion_tokens": 74,
"total_tokens": 81
},
"object": "chat.completion",
"id": null,
"created": 1698824353
}
Modeller som stöds
Se Grundläggande modelltyper för chattmodeller som stöds.