Udostępnij za pośrednictwem


Wykonywanie zapytań względem modelu zewnętrznego przy użyciu ai_query()

Uwaga

Ta funkcja jest dostępna w publicznej wersji zapoznawczej. Aby wykonywać zapytania dotyczące punktów końcowych obsługujących modele zewnętrzne, należy zarejestrować się w publicznej wersji zapoznawczej. Wypełnij formularz rejestracji usługi AI Functions w publicznej wersji zapoznawczej i prześlij go.

W tym artykule pokazano, jak skonfigurować i wysłać zapytanie do zewnętrznego punktu końcowego modelu przy użyciu wbudowanej funkcji ai_query()SQL usługi Databricks. W przykładzie użyto obsługi modelu zewnętrznego w usłudze Databricks Model Serving w celu wykonywania zapytań gpt-4 udostępnianych przez usługę OpenAI i wykonywania zadań czatu. Aby uzyskać więcej informacji na temat tej funkcji sztucznej inteligencji, zobacz AI Functions on Azure Databricks (Funkcje sztucznej inteligencji w usłudze Azure Databricks ).

Wymagania wstępne

  • Zapoznaj się z wymaganiami funkcji ai_query SQL.
  • Klucz interfejsu API interfejsu OpenAI
  • Zapisz klucz w kluczu tajnym usługi Databricks. W tym przykładzie klucz interfejsu API jest przechowywany w zakresie i wpisie tajnymopenai.my-external-model

Tworzenie zewnętrznego punktu końcowego modelu

Poniżej przedstawiono sposób tworzenia zewnętrznego modelu obsługującego punkt końcowy służący do obsługi interfejsu OpenAI gpt-4 na potrzeby zadania czatu.

Aby utworzyć osobisty token dostępu, zobacz Uwierzytelnianie dla automatyzacji usługi Databricks.

import requests
import json

personal_access_token = "your-personal-access-token"
headers = {
    "Authorization": "Bearer " + personal_access_token,
}
host = "https://oregon.cloud.databricks.com/"
url = host + "api/2.0/serving-endpoints"

data = {
    "name": "my-external-openai-chat",
    "config": {
        "served_entities": [
            {
                "name": "my_entity",
                "external_model": {
                    "name": "gpt-4",
                    "provider": "openai",
                    "openai_config": {
                        "openai_api_key": "{{secrets/my-external-model/openai}}",
                    },
                    "task": "llm/v1/chat",
                },
            }
        ],
    },
}

response = requests.post(url, headers=headers, json=data)

print("Status Code", response.status_code)
print("JSON Response ", json.dumps(json.loads(response.text), indent=4))

Wykonywanie zapytań względem modelu zewnętrznego przy użyciu ai_query()

W edytorze zapytań SQL usługi Databricks można pisać zapytania SQL w celu wykonywania zapytań względem zewnętrznego punktu końcowego obsługującego model.

Przykładowe zapytania:

SELECT ai_query(
    "my-external-openai-chat",
    "What is a large language model?"
  )

SELECT question, ai_query(
    "my-external-openai-chat",
    "You are a customer service agent. Answer the customer's question in 100 words: " || question
  ) AS answer
FROM
  uc_catalog.schema.customer_questions

SELECT
 sku_id,
 product_name,
 ai_query(
   "my-external-openai-chat",
   "You are a marketing expert for a winter holiday promotion targeting GenZ. Generate a promotional text in 30 words mentioning a 50% discount for product: " || product_name
 )
FROM
 uc_catalog.schema.retail_products
WHERE
 inventory > 2 * forecasted_sales

Dodatkowe zasoby