Udostępnij za pośrednictwem


Wykonywanie zapytań względem obsługiwanego modelu za pomocą polecenia ai_query()

Ważne

Ta funkcja jest dostępna w publicznej wersji zapoznawczej.

W tym artykule opisano sposób wykonywania zapytań dotyczących punktu końcowego obsługującego model z bazy danych SQL przy użyciu polecenia ai_query().

Co to jest usługa ai_query()?

Funkcja ai_query() jest wbudowaną funkcją SQL usługi Azure Databricks, częścią funkcji sztucznej inteligencji. Umożliwia dostęp do tych typów modeli z zapytań SQL:

  • Modele niestandardowe hostowane przez punkt końcowy obsługujący model.
  • Modele hostowane przez interfejsy API modelu usługi Databricks Foundation.
  • Modele zewnętrzne (modele innych firm hostowane poza usługą Databricks).

Aby uzyskać informacje o składni i wzorcach projektowych, zobacz ai_query funkcja.

Gdy ta funkcja jest używana do wykonywania zapytań dotyczących punktu końcowego obsługującego model, jest dostępna tylko w obszarach roboczych i regionach, w których jest dostępna i włączona obsługa modelu.

Wymagania

Wykonywanie zapytań względem punktu końcowego za pomocą polecenia ai_query()

Możesz wykonać zapytanie dotyczące modelu za punktem końcowym przy użyciu ai_query() usług bezserwerowych lub pro SQL Warehouse. Aby uzyskać informacje o formatach żądań oceniania i odpowiedzi, zobacz Modele sztucznej inteligencji generowania zapytań.

Uwaga

  • W przypadku środowiska Databricks Runtime 14.2 lub nowszego ta funkcja jest obsługiwana w środowiskach notesów, w tym notesów i zadań usługi Databricks.
  • W przypadku środowiska Databricks Runtime 14.1 lub starszego ta funkcja nie jest obsługiwana w środowiskach notesów, w tym notesów usługi Databricks.

Przykład: Wykonywanie zapytań względem dużego modelu językowego

W poniższym przykładzie model znajduje się za sentiment-analysis punktem końcowym z zestawem text danych i określa zwracany typ żądania.

SELECT text, ai_query(
    "sentiment-analysis",
    text,
    returnType => "STRUCT<label:STRING, score:DOUBLE>"
  ) AS predict
FROM
  catalog.schema.customer_reviews

Przykład: Wykonywanie zapytań względem modelu predykcyjnego

Poniższy przykład wysyła zapytanie do modelu klasyfikacji za punktem końcowym, spam-classification aby wsadować przewidywać, czy text jest to spam w inbox_messages tabeli. Model przyjmuje 3 funkcje wejściowe: znacznik czasu, nadawca, tekst. Model zwraca tablicę logiczną.

SELECT text, ai_query(
  endpoint => "spam-classification",
  request => named_struct(
    "timestamp", timestamp,
    "sender", from_number,
    "text", text),
  returnType => "BOOLEAN") AS is_spam
FROM catalog.schema.inbox_messages