Wykonywanie zapytań względem obsługiwanego modelu za pomocą polecenia ai_query()
Ważne
Ta funkcja jest dostępna w publicznej wersji zapoznawczej.
W tym artykule opisano sposób wykonywania zapytań dotyczących punktu końcowego obsługującego model z bazy danych SQL przy użyciu polecenia ai_query()
.
Co to jest usługa ai_query()
?
Funkcja ai_query()
jest wbudowaną funkcją SQL usługi Azure Databricks, częścią funkcji sztucznej inteligencji. Umożliwia dostęp do tych typów modeli z zapytań SQL:
- Modele niestandardowe hostowane przez punkt końcowy obsługujący model.
- Modele hostowane przez interfejsy API modelu usługi Databricks Foundation.
- Modele zewnętrzne (modele innych firm hostowane poza usługą Databricks).
Aby uzyskać informacje o składni i wzorcach projektowych, zobacz ai_query funkcja.
Gdy ta funkcja jest używana do wykonywania zapytań dotyczących punktu końcowego obsługującego model, jest dostępna tylko w obszarach roboczych i regionach, w których jest dostępna i włączona obsługa modelu.
Wymagania
- Zobacz Wymagania.
Wykonywanie zapytań względem punktu końcowego za pomocą polecenia ai_query()
Możesz wykonać zapytanie dotyczące modelu za punktem końcowym przy użyciu ai_query()
usług bezserwerowych lub pro SQL Warehouse. Aby uzyskać informacje o formatach żądań oceniania i odpowiedzi, zobacz Modele sztucznej inteligencji generowania zapytań.
Uwaga
- W przypadku środowiska Databricks Runtime 14.2 lub nowszego ta funkcja jest obsługiwana w środowiskach notesów, w tym notesów i zadań usługi Databricks.
- W przypadku środowiska Databricks Runtime 14.1 lub starszego ta funkcja nie jest obsługiwana w środowiskach notesów, w tym notesów usługi Databricks.
Przykład: Wykonywanie zapytań względem dużego modelu językowego
W poniższym przykładzie model znajduje się za sentiment-analysis
punktem końcowym z zestawem text
danych i określa zwracany typ żądania.
SELECT text, ai_query(
"sentiment-analysis",
text,
returnType => "STRUCT<label:STRING, score:DOUBLE>"
) AS predict
FROM
catalog.schema.customer_reviews
Przykład: Wykonywanie zapytań względem modelu predykcyjnego
Poniższy przykład wysyła zapytanie do modelu klasyfikacji za punktem końcowym, spam-classification
aby wsadować przewidywać, czy text
jest to spam w inbox_messages
tabeli. Model przyjmuje 3 funkcje wejściowe: znacznik czasu, nadawca, tekst. Model zwraca tablicę logiczną.
SELECT text, ai_query(
endpoint => "spam-classification",
request => named_struct(
"timestamp", timestamp,
"sender", from_number,
"text", text),
returnType => "BOOLEAN") AS is_spam
FROM catalog.schema.inbox_messages