Udostępnij za pośrednictwem


Użyj ai_query

Ważna

Ta funkcja jest dostępna w publicznej wersji testowej.

ai_query to funkcja sztucznej inteligencji ogólnego przeznaczenia, która umożliwia wykonywanie zapytań dotyczących dowolnego obsługiwanego modelu sztucznej inteligencji bezpośrednio z poziomu języka SQL lub Python. W przeciwieństwie do funkcji sztucznej inteligencji specyficznych dla zadań, które są specjalnie utworzone i zoptymalizowane pod kątem pojedynczego zadania, ai_query zapewnia pełną kontrolę nad modelem, monitem i parametrami.

Aby uzyskać pełną składnię i odwołanie do parametrów, zobacz ai_query funkcja.

Kiedy należy używać ai_query

Databricks zaleca rozpoczęcie od funkcji sztucznej inteligencji dla określonego zadania, gdy pasuje do celu. Użyj ai_query, gdy funkcja dedykowana zadaniu nie spełnia Twoich potrzeb. Na przykład, gdy musisz:

  • Dokładniej kontroluj monit, parametry modelu lub format danych wyjściowych
  • Wykonywanie zapytań do niestandardowego, dostosowanego lub zewnętrznego modelu
  • Potrzebna elastyczność w celu dalszej optymalizacji pod kątem przepływności lub jakości

Drzewo decyzyjne dla funkcji sztucznej inteligencji specyficznych dla zadań i ai_query

Najlepsze rozwiązania

  • Użyj wstępnie wdrożonych modeli podstawowych. Użyj punktów końcowych modelu bazowego hostowanego w usłudze Databricks (z prefiksem databricks-), a nie punktów końcowych gwarantowanej przepływności. Te punkty końcowe są w pełni zarządzane i skalowane automatycznie bez aprowizacji lub konfiguracji.
  • Wybierz model zoptymalizowany pod kątem wnioskowania wsadowego. Usługa Databricks optymalizuje modele obliczeniowe określone pod kątem obciążeń wsadowych o wysokiej przepływności. Użycie nieoptymalizowanego modelu może spowodować zmniejszenie przepływności i dłuższy czas ukończenia zadania. Zobacz Obsługiwane modele , aby uzyskać pełną listę modeli zoptymalizowanych pod kątem partii.
  • Prześlij pełny zestaw danych w jednym zapytaniu. Funkcje sztucznej inteligencji automatycznie obsługują równoległe, ponawiane próby i skalowanie. Ręczne dzielenie danych na małe partie może zmniejszyć przepływność.
  • Ustaw failOnError wartość na false dla dużych obciążeń. Dzięki temu zadanie może zostać ukończone i może zwrócić komunikaty o błędach dla wierszy, które zakończyły się niepowodzeniem, co pozwala zachować pomyślne wyniki bez ponownego przetwarzania całego zestawu danych.

Obsługiwane modele

ai_query obsługuje wstępnie wdrożone modele usługi Azure Databricks, modele, które można przynieść samodzielnie i modele zewnętrzne.

Poniższa tabela zawiera podsumowanie obsługiwanych typów modeli, skojarzonych modeli i modeli obsługujących wymagania dotyczące konfiguracji punktu końcowego dla każdego z nich.

Typ Opis Obsługiwane modele Wymagania
Wstępnie wdrożone modele Usługa Azure Databricks hostuje te modele podstawowe i oferuje wstępnie skonfigurowane punkty końcowe, które można wykonywać zapytania przy użyciu polecenia ai_query. Zobacz Obsługiwane modele podstawowe w usłudze Mosaic AI Model Serving, aby dowiedzieć się, które modele są obsługiwane przez każdą funkcję serwowania modelu i jaka jest ich dostępność regionalna. Te modely są obsługiwane i zoptymalizowane pod kątem rozpoczęcia korzystania z inferencji wsadowej i przepływów pracy produkcyjnej.
  • databricks-claude-sonnet-4
  • databricks-gpt-oss-20b
  • databricks-gpt-oss-120b
  • databricks-gemma-3-12b
  • databricks-llama-4-maverick
  • databricks-meta-llama-3-3-70b-instruct
  • databricks-meta-llama-3-1-8b-instruct
  • databricks-qwen3-embedding-0-6b
  • databricks-gte-large-en

Inne modele hostowane w usłudze Azure Databricks są dostępne do użycia z usługą AI Functions, ale nie są zalecane w przypadku przepływów pracy produkcyjnych wnioskowania wsadowego na dużą skalę. Inne te modele są udostępniane do inferencji w czasie rzeczywistym przy użyciu interfejsów API modelu podstawowego zapłata za każdy token.
Do korzystania z tej funkcji jest wymagane środowisko Databricks Runtime 15.4 LTS lub nowsze. Nie wymaga aprowizacji ani konfiguracji punktu końcowego. Korzystanie z tych modeli podlega warunkom dewelopera odpowiedniego modelu i dostępności regionu usługi AI Functions.
Przynieś własny model Możesz korzystać z własnych modeli i wykonywać względem nich zapytania przy użyciu funkcji sztucznej inteligencji. Funkcje sztucznej inteligencji oferują elastyczność, dzięki czemu można wykonywać zapytania dotyczące modeli wnioskowania w czasie rzeczywistym lub scenariuszy wnioskowania wsadowego.

Użyj ai_query z modelami bazowymi

W poniższym przykładzie pokazano, jak używać ai_query z modelem podstawowym hostowanym przez usługę Azure Databricks.


SELECT text, ai_query(
    "databricks-meta-llama-3-3-70b-instruct",
    "Summarize the given text comprehensively, covering key points and main ideas concisely while retaining relevant details and examples. Ensure clarity and accuracy without unnecessary repetition or omissions: " || text
) AS summary
FROM uc_catalog.schema.table;

Przykładowy notatnik: wnioskowanie wsadowe i wyodrębnianie danych ustrukturyzowanych

W poniższym przykładowym zeszycie pokazano, jak wykonać podstawowe wyodrębnianie danych ustrukturyzowanych przy użyciu ai_query do przekształcania nieprzetworzonych, nieustrukturyzowanych danych w zorganizowane, użyteczne informacje za pomocą zautomatyzowanych technik wyodrębniania. W tym notesie pokazano również, jak wykorzystać ocenę działania agenta do oceny dokładności przy użyciu danych referencyjnych.

Wnioskowanie wsadowe i notatnik wyodrębniania danych ustrukturyzowanych

Pobierz laptopa

Użyj ai_query z tradycyjnymi modelami uczenia maszynowego

ai_query obsługuje tradycyjne modele uczenia maszynowego, w tym całkowicie dostosowane. Te modele należy wdrożyć w punktach końcowych obsługujących model. Aby uzyskać szczegółowe informacje o składni i parametry, zobacz ai_query funkcja.

SELECT text, ai_query(
  endpoint => "spam-classification",
  request => named_struct(
    "timestamp", timestamp,
    "sender", from_number,
    "text", text),
  returnType => "BOOLEAN") AS is_spam
FROM catalog.schema.inbox_messages
LIMIT 10

Przykładowy notatnik: wnioskowanie wsadowe przy użyciu BERT do rozpoznawania nazwanych encji (NER)

"W poniższym notatniku przedstawiono przykład tradycyjnego wnioskowania wsadowego modelu uczenia maszynowego przy użyciu BERT."

Wnioskowanie wsadowe przy użyciu BERT dla notebooka rozpoznawania nazwanych jednostek

Pobierz laptopa

Używanie ai_query w przepływach pracy języka Python

ai_query można zintegrować z istniejącymi przepływami pracy języka Python.

Następujące dane wyjściowe ai_query są zapisywane w tabeli wyjściowej:


df_out = df.selectExpr(
  "ai_query('databricks-meta-llama-3-3-70b-instruct', CONCAT('Please provide a summary of the following text: ', text), modelParameters => named_struct('max_tokens', 100, 'temperature', 0.7)) as summary"
)
df_out.write.mode("overwrite").saveAsTable('output_table')