Alapmodellek használata

Ebben a cikkben megtudhatja, hogy mely lehetőségek állnak rendelkezésre az alapmodellek lekérdezési kéréseinek írására, és hogyan küldheti el őket a végpontot kiszolgáló modellnek. Lekérdezheti a Databricks és a Databricksen kívüli alapmodellek által üzemeltetett alapmodelleket.

A hagyományos ML- vagy Python-modellek lekérdezési kéréseivel kapcsolatban lásd az egyéni modellek végpontjait kiszolgáló lekérdezést.

Mosaic AI Model Serving, amely támogatja a Foundation Models API-ket és külső modelleket az alapmodellek eléréséhez. A Modellkiszolgáló egységes OpenAI-kompatibilis API-t és SDK-t használ a lekérdezéshez. Ez lehetővé teszi a támogatott felhők és szolgáltatók számára, hogy kipróbálhassák és testreszabhassák az éles környezetre szánt alapmodelleket.

Lekérdezési beállítások

A Mozaik AI-modell-kiszolgáló a következő lehetőségeket kínálja a lekérdezési kérések alapmodelleket kiszolgáló végpontokra való küldéséhez:

Metódus Részletek
OpenAI-ügyfél Egy Mozaik AI-modellszolgáltatás végpontja által üzemeltetett modell lekérdezése az OpenAI-ügyfél használatával. Adja meg a modellek kiszolgálási végpontjának nevét model bemenetként. Támogatja az Alapmodell API-k vagy külső modellek által elérhetővé tett csevegési, beágyazási és befejezési modelleket.
AI-függvények Modellkövetkeztetés meghívása közvetlenül az SQL-ből az ai_query SQL-függvény használatával. Lásd: Példa : Alapmodell lekérdezése.
Felhasználói felület kiszolgálása Válassza a Lekérdezésvégpont lehetőséget a Kiszolgáló végpont lapon. JSON formátumú modell bemeneti adatainak beszúrása, majd kattintson Kérelem küldésegombra. Ha a modellhez egy bemeneti példa van naplózva, a Példa megjelenítése parancsot használva töltse be.
REST API A modell meghívása és lekérdezése a REST API használatával. Részletekért lásd: POST /serving-endpoints/{name}/invocations . A több modellt kiszolgáló végpontokra irányuló pontozási kérelmekről a végpont mögötti egyes modellek lekérdezése című témakörben olvashat.
MLflow Deployments SDK A modell lekérdezéséhez használja az MLflow Deployments SDK predict() függvényét.
Databricks Python SDK A Databricks Python SDK egy réteg a REST API tetején. Kezeli az alacsony szintű részleteket, például a hitelesítést, így könnyebben kezelhetők a modellek.

Követelmények

  • Végpontot kiszolgáló modell.
  • Databricks-munkaterület egy támogatott régióban.
  • Ha pontozási kérelmet szeretne küldeni az OpenAI ügyfélen, a REST API-n vagy az MLflow Deployment SDK-n keresztül, rendelkeznie kell egy Databricks API-jogkivonattal.

Fontos

A Databricks éles környezetekben ajánlott biztonsági gyakorlatként javasolja a gépek közötti OAuth-jogkivonatok használatát a hitelesítéshez.

Teszteléshez és fejlesztéshez a Databricks a munkaterület felhasználói helyett a szolgáltatásnevekhez tartozó személyes hozzáférési jogkivonat használatát javasolja. Szolgáltatási főszereplők jogkivonatainak létrehozásához lásd a Szolgáltatási főszereplők jogkivonatainak kezelése című részt.

Csomagok telepítése

Miután választott egy lekérdezési módszert, először telepítenie kell a megfelelő csomagot a clustersére.

OpenAI-ügyfél

Az OpenAI kliens használatához a databricks-openai csomagot telepíteni kell a fürtre. Ez a csomag egy OpenAI-ügyfelet biztosít, amely automatikusan konfigurálja az engedélyezést a generatív AI-modellek lekérdezésére. Futtassa a következő parancsokat a jegyzetfüzetében vagy a helyi terminálban:

pip install -U databricks-openai

A következőre csak akkor van szükség, ha a csomagot Databricks-jegyzetfüzetbe telepíti

dbutils.library.restartPython()

REST API

A Kiszolgáló REST API-hoz való hozzáférés a Databricks Runtime for Machine Learningben érhető el.

MLflow Deployments SDK

!pip install mlflow

A következőre csak akkor van szükség, ha a csomagot Databricks-jegyzetfüzetbe telepíti

dbutils.library.restartPython()

Databricks Python SDK

A Pythonhoz készült Databricks SDK már telepítve van az összes Olyan Azure Databricks-fürtön, amely a Databricks Runtime 13.3 LTS-t vagy újabb verziót használja. Azoknál az Azure Databricks-fürtöknél, amelyek a Databricks Runtime 12.2 LTS-t és az alatta lévő verziókat használják, először telepíteni kell a Databricks SDK-t a Pythonhoz. Lásd: Databricks SDK for Python.

Alapmodell-típusok

Az alábbi táblázat a tevékenységtípus alapján összefoglalja a támogatott alapmodelleket.

Fontos

A Meta-Llama-3.1-405B-Instruct ki lesz állítva,

  • 2026. február 15-től a pay-per-token munkaterhelésekhez.
  • 2026. május 15-től kezdődően kiosztott átviteli sebesség számítási feladatai.

Kérjük, tekintse meg a kivezetett modelleket az ajánlott cseremodell megtekintéséhez és útmutatást ahhoz, hogyan hajthatja végre az átállást az elavulás során.

Tevékenység típusa Leírás Támogatott modellek Mikor érdemes használni? Ajánlott használati esetek
Általános célú A természetes, többfordulós beszélgetések megértésére és részvételére tervezett modellek. Ezek az emberi párbeszéd nagy adathalmazaira vannak finomhangolva, így környezetfüggő válaszokat hozhatnak létre, nyomon követhetik a beszélgetések előzményeit, és koherens, emberi jellegű interakciókat biztosíthatnak különböző témakörökben. A databricks által üzemeltetett alapmodellek a következők:

A támogatott külső modellek a következők:
  • OpenAI GPT és O sorozatú modellek
  • Antropikus Claude-modellek
  • Google Gemini-modellek
Olyan forgatókönyvekhez ajánlott, ahol természetes, több lépcsős párbeszédre és kontextusfüggő megértésre van szükség:
  • Virtuális asszisztensek
  • Ügyfélszolgálati robotok
  • Interaktív oktatórendszerek.
Beágyazások A beágyazási modellek olyan gépi tanulási rendszerek, amelyek összetett adatokat – például szöveget, képeket vagy hangokat – alakítanak át kompakt numerikus vektorokká, úgynevezett beágyazásokká. Ezek a vektorok rögzítik az adatok alapvető funkcióit és kapcsolatait, lehetővé téve a hatékony összehasonlítást, a fürtözést és a szemantikai keresést. A databricks által üzemeltetett alapmodell az alábbiakat támogatja:

A támogatott külső modellek a következők:
  • OpenAI szövegbeágyazási modellek
  • Szövegbeágyazási modellek összekapcsolása
  • Google-szövegbeágyazási modellek
Olyan alkalmazásokhoz ajánlott, ahol elengedhetetlen a szemantikai megértés, a hasonlóság összehasonlítása, valamint az összetett adatok hatékony lekérése vagy fürtözése:
  • Szemantikai keresés
  • Visszakereséssel bővített generáció (RAG)
  • Témaklaszterezés
  • Hangulatelemzés és szövegelemzés
Vízió A vizuális adatok feldolgozására, értelmezésére és elemzésére tervezett modellek– például képek és videók – így a gépek "láthatják" és megérthetik a vizuális világot. A databricks által üzemeltetett alapmodellek a következők:

A támogatott külső modellek a következők:
  • OpenAI GPT és o sorozatú modellek látási képességekkel
  • Antropikus Claude-modellek látási képességekkel
  • Google Gemini modellek látási képességekkel
  • Az OpenAI API-kompatibilis látásképességekkel rendelkező egyéb külső alapmodellek is támogatottak.
Mindenhol ajánlott, ahol a vizuális információk automatizált, pontos és méretezhető elemzése szükséges:
  • Objektumészlelés és -felismerés
  • Képbesorolás
  • Képszegmentálás
  • Dokumentumértelmezés
Érvelés Az emberhez hasonló logikai gondolkodás szimulálására tervezett fejlett AI-rendszerek. Az érvelési modellek olyan technikákat integrálnak, mint a szimbolikus logika, a valószínűségi érvelés és a neurális hálózatok a környezet elemzéséhez, a feladatok lebontásához és a döntéshozataluk magyarázatához. A databricks által üzemeltetett alapmodell az alábbiakat támogatja:

A támogatott külső modellek a következők:
  • OpenAI-modellek érvelési képességekkel
  • Antropikus Claude-modellek érvelési képességekkel
  • Google Gemini-modellek érvelési képességekkel
Mindenhol ajánlott, ahol a vizuális információk automatizált, pontos és méretezhető elemzése szükséges:
  • Kódgenerálás
  • Tartalom létrehozása és összegzése
  • Ügynök koordinálása

Függvényhívás

A Databricks-függvényhívás OpenAI-kompatibilis, és csak az Foundation Model API-k részeként és a külső modelleketkiszolgáló végpontok kiszolgálása során érhető el. További információ: Függvényhívás az Azure Databricksben.

Strukturált kimenetek

A strukturált kimenetek OpenAI-kompatibilisek, és csak az alapmodell API-k részeként szolgáló modell alatt érhetők el. További részletekért lásd az Azure Databricks strukturált kimeneteit.

Gyorsítótárazás kérése

Az alapmodell API-k részeként a Databricks által üzemeltetett Claude-modellek esetében támogatott a gyors gyorsítótárazás.

A lekérdezési kérelmekben megadhatja a cache_control paramétert a következő gyorsítótárazáshoz:

  • Szöveges tartalomüzenetek a messages.content tömbben.
  • Gondolkodó üzenetek tartalma a messages.content tömbben.
  • A képek tartalomblokkjai a messages.content tömbben.
  • Eszközhasználat, eredmények és definíciók a tools tömbben.

Lásd Foundation modell REST API referenciája.

Szövegtartalom

{
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "type": "text",
          "text": "What's the date today?",
          "cache_control": { "type": "ephemeral" }
        }
      ]
    }
  ]
}

ReasonContent

{
  "messages": [
    {
      "role": "assistant",
      "content": [
        {
          "type": "reasoning",
          "summary": [
            {
              "type": "summary_text",
              "text": "Thinking...",
              "signature": "[optional]"
            },
            {
              "type": "summary_encrypted_text",
              "data": "[encrypted text]"
            }
          ]
        }
      ]
    }
  ]
}

ImageContent

A képüzenet tartalmának forrásként a kódolt adatokat kell használnia. Az URL-címek nem támogatottak.

{
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "type": "text",
          "text": "What’s in this image?"
        },
        {
          "type": "image_url",
          "image_url": {
            "url": "data:image/jpeg;base64,[content]"
          },
          "cache_control": { "type": "ephemeral" }
        }
      ]
    }
  ]
}

EszközhívásTartalom

{
  "messages": [
    {
      "role": "assistant",
      "content": "Ok, let’s get the weather in New York.",
      "tool_calls": [
        {
          "type": "function",
          "id": "123",
          "function": {
            "name": "get_weather",
            "arguments": "{\"location\":\"New York, NY\"}"
          },
          "cache_control": { "type": "ephemeral" }
        }
      ]
    }
  ]
}

Megjegyzés:

A Databricks REST API OpenAI-kompatibilis, és különbözik az antropikus API-tól. Ezek a különbségek az alábbihoz hasonló válaszobjektumokra is hatással vannak:

  • A kimenet a choices mezőben lesz visszaadva.
  • Streamelési adattömb formátuma. Minden adattömb ugyanazt a formátumot követi, amelyben choices a válasz delta szerepel, és a használat minden adattömbben vissza lesz adva.
  • A leállítás oka a finish_reason mezőben lesz visszaadva.
    • Antropikus felhasználások: end_turn, stop_sequence, max_tokensés tool_use
    • A Databricks a következőket használja: stop, stop, lengthés tool_calls

Csevegés támogatott LLM-ekkel az AI Playground használatával

A támogatott nagy nyelvi modelleket az AI Playground használatával használhatja. Az AI-játszótér egy csevegéshez hasonló környezet, ahol tesztelheti, kérheti és összehasonlíthatja az Azure Databricks-munkaterületről származó LLM-eket.

AI-játszótér

További erőforrások