Megjegyzés
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhat bejelentkezni vagy módosítani a címtárat.
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhatja módosítani a címtárat.
Ez a cikk a Mozaik AI-modell-szolgáltatással kiszolgálható alapmodelleket ismerteti.
Az alapmodellek nagy, előre betanított neurális hálózatok, amelyek nagy és széles körű adatbázisokon készültek fel. Ezek a modellek úgy lettek kialakítva, hogy általános mintákat tanuljanak a nyelv, a képek vagy más adattípusok esetében, és további betanításokkal finomhangolhatók adott feladatokhoz. Bizonyos alapmodellek használatára a modell feltételei és elfogadható használati szabályzata vonatkozik. Lásd : Vonatkozó modellfeltételek.
A Modellszolgáltatás rugalmas lehetőségeket kínál az alapmodellek üzemeltetésére és lekérdezésére az igényeinek megfelelően:
- Pay-per-token: Ideális kísérletezéshez és gyors feltáráshoz. Ezzel a beállítással előre konfigurált végpontokat kérdezhet le a Databricks-munkaterületen előzetes infrastruktúra-kötelezettségvállalások nélkül.
- AI-függvények (kötegelt következtetés): A Databricks által üzemeltetett modellek egy része az AI Functionsre van optimalizálva. A mesterséges intelligenciát alkalmazhatja az adataira, és nagy léptékben futtathat kötegelt következtetési feladatokat ezekkel a függvényekkel és az általuk támogatott modellekkel.
- Kiosztott átviteli sebesség: Teljesítménygaranciát igénylő éles használat esetén ajánlott. Ez a beállítás lehetővé teszi a finomhangolt alapmodellek üzembe helyezését optimalizált kiszolgáló végpontokkal.
- Külső modellek: Ez a beállítás hozzáférést biztosít a Databricksen kívül üzemeltetett alapmodellekhez, például az OpenAI vagy az antropikus modellekhez. Ezek a modellek központilag kezelhetők a Databricksben az egyszerűbb szabályozás érdekében.
A Databricksen üzemeltetett alapmodellek
A Databricks a legmodernebb nyílt alapmodelleket üzemelteti, például a Meta Llama-t. Ezek a modellek foundation model API-k használatával érhetők el.
Az alábbi táblázat összefoglalja, hogy mely Databricks által üzemeltetett modellek és modellcsaládok támogatottak az egyes régiókban a Modellkiszolgáló funkció alapján.
Fontos
- Antropikus Claude 3.7 Sonnet már nem érhető el. Kérjük, tekintse meg a kivezetett modelleket az ajánlott cseremodell megtekintéséhez és útmutatást ahhoz, hogyan hajthatja végre az átállást az elavulás során.
- A Meta Llama 4 Maverick elérhető a Foundation Model API-k kiosztott áteresztőképességi munkaterheléseihez Nyilvános előzetes verzióban.
- A Meta-Llama-3.1-405B-Instruct már nem érhető el a tokenenkénti fizetéses számítási feladatokhoz. 2026. május 15-től a kiosztott átviteli sebesség számítási feladatai is megszűnnek. Kérjük, tekintse meg a kivezetett modelleket az ajánlott cseremodell megtekintéséhez és útmutatást ahhoz, hogyan hajthatja végre az átállást az elavulás során.
- Számos régebbi modellcsaládot kivontak. A kivezetett modellek és a javasolt cserék teljes listájáért tekintse meg a kivezetett modelleket.
⥂ Ez a modell a GPU rendelkezésre állása alapján támogatott, és engedélyezni kell a földrajzi távolságok közötti útválasztást.
Databricksen kívül üzemeltetett Access alapmodellek
Az OLYAN LLM-szolgáltatók által létrehozott alapmodellek, mint az OpenAI és az antropikus, külső modelleket használó Databricksben is elérhetők. Ezek a modellek a Databricksen kívül vannak üzemeltetve, és létrehozhat egy végpontot a lekérdezéshez. Ezek a végpontok központilag szabályozhatók a Azure Databricks, ami leegyszerűsíti a szervezeten belüli különböző LLM-szolgáltatók használatát és kezelését.
Az alábbi táblázat a támogatott modellek és a megfelelő végponttípusok nem teljes listáját mutatja be. A felsorolt modelltársításokkal konfigurálhatja, hogy végpontként szolgáljon az újonnan kiadott modelltípusokhoz, amint azok elérhetővé válnak egy adott szolgáltatónál. Az ügyfelek felelősek az alkalmazandó modelllicencek megfelelőségének biztosításáért.
Megjegyzés
Az LLM-ek gyors fejlődésével nincs garancia arra, hogy ez a lista mindig naprakész. Az azonos szolgáltatótól származó új modellverziók általában akkor is támogatottak, ha nem szerepelnek a listán.
| Modellszolgáltató | llm/v1/completions | llm/v1/chat | llm/v1/beágyazások |
|---|---|---|---|
| OpenAI** |
|
|
|
| Azure OpenAI** |
|
|
|
| Antropikus |
|
|
|
| Cohere** |
|
|
|
| Mozaik AI-modell kiszolgálása | Databricks kiszolgálási végpont | Databricks kiszolgálási végpont | Databricks kiszolgálási végpont |
| Amazon Bedrock | Antropikus:
Közösen:
AI21 Labs:
|
Antropikus:
Közösen:
Amazon:
|
Amazon:
Közösen:
|
AI21 Labs† |
|
||
| Google Cloud Vertex AI | text-bison |
|
|
** modellszolgáltató támogatja a finomhangolt befejezési és csevegési modelleket. Egy finomhangolt modell lekérdezéséhez töltse ki a name konfiguráció external model mezőjét a finomhangolt modell nevével.
† A modell szolgáltató támogatja az egyéni kiegészítő modelleket.
Végpontokat kiszolgáló alapmodell létrehozása
Az AI-alkalmazások alapmodelljeinek lekérdezéséhez és használatához először létre kell hoznia egy végpontot kiszolgáló modellt. A Modellkiszolgáló egységes API-t és felhasználói felületet használ a végpontokat kiszolgáló alapmodell létrehozásához és frissítéséhez.
- Ha olyan végpontot szeretne létrehozni, amely az Alapmodell API-k által kiosztott átviteli sebességgel elérhetővé tett alapmodellek finomhangolt változatait szolgálja ki, tekintse meg a kiosztott átviteli sebesség végpontjának létrehozását a REST API használatával.
- A külső modellek ajánlatával elérhetővé tett alapmodellekhez hozzáférő kiszolgáló végpontok létrehozásához lásd : Külső modell kiszolgáló végpontjának létrehozása.
Végpontokat kiszolgáló lekérdezési alapmodell
A kiszolgálóvégpont létrehozása után lekérdezheti az alapmodellt. A Modellkiszolgáló egységes OpenAI-kompatibilis API-t és SDK-t használ az alapmodellek lekérdezéséhez. Ez az egységes élmény leegyszerűsíti, hogyan kísérletezhet és szabhat testre alapmodelleket a termelési környezethez a támogatott felhők és szolgáltatók között.
Lásd: Alapmodellek használata.