Dela via


Distribuera modeller för batchinferens och förutsägelse

Den här artikeln beskriver vad Databricks rekommenderar för batch- och strömningsinferens.

Information om realtidsmodell som betjänar Azure Databricks finns i Modellservering med Azure Databricks.

Använda ai_query för batchinferens

Viktigt!

Den här funktionen finns som allmänt tillgänglig förhandsversion.

Databricks rekommenderar att du använder ai_query med Modellservering för batchinferens. ai_query är en inbyggd Databricks SQL-funktion som gör att du kan köra frågor mot befintliga modellserverslutpunkter med SQL. Det har verifierats att tillförlitligt och konsekvent bearbeta datauppsättningar i intervallet med miljarder token. Mer information om den här AI-funktionen finns i ai_query funktion .

För snabbexperimentering ai_query kan användas med pay-per-token-slutpunkter eftersom dessa slutpunkter är förkonfigurerade på din arbetsyta.

När du är redo att köra batchinferens på stora data eller produktionsdata rekommenderar Databricks att du använder etablerade dataflödesslutpunkter för snabbare prestanda. Se API:er för etablering av dataflödesmodell för att skapa en etablerad dataflödesslutpunkt.