Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Dit artikel beschrijft wat Databricks aanbeveelt voor batch-inference.
Raadpleeg Implementatiemodellen met Mosaic AI Model Serving gebruiken voor realtime modelbediening op Azure Databricks.
AI-functies voor batchinference
Belangrijk
Deze functie is beschikbaar als openbare preview.
AI-functies zijn ingebouwde functies die u kunt gebruiken om AI toe te passen op uw gegevens die zijn opgeslagen op Databricks. U kunt batchdeductie uitvoeren met behulp van taakspecifieke AI-functies of de functie voor algemeen gebruik. ai_query
Hier volgt een voorbeeld van batchdeductie met behulp van de taakspecifieke AI-functie. ai_translate nl-NL: Als u batch-inferentie wilt uitvoeren voor een hele tabel, kunt u de limit 500 uit uw query verwijderen.
SELECT
writer_summary,
ai_translate(writer_summary, "cn") as cn_translation
from user.batch.news_summaries
limit 500
;
U kunt ook de algemene functie ai_query gebruiken om batchinference uit te voeren.
- Bekijk welke modeltypen en de bijbehorende modellen worden
ai_queryondersteund. - Zie Batch-inferentiepijplijnen uitrollen.