Dela via


Stora språkmodeller (LLM) på Databricks

Azure Databricks gör det enkelt att komma åt och bygga ut offentligt tillgängliga stora språkmodeller.

Databricks Runtime för Mašinsko učenje innehåller bibliotek som Hugging Face Transformers och LangChain som gör att du kan integrera befintliga förtränade modeller eller andra bibliotek med öppen källkod i arbetsflödet. Härifrån kan du använda Azure Databricks-plattformsfunktioner för att finjustera LLM:er med dina egna data för bättre domänprestanda.

Dessutom erbjuder Azure Databricks inbyggda funktioner för SQL-användare att komma åt och experimentera med LLM:er som Azure OpenAI och OpenAI med hjälp av AI-funktioner.

Ai-modellträning för Mosaik

Viktigt!

Den här funktionen finns som allmänt tillgänglig förhandsversion. Kontakta ditt Databricks-kontoteam för att registrera dig i den offentliga förhandsversionen.

Mosaic AI Model Training (tidigare Foundation Model Training) är ett enkelt gränssnitt till Databricks träningsstacken för att utföra fullständig modelljustering.

Du kan göra följande med hjälp av Mosaic AI Model Training:

  • Finjustera en modell med dina anpassade data, med kontrollpunkterna sparade i MLflow. Du behåller fullständig kontroll över den finjusterade modellen.
  • Registrera modellen automatiskt i Unity Catalog, vilket gör det enkelt att distribuera med modellservering.
  • Finjustera en färdig, egenutvecklad modell genom att läsa in vikterna för en tidigare finjusterad modell.

Se Introduktion till Ai-modellträning för Mosaik.

Krama ansiktstransformatorer

Med Hugging Face Transformers på Databricks kan du skala ut dina NLP-batchprogram (natural language processing) och finjustera modeller för stora modellprogram.

Biblioteket Hugging Face transformers är förinstallerat på Databricks Runtime 10.4 LTS ML och senare. Många av de populära NLP-modellerna fungerar bäst på GPU-maskinvara, så du kan få bästa prestanda med den senaste GPU-maskinvaran om du inte använder en modell som är särskilt optimerad för användning på processorer.

LangChain

LangChain är tillgängligt som en experimentell MLflow-smak som gör att LangChain-kunder kan utnyttja de robusta verktygen och experimentspårningsfunktionerna i MLflow direkt från Azure Databricks-miljön.

LangChain är ett programvaruramverk som är utformat för att hjälpa dig att skapa program som använder stora språkmodeller (LLM) och kombinera dem med externa data för att få mer träningskontext för dina LLM:er.

Databricks Runtime ML ingår langchain i Databricks Runtime 13.1 ML och senare.

Lär dig mer om Databricks-specifika LangChain-integreringar.

AI-funktioner

Viktigt!

Den här funktionen finns som allmänt tillgänglig förhandsversion.

AI-funktioner är inbyggda SQL-funktioner som gör att SQL-användare kan:

  • Använd Api:er för Databricks Foundation-modell för att utföra olika uppgifter på företagets data.
  • Få åtkomst till externa modeller som GPT-4 från OpenAI och experimentera med dem.
  • Frågemodeller som hanteras av Mosaic AI Model Serving-slutpunkter från SQL-frågor.