Delen via


Fijnafstemming van fundamentele modellen

Belangrijk

Deze functie bevindt zich in openbare preview in de volgende regio's: , centralus, eastus, en eastus2northcentralus.westus

Met Foundation Model Fine-tuning (nu onderdeel van Mosaic AI Model Training) kunt u uw eigen gegevens gebruiken om een basismodel aan te passen om de prestaties voor uw specifieke toepassing te optimaliseren. Door een basismodel nauwkeurig af te stemmen of te blijven trainen, kunt u uw eigen model trainen met aanzienlijk minder gegevens, tijd en rekenresources dan het trainen van een volledig nieuw model.

Met Databricks beschikt u over alles in één platform: uw eigen gegevens die moeten worden gebruikt voor training, het basismodel om te trainen, controlepunten opgeslagen in MLflow en het model dat is geregistreerd in Unity Catalog en klaar voor implementatie.

Zie Zelfstudie: Een Foundation Model Fine-tuning run maken en implementeren om te leren hoe u een uitvoering maakt met behulp van de Foundation Model Fine-tuning-API, en bekijk vervolgens de resultaten en implementeer het model met behulp van de Databricks UI en Mosaic AI Model Serving.

Wat is fine-tuning van een foundation model?

Met het verfijnen van het Foundation-model kunt u de Databricks-API of -gebruikersinterface gebruiken om een basismodel af te stemmen of verder te trainen.

Met behulp van Foundation Model Fine-tuning kunt u het volgende doen:

  • Train een model met uw aangepaste gegevens, met de controlepunten die zijn opgeslagen in MLflow. U behoudt volledige controle over het getrainde model.
  • Registreer het model automatisch bij de Unity Catalog, zodat het eenvoudig kan worden ingezet met modelbediening.
  • Een voltooid, eigen model verder trainen door de gewichten van een eerder getraind model te laden.

Databricks raadt aan om Foundation Model fine-tuning uit te proberen als:

  • U heeft few-shot learning geprobeerd en wilt betere resultaten behalen.
  • U hebt prompt engineering op een bestaand model geprobeerd en wilt betere resultaten.
  • U wilt volledig eigendom van een aangepast model voor gegevensprivacy.
  • U bent latentiegevoelig of kostengevoelig en wilt een kleiner, goedkoper model gebruiken met uw taakspecifieke gegevens.

Ondersteunde taken

Foundation Model Fine-tuning ondersteunt de volgende use cases:

  • Chatafhandeling: Aanbevolen taak. Train uw model in chatlogboeken tussen een gebruiker en een AI-assistent. Deze indeling kan zowel worden gebruikt voor werkelijke chatlogboeken als als een standaardindeling voor het beantwoorden van vragen en gesprekstekst. De tekst wordt automatisch opgemaakt in de juiste indeling voor het specifieke model. Zie voorbeeldchatsjablonen in de HuggingFace-documentatie voor meer informatie over sjablonen.
  • Instructies voor het fijnstemmen: Train uw model met gestructureerde prompt-responsgegevens. Gebruik dit om uw model aan te passen aan een nieuwe taak, de responsstijl te wijzigen of instructievolgende mogelijkheden toe te voegen. Deze taak past geen opmaak automatisch toe op uw gegevens en wordt alleen aanbevolen wanneer aangepaste gegevensopmaak is vereist.
  • Vervolgtraining: Train uw model met aanvullende tekstgegevens. Gebruik deze optie om nieuwe kennis toe te voegen aan een model of om een model te richten op een specifiek domein.

Eisen

  • Een Databricks-werkruimte in een van de volgende Azure-regio's: centralus, eastus, eastus2, northcentralusof westus.
  • Foundation Model Fine-tuning-API's geïnstalleerd met behulp van pip install databricks_genai.
  • Databricks Runtime 12.2 LTS ML of hoger als uw gegevens zich in een Delta-tabel bevinden.

Zie Gegevens voorbereiden voor Het verfijnen van Foundation Model voor informatie over vereiste invoergegevensindelingen.

Aanbevolen gegevensgrootte voor modeltraining

Databricks raadt aan aanvankelijk te trainen met één tot vier epochs. Nadat u uw nauwkeurig afgestemde model hebt geëvalueerd, kunt u, als u wilt dat de modeluitvoer vergelijkbaarer is met uw trainingsgegevens, beginnen met trainen met behulp van een tot twee meer tijdvakken.

Als de modelprestaties aanzienlijk afnemen voor taken die niet worden weergegeven in uw verfijningsgegevens, of als het model exacte kopieën van uw fine-tuninggegevens lijkt uit te voeren, raadt Databricks aan het aantal trainingstijdvakken te verminderen.

Voor het afstemmen van instructies en het voltooien van chatgesprekken moet u voldoende tokens opgeven voor ten minste één volledige contextlengte van het model. Bijvoorbeeld 131072 tokens voor meta-llama/Llama-3.2-3B-Instruct.

Voor vervolgtraining raadt Databricks minimaal 1,5 miljoen tokens aan om een kwaliteitsmodel te krijgen dat uw aangepaste gegevens leert.

Ondersteunde modellen

De volgende tabel bevat ondersteunde modellen. Zie Modellicenties voor de toepasselijke modellicentie en beleidsinformatie voor acceptabel gebruik.

Om de ondersteuning van de meest geavanceerde modellen voort te zetten, kan Databricks ondersteunde modellen bijwerken of oudere modellen buiten gebruik stellen.

Modelleren Maximale contextlengte Opmerkingen
meta-llama/Llama-3.3-70B-Instruct 131072
meta-llama/Llama-3.2-1B 131072
meta-llama/Llama-3.2-1B-Instruct 131072
meta-llama/Llama-3.2-3B 131072
meta-llama/Llama-3.2-3B-Instruct 131072
meta-llama/Meta-Llama-3.1-70B 131072
meta-llama/Meta-Llama-3.1-70B-Instruct 131072
meta-llama/Meta-Llama-3.1-8B 131072
meta-llama/Meta-Llama-3.1-8B-Instruct 131072

Modellicenties

De volgende tabel bevat de toepasselijke modellicentie- en acceptabele beleidsinformatie voor de ondersteunde modelfamilies.

Modelfamilie Beleid voor licentie en acceptabel gebruik
Meta Lama 3.2 Meta Llama 3.2 is gelicentieerd onder de LLAMA 3.2 Community License, Copyright © Meta Platforms, Inc. Alle rechten voorbehouden.
Klanten zijn verantwoordelijk voor de naleving van de voorwaarden van deze licentie en het Beleid voor acceptabel gebruik van Llama 3.2.
Meta Lama 3.1 Meta Llama 3.1 is gelicentieerd onder de LLAMA 3.1 Community License, Copyright © Meta Platforms, Inc. Alle rechten voorbehouden.
Klanten zijn verantwoordelijk voor het garanderen van naleving van toepasselijke modellicenties.

Fine-tuning van Foundation Model gebruiken

Het verfijnen van het Foundation-model is toegankelijk met behulp van de databricks_genai SDK. In het volgende voorbeeld wordt een trainingsuitvoering gemaakt en gestart die gebruikmaakt van gegevens uit Unity Catalog Volumes. Zie Een trainingsuitvoering maken met behulp van de Foundation Model Fine-tuning-API voor configuratiedetails.

from databricks.model_training import foundation_model as fm

model = 'meta-llama/Meta-Llama-3.1-8B-Instruct'
# UC Volume with JSONL formatted data
train_data_path = 'dbfs:/Volumes/main/mydirectory/ift/train.jsonl'
register_to = 'main.mydirectory'
run = fm.create(
  model=model,
  train_data_path=train_data_path,
  register_to=register_to,
)

Zie het instructie-finetuning: benoemde entiteitsherkenning demo-notitieblok voor een voorbeeld van instructie-finetuning dat je meeneemt door het voorbereiden van gegevens, de configuratie van de trainingsuitvoering en de implementatie.

Beperkingen

  • Grote datasets (10B+-tokens) worden niet ondersteund vanwege de beschikbaarheid van rekenkracht.
  • Voor verdere training zijn workloads beperkt tot 60-256 MB-bestanden. Bestanden die groter zijn dan 1 GB, kunnen langere verwerkingstijden veroorzaken.
  • Databricks streeft ernaar om de nieuwste geavanceerde modellen beschikbaar te maken voor aanpassing met behulp van Foundation Model Fine-tuning. Wanneer er nieuwe modellen beschikbaar komen, kan de toegang tot oudere modellen uit de API of gebruikersinterface worden verwijderd, worden oudere modellen mogelijk afgeschaft of ondersteunde modellen bijgewerkt. Zie onderhoudsbeleid voor Generatieve AI-modellen.
  • Als u Foundation Model Fine-tuning wilt gebruiken met een Databricks-werkruimte met Azure Private Link, moet de werkruimte zich in de eastus2 regio bevinden.
  • Als u Private Link hebt ingesteld voor uw opslag, raadt Databricks aan om Unity Catalog-tabellen te gebruiken.
  • Als u firewalls hebt ingeschakeld voor het Azure Data Lake Storage-account waarin uw gegevens worden opgeslagen in Unity Catalog, moet u het verkeer van de serverloze datavlakclusters van Databricks toestaan voor het gebruik van het verfijnen van Foundation Model. Neem contact op met uw Databricks-accountteam voor meer informatie en mogelijke aangepaste oplossingen.