Lezen in het Engels

Share via


Aan de slag met het aanpassen van een groot taalmodel (LLM)

Er zijn verschillende technieken voor het aanpassen van een vooraf getraind taalmodel aan een specifieke taak of een specifiek domein. Dit zijn onder andere prompt engineering, RAG (Ophalen Augmented Generation) en fine-tuning. Deze drie technieken sluiten elkaar niet wederzijds uit, maar zijn complementaire methoden die in combinatie kunnen worden toegepast op een specifieke use case. In dit artikel verkennen we deze technieken, illustratieve gebruiksvoorbeelden, zaken die u moet overwegen en bieden we koppelingen naar resources voor meer informatie en om aan de slag te gaan.

Prompt-engineering

Definitie

Prompt engineering is een techniek die zowel kunst als wetenschap is, waarbij prompts voor generatieve AI-modellen worden ontworpen. Dit proces maakt gebruik van in-context learning (zero shot en few shot) en verbetert met iteratie de nauwkeurigheid en relevantie in reacties, waardoor de prestaties van het model worden geoptimaliseerd.

Illustratieve gebruiksvoorbeelden

Een marketingmanager bij een milieubewust bedrijf kan prompt engineering gebruiken om het model te helpen bij het genereren van beschrijvingen die meer zijn afgestemd op de toon en stijl van hun merk. Ze kunnen bijvoorbeeld een prompt zoals "Een productbeschrijving schrijven voor een nieuwe regel milieuvriendelijke reinigingsproducten die de nadruk leggen op kwaliteit, effectiviteit en het gebruik van milieuvriendelijke ingrediënten benadrukken" toevoegen aan de invoer. Dit helpt het model bij het genereren van beschrijvingen die zijn afgestemd op de waarden en berichten van hun merk.

Punten die u moet in acht nemen

  • Prompt engineering is het startpunt voor het genereren van gewenste uitvoer van generatieve AI-modellen.

  • Duidelijke instructies maken: instructies worden vaak gebruikt in prompts en begeleiden het gedrag van het model. Wees specifiek en laat zo weinig mogelijk ruimte voor interpretatie. Gebruik analogieën en beschrijvende taal om het model te helpen uw gewenste resultaat te begrijpen.

  • Experimenteren en herhalen: Prompt engineering is een kunst die experimenten en iteratie vereist. Oefen en krijg ervaring met het maken van prompts voor verschillende taken. Elk model kan zich anders gedragen, dus het is belangrijk om prompt engineeringtechnieken dienovereenkomstig aan te passen.

Aan de slag

RAG (Augmented Generation ophalen)

Definitie

RAG (Retrieval Augmented Generation) is een methode die externe gegevens integreert in een prompt voor het grote taalmodel om relevante antwoorden te genereren. Deze aanpak is met name nuttig bij het gebruik van een grote verzameling ongestructureerde tekst op basis van verschillende onderwerpen. Hiermee kunnen antwoorden worden geaard in de Knowledge Base (KB) van de organisatie, waardoor een meer op maat gemaakte en nauwkeurige reactie wordt geboden.

RAG is ook voordelig bij het beantwoorden van vragen op basis van de persoonlijke gegevens van een organisatie of wanneer de openbare gegevens waarop het model is getraind, mogelijk verouderd zijn geworden. Dit zorgt ervoor dat de antwoorden altijd up-to-date en relevant zijn, ongeacht de wijzigingen in het gegevenslandschap.

Illustratieve use case

Een hr-afdeling van het bedrijf is op zoek naar een intelligente assistent die antwoord geeft op specifieke vragen over de ziekteverzekering van werknemers, zoals 'zijn brillen gedekt?' RAG wordt gebruikt voor het opnemen van de uitgebreide en talrijke documenten die zijn gekoppeld aan verzekeringsplanbeleid om het beantwoorden van deze specifieke soorten vragen mogelijk te maken.

Punten die u moet in acht nemen

  • RAG helpt AI-uitvoer te gronden in echte gegevens en vermindert de kans op fabricatie.

  • RAG is handig wanneer er vragen moeten worden beantwoord op basis van persoonlijke eigendomsgegevens.

  • RAG is handig als u vragen wilt beantwoorden die recent zijn (bijvoorbeeld vóór de afsluitdatum van het moment waarop de modelversie voor het laatst is getraind).

Aan de slag

Afstemmen

Definitie

Het is een iteratief proces dat een bestaand groot taalmodel aanpast aan een opgegeven trainingsset om de prestaties te verbeteren, nieuwe vaardigheden te leren of latentie te verminderen. Deze benadering wordt gebruikt wanneer het model specifieke onderwerpen moet leren en generaliseren, met name wanneer deze onderwerpen over het algemeen beperkt zijn.

Voor het afstemmen is het gebruik van trainingsgegevens van hoge kwaliteit vereist, in een speciaal op voorbeeld gebaseerde indeling, om het nieuwe aangepaste Large Language Model te maken. Door te focussen op specifieke onderwerpen, kan het model nauwkeurigere en relevante antwoorden bieden binnen deze aandachtsgebieden.

Illustratieve use case

Een IT-afdeling heeft GPT-4o gebruikt om query's in natuurlijke taal te converteren naar SQL, maar ze hebben vastgesteld dat de antwoorden niet altijd betrouwbaar zijn geaard in hun schema en dat de kosten te hoog zijn.

Ze verfijnen GPT-4o mini met honderden aanvragen en corrigeren antwoorden en produceren een model dat beter presteert dan het basismodel met lagere kosten en latentie.

Punten die u moet in acht nemen

  • Fine-tuning is een geavanceerde mogelijkheid; het verbetert LLM met kennis en/of domeinspecifieke kennis na de cutoff-date. Begin met het evalueren van de basislijnprestaties van een standaardmodel op basis van hun vereisten voordat u deze optie overweegt.

  • Het hebben van een basislijn voor prestaties zonder af te stemmen is essentieel om te weten of het afstemmen van het model de prestaties heeft verbeterd. Door het afstemmen van slechte gegevens wordt het basismodel erger, maar zonder basislijn is het moeilijk om regressies te detecteren.

  • Goede gevallen voor het afstemmen zijn het sturen van het model naar uitvoerinhoud in een specifieke en aangepaste stijl, toon of indeling, of taken waarbij de informatie die nodig is om het model te sturen te lang of complex is om in het promptvenster te passen.

  • Kosten voor afstemming:

    • Fijnafstemming kan kosten in twee dimensies verlagen: (1) door minder tokens te gebruiken, afhankelijk van de taak (2) met behulp van een kleiner model (bijvoorbeeld GPT-4o mini kan mogelijk worden verfijnd om dezelfde kwaliteit van GPT-4o voor een bepaalde taak te bereiken).

    • Fine-tuning heeft vooraf kosten voor het trainen van het model. En extra uurkosten voor het hosten van het aangepaste model zodra het is geïmplementeerd.

Aan de slag