Introductie

Voltooid

De ware kracht van LLM's (Large Language Models) ligt in hun toepassing. Of u NU LLM's wilt gebruiken om webpagina's te classificeren in categorieën of om een chatbot op uw gegevens te bouwen. Als u de beschikbare LLM's wilt benutten, moet u een toepassing maken die uw gegevensbronnen combineert met LLM's en de gewenste uitvoer genereert.

Als u LLM-toepassingen wilt ontwikkelen, testen, afstemmen en implementeren, kunt u een promptstroom gebruiken die toegankelijk is in de Azure Machine Learning-studio en de Azure AI-studio.

Diagram dat de promptflow laat zien als een functionaliteit van Azure Machine Learning en Azure AI.

Opmerking

In deze module ligt de focus op het begrijpen en verkennen van de promptflow. De inhoud is van toepassing op de prompt flow-ervaring in zowel Azure Machine Learning als Azure AI Studio.

Promptstroom neemt een prompt als invoer, wat in de context van LLM's verwijst naar de query die aan de LLM-toepassing wordt gegeven om een antwoord te genereren. Dit is de tekst of set instructies die aan de LLM-toepassing worden gegeven, waarin wordt gevraagd om uitvoer te genereren of een specifieke taak uit te voeren.

Als u bijvoorbeeld een model voor het genereren van tekst wilt gebruiken, kan de prompt een zin of een alinea zijn waarmee het generatieproces wordt gestart. In de context van een vraag-antwoordmodel kan de prompt een query zijn waarin informatie over een bepaald onderwerp wordt gevraagd. De effectiviteit van de prompt is vaak afhankelijk van hoe goed de intentie van de gebruiker en het gewenste resultaat wordt overgebracht.

Met een promptstroom kunt u stromen maken, die verwijzen naar de reeks acties of stappen die worden uitgevoerd om een specifieke taak of functionaliteit te bereiken. Een stroom vertegenwoordigt het algehele proces of de pijplijn die de interactie met de LLM bevat om een bepaalde use-case aan te pakken. De stroom omvat het hele traject van het ontvangen van invoer tot het genereren van uitvoer of het uitvoeren van een gewenste actie.