Introductie
Voor het bouwen van effectieve generatieve AI-toepassingen moet u het juiste basismodel selecteren voor uw specifieke use-case. Met duizenden beschikbare modellen hebt u een gestructureerde benadering nodig om te ontdekken, vergelijken, implementeren en valideren dat een model aan uw vereisten voldoet.
Overweeg een scenario waarin u een ai-chatbot voor klantenondersteuning bouwt voor een retailbedrijf. U moet een taalmodel selecteren dat klantvragen kan begrijpen, nauwkeurige antwoorden kan geven en de juiste toon- en veiligheidsnormen kan handhaven. Maar hoe kiest u uit de enorme catalogus met beschikbare modellen? Hoe weet u of een model goed presteert voor uw specifieke behoeften? Hoe meet en verbetert u de prestaties ervan na de implementatie?
De Microsoft Foundry-portal biedt een uitgebreid platform voor deze volledige werkstroom. U kunt meer dan 1900 modellen verkennen van providers zoals Microsoft, Antropic, OpenAI, Meta en Hugging Face. U kunt modellen vergelijken met behulp van industriestandaard benchmarks voor kwaliteit, veiligheid, kosten en prestaties. Nadat u een model hebt geselecteerd, implementeert u het naar een eindpunt waar uw toepassing het kan gebruiken. Ten slotte evalueert u de prestaties van het model met behulp van zowel geautomatiseerde metrische gegevens als handmatige tests om ervoor te zorgen dat het voldoet aan uw kwaliteits- en veiligheidsvereisten.
In deze module verkent u hoe u de Microsoft Foundry-portal kunt gebruiken om modellen te selecteren, te implementeren en te evalueren in de modelcatalogus. U leert hoe u weloverwogen beslissingen kunt nemen over modelselectie, inzicht krijgt in verschillende implementatieopties en hoe u modelprestaties evalueert met behulp van verschillende evaluatiemethoden.
Aan het einde van deze module kunt u het volgende doen:
- Modellen verkennen en filteren in de modelcatalogus
- Modellen vergelijken met behulp van metrische benchmarkgegevens voor kwaliteit, veiligheid, kosten en prestaties
- Een model implementeren op een eindpunt en testen in de speeltuin
- Modelprestaties evalueren met behulp van handmatige en geautomatiseerde benaderingen
- Inzicht in verschillende metrische evaluatiegegevens en wanneer ze moeten worden gebruikt