Training
Module
Rag (Retrieval Augmented Generation) implementeren met Azure Databricks - Training
Rag (Retrieval Augmented Generation) implementeren met Azure Databricks
Deze browser wordt niet meer ondersteund.
Upgrade naar Microsoft Edge om te profiteren van de nieuwste functies, beveiligingsupdates en technische ondersteuning.
In dit artikel wordt beschreven hoe met het ophalen van uitgebreide generatie LLM's uw gegevensbronnen als kennis kunnen worden behandeld zonder dat ze hoeven te trainen.
LLM's hebben uitgebreide knowledge bases via training. Voor de meeste scenario's kunt u een LLM selecteren die is ontworpen voor uw vereisten, maar deze LLM's vereisen nog steeds aanvullende training om inzicht te krijgen in uw specifieke gegevens. Met het ophalen van uitgebreide generatie kunt u uw gegevens beschikbaar maken voor LLM's zonder deze eerst te trainen.
Als u het ophalen van uitgebreide generatie wilt uitvoeren, maakt u insluitingen voor uw gegevens, samen met veelgestelde vragen over deze gegevens. U kunt dit direct doen of u kunt de insluitingen maken en opslaan met behulp van een vectordatabaseoplossing.
Wanneer een gebruiker een vraag stelt, gebruikt de LLM uw insluitingen om de vraag van de gebruiker te vergelijken met uw gegevens en de meest relevante context te vinden. Deze context en de vraag van de gebruiker gaan vervolgens in een prompt naar de LLM en de LLM geeft een antwoord op basis van uw gegevens.
Als u RAG wilt uitvoeren, moet u elke gegevensbron verwerken die u wilt gebruiken voor het ophalen. Het basisproces is als volgt:
.NET-feedback
.NET is een open source project. Selecteer een koppeling om feedback te geven:
Training
Module
Rag (Retrieval Augmented Generation) implementeren met Azure Databricks - Training
Rag (Retrieval Augmented Generation) implementeren met Azure Databricks