Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
In deze reeks zelfstudies ziet u het klassieke patroon voor het bouwen van RAG-oplossingen in Azure AI Search. Klassieke RAG maakt gebruik van de oorspronkelijke querypijplijn, zonder LLM-integratie, met uitzondering van aan het einde van de pijplijn wanneer u de zoekresultaten doorgeeft aan een LLM voor antwoordformulering.
Opmerking
We raden nu agentisch ophalen aan voor RAG-werkstromen, maar klassieke RAG is eenvoudiger. Als deze voldoet aan uw toepassingsvereisten, is het nog steeds een goede keuze.
In deze reeks
In deze reeks leert u meer over de onderdelen, afhankelijkheden en optimalisaties voor het maximaliseren van relevantie en het minimaliseren van kosten.
Voorbeeldgegevens zijn een verzameling PDF-bestanden die zijn geüpload naar Azure Storage. De inhoud is afkomstig uit nasa's gratis e-book.
Voorbeeldcode is te vinden in dit Python-notebook, maar we raden u aan de artikelen in deze reeks te gebruiken voor context, inzichten en voor het verkennen van alternatieve benaderingen.
Oefeningen in deze reeks
Kies uw modellen voor insluiten en chatten
Een index ontwerpen voor gesprekszoekopdrachten
Een indexeringspijplijn ontwerpen die doorzoekbare inhoud laadt, segmenten, insluiten en opnemen
Doorzoekbare inhoud ophalen met query's en een chatmodel
Relevantie maximaliseren
Opslag en kosten minimaliseren
We hebben enkele aspecten van een RAG-patroon weggelaten om de complexiteit te verminderen:
Geen beheer van chatgeschiedenis en context. Chatgeschiedenis wordt doorgaans afzonderlijk van uw grondgegevens opgeslagen en beheerd. Dit betekent extra stappen en code. In deze zelfstudie wordt ervan uitgegaan dat atomische vragen en antwoorden van de LLM en de standaard-LLM-ervaring worden gebruikt.
Geen beveiliging van gebruikers per gebruiker boven de resultaten (waarnaar wordt verwezen als 'beveiligingsbeperkingen'). Voor meer informatie en bronnen begint u met beveiligingsbeperkingen en controleert u de koppelingen aan het einde van het artikel.
In deze reeks worden de basisprincipes van de ontwikkeling van RAG-oplossingen behandeld. Zodra u de basisprincipes begrijpt, gaat u verder met accelerators en andere codevoorbeelden die meer abstractie bieden of die anderszins beter geschikt zijn voor productieomgevingen en complexere workloads.
Waarom Azure AI Search voor RAG gebruiken?
Chatmodellen hebben te maken met beperkingen voor de hoeveelheid gegevens die ze op een aanvraag kunnen accepteren. U moet Azure AI Search gebruiken omdat de kwaliteit van inhoud die wordt doorgegeven aan een LLM een RAG-oplossing kan maken of breken.
Voor het leveren van de hoogste kwaliteit invoer aan een chatmodel biedt Azure AI Search een eersteklas zoekmachine met AI-integratie en uitgebreide afstemming van relevantie. De zoekmachine ondersteunt vector overeenkomsten zoeken (meerdere algoritmen), trefwoorden zoeken, fuzzy zoeken, georuimtelijke zoekopdrachten en filters. U kunt hybride queryaanvragen maken die al deze onderdelen bevatten en u kunt bepalen hoeveel elke query bijdraagt aan de totale aanvraag.