Delen via


Zelfstudie: Insluit- en chatmodellen kiezen voor klassieke RAG in Azure AI Search

Een RAG-oplossing die is gebouwd op Azure AI Search, is afhankelijk van embeddermodellen voor vectorisatie en chatvoltooiingsmodellen voor het doorzoeken van gesprekken in uw gegevens.

Notitie

We raden nu agentisch ophalen aan voor RAG-werkstromen, maar klassieke RAG is eenvoudiger. Als deze voldoet aan uw toepassingsvereisten, is het nog steeds een goede keuze.

In deze zelfstudie hebt u:

  • Meer informatie over de Azure-modellen die worden ondersteund voor ingebouwde vectorisatie
  • Meer informatie over de Azure-modellen die worden ondersteund voor het voltooien van chats
  • Modellen implementeren en modelgegevens verzamelen voor uw code
  • Zoekprogrammatoegang tot Azure-modellen configureren
  • Meer informatie over aangepaste vaardigheden en vectorizers voor het koppelen van niet-Azure-modellen

Als u geen Azure-abonnement hebt, maakt u een gratis account voordat u begint.

Vereisten

  • De Azure-portal, die wordt gebruikt voor het implementeren van modellen en het configureren van roltoewijzingen in de Azure-cloud.

  • Een rol Eigenaar of Beheerder voor gebruikerstoegang in uw Azure-abonnement, die nodig is voor het maken van roltoewijzingen. In deze zelfstudie gebruikt u ten minste drie Azure-resources. De verbindingen worden geverifieerd met behulp van Microsoft Entra-id, waarvoor de mogelijkheid is vereist om rollen te maken. In dit artikel worden roltoewijzingen beschreven voor het maken van verbinding met modellen. Als u geen rollen kunt maken, kunt u in plaats daarvan API-sleutels gebruiken.

  • Een modelprovider, zoals Azure OpenAI, Azure Vision in Foundry Tools via een Microsoft Foundry-resource of de Foundry-modelcatalogus. Voor Azure Vision moet u ervoor zorgen dat uw Foundry-resource zich in dezelfde regio bevindt als Azure AI Search en de multimodale Api's van Azure Vision.

    In deze zelfstudie gebruiken we Azure OpenAI. Andere providers worden weergegeven zodat u uw opties voor geïntegreerde vectorisatie kent.

  • Azure AI Search, Basic-laag of hoger biedt een beheerde identiteit die wordt gebruikt in roltoewijzingen.

Modellen controleren die ingebouwde vectorisatie ondersteunen

Vectorized content verbetert de queryresultaten in een RAG-oplossing. Azure AI Search ondersteunt een ingebouwde vectorisatieactie in een indexeringspijplijn. Het biedt ook ondersteuning voor vectorisatie tijdens query's, waarbij tekst- of afbeeldingsinvoer wordt geconverteerd naar insluitingen voor een vectorzoekopdracht. In deze stap identificeert u een insluitmodel dat geschikt is voor uw inhoud en query's. Als u onbewerkte vectorgegevens en onbewerkte vectorquery's levert, of als uw RAG-oplossing geen vectorgegevens bevat, slaat u deze stap over.

Vectorquery's met een conversiestap voor tekst-naar-vector moeten hetzelfde insluitingsmodel gebruiken dat is gebruikt tijdens het indexeren. De zoekmachine genereert geen fout als u verschillende modellen gebruikt, maar u krijgt slechte resultaten.

Als u aan dezelfde modelvereiste wilt voldoen, kiest u voor het insluiten van modellen waarnaar kan worden verwezen via vaardigheden tijdens het indexeren en via vectorizers tijdens het uitvoeren van query's . De volgende tabel bevat de vaardigheids- en vectorizerparen. Als u wilt zien hoe de insluitingsmodellen worden gebruikt, gaat u verder met het maken van een indexeringspijplijn voor code die een vaardigheid voor insluiten en een overeenkomende vectorizer aanroept.

Azure AI Search biedt ondersteuning voor vaardigheden en vectorizers voor de volgende insluitingsmodellen in de Azure-cloud.

Klant Modellen insluiten Vaardigheid Vectorizer
Azure OpenAI tekst-insluiten-ada-002
tekst-insluiten-3-groot
tekst-insluiten-3-klein
AzureOpenAIEmbedding AzureOpenAIEmbedding
Azure Vision multimodale 4.0 1 AzureAIVision AzureAIVision
Gieterijmodelcatalogus Cohere-embed-v3-english 1
Cohere-embed-v3-meertalige 1
Cohere-embed-v4 1, 2
AML3 Foundrymodelcatalogus

1 Ondersteunt tekst- en afbeeldingsvectorisatie.

2 Op dit moment kunt u alleen programmatisch specificeren via de AML-vaardigheid of de Microsoft Foundry-modelcatalogusvectorizer, niet via de Azure Portal. U kunt echter de portal gebruiken om de vaardigheden of vectorizer na afloop te beheren.

3 Geïmplementeerde modellen in de modelcatalogus zijn toegankelijk via een AML-eindpunt. We gebruiken de bestaande AML-vaardigheid voor deze verbinding.

U kunt andere modellen gebruiken naast de modellen die hier worden vermeld. Zie Niet-Azure-modellen gebruiken voor insluitingen in dit artikel voor meer informatie.

Notitie

Invoer voor een insluitmodel is doorgaans gesegmenteerde gegevens. In een Azure AI Search RAG-patroon wordt segmentering verwerkt in de indexeerpijplijn, die wordt behandeld in een andere zelfstudie in deze reeks.

Modellen controleren die worden gebruikt voor generatieve AI tijdens het uitvoeren van query's

Azure AI Search heeft geen integratiecode voor chatmodellen, dus u moet een LLM kiezen waarmee u bekend bent en die voldoet aan uw vereisten. U kunt querycode wijzigen om verschillende modellen uit te proberen zonder een index opnieuw te hoeven bouwen of een deel van de indexeringspijplijn opnieuw uit te voeren. Bekijk Zoeken en genereer antwoorden op code die het chatmodel aanroept.

De volgende modellen worden vaak gebruikt voor een chatzoekervaring:

Klant Chatmodellen
Azure OpenAI
GPT-4,
GPT-4o,
GPT-4.1.
GPT-5

GPT-4- en GPT-5-modellen zijn geoptimaliseerd voor gebruik met invoer die is opgemaakt als een gesprek.

In deze zelfstudie gebruiken we GPT-4o.

Modellen implementeren en informatie verzamelen

Modellen moeten worden geïmplementeerd en toegankelijk zijn via een eindpunt. Zowel insluitingsgerelateerde vaardigheden als vectorizers hebben het aantal dimensies en de modelnaam nodig.

In deze reeks zelfstudies worden de volgende modellen en modelproviders gebruikt:

  • Tekst-insluiten-3-groot in Azure OpenAI voor insluitingen
  • GPT-4o in Azure OpenAI voor voltooiing van chat

U moet Cognitive Services OpenAI-inzender of hoger hebben om modellen te implementeren in Azure OpenAI.

  1. Meld u aan bij de Foundry-portal.

  2. Selecteer tekst-insluiten-3-groot en selecteer vervolgens Dit model gebruiken.

  3. Geef een implementatienaam op. We raden text-embedding-3-large aan.

  4. Accepteer de standaardwaarden.

  5. Selecteer Implementeren.

  6. Herhaal de vorige stappen voor gpt-4o.

  7. Noteer de modelnamen en het eindpunt. Als u vaardigheden en vectorizers insluit, wordt het volledige eindpunt intern samengesteld, zodat u alleen de resource-URI nodig hebt. Het eindpunt dat u bijvoorbeeld moet opgeven https://MY-FAKE-ACCOUNT.openai.azure.com/openai/deployments/text-embedding-3-large/embeddings?api-version=2024-06-01in vaardigheids- en vectorizerdefinities is https://MY-FAKE-ACCOUNT.openai.azure.com.

Zoekprogrammatoegang tot Azure-modellen configureren

Voor het uitvoeren van pijplijnen en query's gebruikt deze zelfstudie Microsoft Entra ID voor verificatie en rollen voor autorisatie.

Wijs uzelf en de identiteitsmachtigingen voor de zoekservice toe aan Azure OpenAI. De code voor deze zelfstudie wordt lokaal uitgevoerd. Aanvragen voor Azure OpenAI zijn afkomstig van uw systeem. Ook worden zoekresultaten van de zoekmachine doorgegeven aan Azure OpenAI. Om deze redenen hebben zowel u als de zoekservice machtigingen nodig voor Azure OpenAI.

  1. Meld u aan bij Azure Portal en zoek uw zoekservice.

  2. Configureer Azure AI Search om een door het systeem beheerde identiteit te gebruiken.

  3. Zoek uw Azure OpenAI-resource.

  4. Selecteer Toegangsbeheer (IAM) in het linkermenu.

  5. Selecteer Roltoewijzing toevoegen.

  6. Selecteer Cognitive Services OpenAI-gebruiker.

  7. Selecteer Beheerde identiteit en selecteer vervolgens Leden. Zoek de door het systeem beheerde identiteit voor uw zoekservice in de vervolgkeuzelijst.

  8. Selecteer vervolgens Gebruiker, groep of service-principal en selecteer vervolgens Leden. Zoek uw gebruikersaccount en selecteer het in de vervolgkeuzelijst.

  9. Zorg ervoor dat er twee beveiligingsprinciplen zijn toegewezen aan de rol.

  10. Selecteer Controleren en toewijzen om de roltoewijzingen te maken.

Wijs Cognitive Services OpenAI-gebruiker toe voor toegang tot modellen in Azure Vision. Wijs Azure AI Developer toe voor Foundry.

Niet-Azure-modellen gebruiken voor insluitingen

Het patroon voor het integreren van elk insluitmodel is het verpakken ervan in een aangepaste vaardigheid en aangepaste vectorizer. Deze sectie bevat koppelingen naar naslagartikelen. Zie de demo met aangepaste insluitingen voor een codevoorbeeld dat een niet-Azure-model aanroept.

Klant Modellen insluiten Vaardigheid Vectorizer
Alle Alle aangepaste vaardigheid aangepaste vectorizer

Volgende stap