Geïntegreerde vectorisatie implementeren met behulp van modellen van Azure AI Studio
Belangrijk
Deze functie is beschikbaar als openbare preview onder aanvullende gebruiksvoorwaarden. De REST API 2024-05-01-Preview ondersteunt deze functie.
In dit artikel leert u hoe u toegang krijgt tot de insluitmodellen in de Azure AI Studio-modelcatalogus voor vectorconversies tijdens het indexeren en uitvoeren van query's in Azure AI Search.
De werkstroom bevat stappen voor modelimplementatie. De modelcatalogus bevat het insluiten van modellen van Azure OpenAI, Cohere, Facebook en OpenAI. Het implementeren van een model is factureerbaar volgens de factureringsstructuur van elke provider.
Nadat het model is geïmplementeerd, kunt u het gebruiken voor geïntegreerde vectorisatie tijdens het indexeren of met de AI Studio-vectorizer voor query's.
Een insluitmodel implementeren vanuit de Azure AI Studio-modelcatalogus
Open de azure AI Studio-modelcatalogus.
Pas een filter toe om alleen de insluitmodellen weer te geven. Selecteer Onder Deductietaken de optie Insluitingen:
Selecteer het model waarmee u uw inhoud wilt vectoriseren. Selecteer vervolgens Implementeren en kies een implementatieoptie.
Vul de gevraagde gegevens in. Selecteer of maak een nieuw AI-project en selecteer vervolgens Implementeren. De implementatiedetails variëren, afhankelijk van het model dat u selecteert.
Wacht totdat het model is geïmplementeerd door de inrichtingsstatus te bewaken. Het moet worden gewijzigd van 'Inrichten' in 'Bijwerken' in 'Geslaagd'. Mogelijk moet u om de paar minuten Vernieuwen selecteren om de statusupdate weer te geven.
Kopieer de velden URL, primaire sleutel en model-id en zet deze opzij voor later gebruik. U hebt deze waarden nodig voor de vectorizerdefinitie in een zoekindex en voor de vaardighedenset die de modeleindpunten aanroept tijdens het indexeren.
U kunt eventueel uw eindpunt wijzigen om tokenverificatie te gebruiken in plaats van sleutelverificatie. Als u tokenverificatie inschakelt, hoeft u alleen de URL en model-id te kopiëren en ook te noteren in welke regio het model wordt geïmplementeerd.
U kunt nu een zoekindex en indexeerfunctie configureren om het geïmplementeerde model te gebruiken.
Als u het model tijdens het indexeren wilt gebruiken, raadpleegt u de stappen om geïntegreerde vectorisatie in te schakelen. Zorg ervoor dat u de AML-vaardigheid (Azure Machine Learning) gebruikt en niet de vaardigheid AzureOpenAIEmbedding. In de volgende sectie wordt de configuratie van de vaardigheid beschreven.
Zie Een vectorizer configureren om het model te gebruiken als vectorizer tijdens het uitvoeren van query's. Zorg ervoor dat u de Vectorizer voor de Azure AI Studio-modelcatalogus gebruikt voor deze stap.
Voorbeeld van nettoladingen van AML-vaardigheden
Wanneer u insluitmodellen implementeert vanuit de Azure AI Studio-modelcatalogus , maakt u er verbinding mee met behulp van de AML-vaardigheid in Azure AI Search voor indexeringsworkloads.
In deze sectie worden de AML-vaardigheidsdefinities en indextoewijzingen beschreven. Het bevat voorbeeldpayloads die al zijn geconfigureerd om te werken met hun bijbehorende geïmplementeerde eindpunten. Lees voor meer technische informatie over hoe deze nettoladingen werken over de vaardigheidscontext en de invoeraantekeningstaal.
Deze nettolading van AML-vaardigheden werkt met de volgende modellen van AI Studio:
- OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
- OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336
Hierbij wordt ervan uitgegaan dat u uw inhoud opsplitst met behulp van de vaardigheid Tekst splitsen en dat de tekst die moet worden gevectoriseerd, zich in het /document/pages/*
pad bevindt. Als uw tekst afkomstig is van een ander pad, moet u alle verwijzingen naar het /document/pages/*
pad dienovereenkomstig bijwerken.
De URI en sleutel worden gegenereerd wanneer u het model vanuit de catalogus implementeert. Zie Hoe u grote taalmodellen implementeert met Azure AI Studio voor meer informatie over deze waarden.
{
"@odata.type": "#Microsoft.Skills.Custom.AmlSkill",
"context": "/document/pages/*",
"uri": "<YOUR_MODEL_URL_HERE>",
"key": "<YOUR_MODEL_KEY_HERE>",
"inputs": [
{
"name": "input_data",
"sourceContext": "/document/pages/*",
"inputs": [
{
"name": "columns",
"source": "=['image', 'text']"
},
{
"name": "index",
"source": "=[0]"
},
{
"name": "data",
"source": "=[['', $(/document/pages/*)]]"
}
]
}
],
"outputs": [
{
"name": "text_features"
}
]
}
Voorbeeld van ai Studio vectorizer-nettolading
De AI Studio Vectorizer, in tegenstelling tot de AML-vaardigheid, is afgestemd op alleen die ingesloten modellen die kunnen worden geïmplementeerd via de AI Studio-modelcatalogus. Het belangrijkste verschil is dat u zich geen zorgen hoeft te maken over de nettolading van aanvragen en antwoorden, maar u moet wel de modelName
, die overeenkomt met de 'model-id' die u hebt gekopieerd na het implementeren van het model in AI Studio.
Hier volgt een voorbeeld van de wijze waarop u de vectorizer in uw indexdefinitie configureert op basis van de eigenschappen die zijn gekopieerd uit AI Studio.
Voor Cohere-modellen moet u niet het /v1/embed
pad toevoegen aan het einde van uw URL, zoals u dat met de vaardigheid hebt gedaan.
"vectorizers": [
{
"name": "<YOUR_VECTORIZER_NAME_HERE>",
"kind": "aml",
"amlParameters": {
"uri": "<YOUR_URL_HERE>",
"key": "<YOUR_PRIMARY_KEY_HERE>",
"modelName": "<YOUR_MODEL_ID_HERE>"
},
}
]
Verbinding maken met behulp van tokenverificatie
Als u geen verificatie op basis van sleutels kunt gebruiken, kunt u in plaats daarvan de AML-vaardigheid en ai Studio vectorizer-verbinding voor tokenverificatie configureren via op rollen gebaseerd toegangsbeheer in Azure. De zoekservice moet een door het systeem of de gebruiker toegewezen beheerde identiteit hebben en de identiteit moet eigenaars- of inzendermachtigingen hebben voor uw AML-projectwerkruimte. Vervolgens kunt u het sleutelveld verwijderen uit de definitie van uw vaardigheid en vectorizer, waarbij u dit vervangt door het resourceId-veld. Als uw AML-project en zoekservice zich in verschillende regio's bevinden, geeft u ook het regioveld op.
"uri": "<YOUR_URL_HERE>",
"resourceId": "subscriptions/<YOUR_SUBSCRIPTION_ID_HERE>/resourceGroups/<YOUR_RESOURCE_GROUP_NAME_HERE>/providers/Microsoft.MachineLearningServices/workspaces/<YOUR_AML_WORKSPACE_NAME_HERE>/onlineendpoints/<YOUR_AML_ENDPOINT_NAME_HERE>",
"region": "westus", // Only need if AML project lives in different region from search service