Azure AI-modeldeductie (preview)
Modeldeductie-API voor modellen die zijn geïmplementeerd in Azure AI en Azure ML met serverloze en zelf-hostende eindpunten.
Deze connector is beschikbaar in de volgende producten en regio's:
| Dienst | klasse | Regio's |
|---|---|---|
| Logic-apps | Standard | Alle Logic Apps-regio's , met uitzondering van het volgende: - Azure Government-regio's - Azure China-regio's - Us Department of Defense (DoD) |
| contact opnemen met | |
|---|---|
| Naam | Microsoft |
| URL | https://support.microsoft.com |
| Connectormetagegevens | |
|---|---|
| Publisher | Microsoft Copilot Studio |
| Privacybeleid | https://privacy.microsoft.com/privacystatement |
| Website | https://learn.microsoft.com/en-us/azure/ai-studio/reference/reference-model-inference-api |
| Categorieën | AI |
Met de Azure AI-deductieconnector kunt u verbinding maken met uw eigen model vanuit Azure AI Studio
Vereiste voorwaarden
- Een model dat is geïmplementeerd in Azure AI Studio
Uw referenties ophalen
Als u uw API-aanvragen wilt verifiëren, hebt u het eindpunt en de API-sleutel van uw model nodig.
Navigeer naar uw resource in Azure open ai Studio -> implementaties. Onder Eindpunt is het eindpunt de doel-URI en de sleutel bevindt zich onder Sleutel.
Ondersteunde bewerkingen
De Azure AI-deductieconnector ondersteunt de volgende bewerkingen:
- GetModelInfo : retourneert de informatie over het model dat is geïmplementeerd onder het eindpunt
Vereiste parameters:
* `api-version` - The version of the Inference API
- GetChatCompletions - Hiermee maakt u een modelantwoord voor het opgegeven chatgesprek
Vereiste parameters:
* `api-version` - The version of the Inference API
* `messages` - The chat conversation to be completed
* `model` - The Deployment name of the model, Required only for openai models
Standaardwaarden van optionele parameters:
* `frequency_penalty` - 0
* `presence_penalty` - 0
* `temperature` - 0.7
* `top_p` - 1
Een verbinding maken
De connector ondersteunt de volgende verificatietypen:
| standaard | Parameters voor het maken van verbinding. | Alle regio's | Niet deelbaar |
Verstek
Van toepassing: Alle regio's
Parameters voor het maken van verbinding.
Dit is geen deelbare verbinding. Als de power-app wordt gedeeld met een andere gebruiker, wordt een andere gebruiker gevraagd om expliciet een nieuwe verbinding te maken.
| Naam | Typ | Beschrijving | Verplicht |
|---|---|---|---|
| Azure-modeleindpunt-URL | string | Voer de URL in van het geïmplementeerde modeleindpunt. Bijvoorbeeld: https://resource.openai.azure.com | Klopt |
| API-sleutel | beveiligde string | Autorisatie voor deze API | Klopt |
Beperkingslimieten
| Name | Aanroepen | Verlengingsperiode |
|---|---|---|
| API-aanroepen per verbinding | 100 | 60 seconden |
Acties
| Hiermee maakt u een modelantwoord voor het opgegeven chatgesprek |
Hiermee maakt u een modelantwoord voor het opgegeven chatgesprek. |
| Retourneert de informatie over het model dat is geïmplementeerd onder het eindpunt |
Retourneert informatie over het AI-model. De methode maakt een REST API-aanroep naar de |
Hiermee maakt u een modelantwoord voor het opgegeven chatgesprek
Hiermee maakt u een modelantwoord voor het opgegeven chatgesprek.
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
inhoud
|
content | True | string |
De inhoud van het systeembericht. |
|
rol
|
role | True | string |
De rol van de auteur van berichten, in dit geval |
|
naam
|
name | string |
Een optionele naam voor de deelnemer. Biedt de modelinformatie om onderscheid te maken tussen deelnemers van dezelfde rol. |
|
|
frequency_penalty (frequentiebestraffing)
|
frequency_penalty | float |
Een waarde die van invloed is op de kans dat gegenereerde tokens worden weergegeven op basis van hun cumulatieve frequentie in gegenereerde tekst. Positieve waarden zorgen ervoor dat tokens minder waarschijnlijk worden weergegeven als hun frequentie toeneemt en de kans vermindert dat het model dezelfde exacte instructies herhaalt. Ondersteund bereik is [-2, 2]. |
|
|
beek
|
stream | boolean |
Een waarde die aangeeft of chatvoltooiingen moeten worden gestreamd voor deze aanvraag. |
|
|
aanwezigheid_boete
|
presence_penalty | float |
Een waarde die de kans beïnvloedt dat gegenereerde tokens worden weergegeven op basis van hun bestaande aanwezigheid in gegenereerde tekst. Met positieve waarden worden tokens minder waarschijnlijk weergegeven wanneer ze al bestaan en vergroten de kans dat het model nieuwe onderwerpen uitvoert. Ondersteund bereik is [-2, 2]. |
|
|
temperatuur
|
temperature | float |
De steekproeftemperatuur die moet worden gebruikt om de schijnbare creativiteit van gegenereerde voltooiingen te regelen. Hogere waarden zorgen ervoor dat uitvoer willekeuriger wordt, terwijl lagere waarden resultaten meer gericht en deterministisch maken. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1]. |
|
|
top_p
|
top_p | float |
Een alternatief voor steekproeven met temperatuur genaamd kernsampling. Deze waarde zorgt ervoor dat het model rekening houdt met de resultaten van tokens met de opgegeven waarschijnlijkheidsmassa. Een voorbeeld: een waarde van 0,15 zorgt ervoor dat alleen de tokens die de top 15% van waarschijnlijkheidsmassa bevatten, worden overwogen. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1]. |
|
|
maximaal_aantal_tokens
|
max_tokens | integer |
Het maximum aantal tokens dat moet worden gegenereerd. |
|
|
soort
|
type | string |
Moet een van |
|
|
stop
|
stop | array of string |
Een verzameling tekstreeksen die het genereren van voltooiingen beëindigen. |
|
|
soort
|
type | True | string |
Het type hulpprogramma. Op dit moment wordt alleen |
|
beschrijving
|
description | string |
Een beschrijving van wat de functie doet. Het model gebruikt deze beschrijving bij het selecteren van de functie en het interpreteren van de parameters. |
|
|
naam
|
name | True | string |
De naam van de functie die moet worden aangeroepen. |
|
parameters
|
parameters | object |
De parameters die door de functies worden geaccepteerd, worden beschreven als een JSON-schemaobject. |
|
|
seed
|
seed | integer |
Indien opgegeven, doet het systeem er alles aan om een steekproef te nemen op een deterministische wijze, zodat herhaalde aanvragen met dezelfde seed en parameters hetzelfde resultaat moeten retourneren. Determinisme is niet gegarandeerd. |
|
|
model
|
model | string |
Id van het specifieke AI-model dat moet worden gebruikt, als er meer dan één model beschikbaar is op het eindpunt. |
|
|
De versie van de API in de indeling 'JJJJ-MM-DD' of 'JJJJ-MM-DD-preview'.
|
api-version | True | string |
De versie van de API in de indeling 'JJJJ-MM-DD' of 'JJJJ-MM-DD-preview'. |
|
Hiermee bepaalt u wat er gebeurt als een onbekende parameter wordt doorgegeven.
|
extra-parameters | string |
Hiermee bepaalt u wat er gebeurt als extra parameters, die niet zijn gedefinieerd door de REST API, worden doorgegeven in de nettolading van de JSON-aanvraag. Hiermee stelt u de HTTP-aanvraagheader |
|
|
De naam van de implementatie waarnaar u de aanvraag wilt routeren.
|
azureml-model-deployment | string |
De naam van de implementatie waarnaar u de aanvraag wilt routeren. Ondersteund voor eindpunten die ondersteuning bieden voor meerdere implementaties. |
Retouren
Vertegenwoordigt een antwoord op voltooiing van een chat dat wordt geretourneerd door het model, op basis van de opgegeven invoer.
Retourneert de informatie over het model dat is geïmplementeerd onder het eindpunt
Retourneert informatie over het AI-model. De methode maakt een REST API-aanroep naar de /info route op het opgegeven eindpunt. Deze methode werkt alleen wanneer u een serverloze API of managed compute-eindpunt gebruikt. Het werkt niet voor gitHub Models-eindpunt of Azure OpenAI-eindpunt.
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
De versie van de API in de indeling 'JJJJ-MM-DD' of 'JJJJ-MM-DD-preview'.
|
api-version | True | string |
De versie van de API in de indeling 'JJJJ-MM-DD' of 'JJJJ-MM-DD-preview'. |
|
De naam van de implementatie waarnaar u de aanvraag wilt routeren.
|
azureml-model-deployment | string |
De naam van de implementatie waarnaar u de aanvraag wilt routeren. Ondersteund voor eindpunten die ondersteuning bieden voor meerdere implementaties. |
Retouren
Vertegenwoordigt enkele basisinformatie over het AI-model.
- Body
- ModelInfo
Definities
Modelinformatie
Vertegenwoordigt enkele basisinformatie over het AI-model.
| Name | Pad | Type | Description |
|---|---|---|---|
|
model_name
|
model_name | string |
De naam van het AI-model. |
|
|
model_type | string |
Het type AI-model. Een unieke id voor het profiel. |
|
model_provider_name
|
model_provider_name | string |
De naam van de modelprovider. |
|
capabilities
|
capabilities |
ChatCompletionMessageToolCalls
De hulpprogramma-aanroepen die door het model worden gegenereerd, zoals functie-aanroepen.
| Name | Pad | Type | Description |
|---|---|---|---|
|
Artikelen
|
ChatCompletionMessageToolCall |
ChatCompletionMessageToolCall
| Name | Pad | Type | Description |
|---|---|---|---|
|
identiteitskaart
|
id | string |
De ID van de aanroep van het hulpprogramma. |
|
soort
|
type | string |
Het type hulpprogramma. Op dit moment wordt alleen |
|
naam
|
function.name | string |
De naam van de functie die moet worden aangeroepen. |
|
Argumenten
|
function.arguments | string |
De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en parameters die niet door uw functieschema zijn gedefinieerd, halluvalideert. Valideer de argumenten in uw code voordat u de functie aanroept. |
ChatCompletionResponseMessage
Een chatvoltooiingsbericht gegenereerd door het model.
| Name | Pad | Type | Description |
|---|---|---|---|
|
inhoud
|
content | string |
De inhoud van het bericht. |
|
tool_calls
|
tool_calls | ChatCompletionMessageToolCalls |
De hulpprogramma-aanroepen die door het model worden gegenereerd, zoals functie-aanroepen. |
|
rol
|
role | string |
De rol van de auteur van dit bericht. |
CreateChatCompletionResponse
Vertegenwoordigt een antwoord op voltooiing van een chat dat wordt geretourneerd door het model, op basis van de opgegeven invoer.
| Name | Pad | Type | Description |
|---|---|---|---|
|
identiteitskaart
|
id | string |
Een unieke id die aan deze chat is gekoppeld, reageert. |
|
choices
|
choices | array of object |
Een lijst met opties voor chatvoltooiing. Kan meer dan één zijn als |
|
|
choices.finish_reason | string |
De reden waarom het model geen tokens meer genereert. Dit is |
|
content_filter_result
|
choices.content_filter_result | ||
|
index
|
choices.index | integer |
De geordende index die is gekoppeld aan deze chat-voltooiingskeuze. |
|
message
|
choices.message | ChatCompletionResponseMessage |
Een chatvoltooiingsbericht gegenereerd door het model. |
|
created
|
created | integer |
De eerste tijdstempel die is gekoppeld aan de generatieactiviteit voor dit voltooiingsantwoord, weergegeven als seconden sinds het begin van het Unix-epoch van 00:00 op 1 januari 1970. |
|
model
|
model | string |
Het model dat wordt gebruikt voor het voltooien van de chat. |
|
object
|
object | string |
Het objecttype, dat altijd |
|
usage
|
usage | CompletionUsage |
Weergave van het aantal tokens dat is verwerkt voor een voltooiingsaanvraag. Aantallen houden rekening met alle tokens voor prompts, keuzes, keuze-alternatieven, best_of generaties en andere consumenten. |
CompletionUsage
Weergave van het aantal tokens dat is verwerkt voor een voltooiingsaanvraag. Aantallen houden rekening met alle tokens voor prompts, keuzes, keuze-alternatieven, best_of generaties en andere consumenten.
| Name | Pad | Type | Description |
|---|---|---|---|
|
completion_tokens
|
completion_tokens | integer |
Het aantal tokens dat wordt gegenereerd voor alle voltooiingsemissies. |
|
prompt_tokens
|
prompt_tokens | integer |
Het aantal tokens in de opgegeven prompts voor de voltooiingsaanvraag. |
|
total_tokens
|
total_tokens | integer |
Het totale aantal tokens dat is verwerkt voor de voltooiingsaanvraag en het antwoord. |