gebeurtenis
17 mrt, 21 - 21 mrt, 10
Neem deel aan de meetup-serie om schaalbare AI-oplossingen te bouwen op basis van praktijkgebruiksvoorbeelden met collega-ontwikkelaars en experts.
Nu registrerenDeze browser wordt niet meer ondersteund.
Upgrade naar Microsoft Edge om te profiteren van de nieuwste functies, beveiligingsupdates en technische ondersteuning.
Dit artikel bevat informatie over de REST API-eindpunten voor deductie voor Azure OpenAI.
Het beheren en communiceren met Azure OpenAI-modellen en -resources is verdeeld over drie primaire API-oppervlakken:
Elke API-surface/-specificatie bevat een andere set Azure OpenAI-mogelijkheden. Elke API heeft een eigen unieke set preview-versies en stabiele/algemeen beschikbare API-releases. Preview-versies volgen momenteel meestal een maandelijkse frequentie.
API | Nieuwste preview-versie | Nieuwste GA-release | Specificaties | Beschrijving |
---|---|---|---|---|
Besturingsvlak | 2024-06-01-preview |
2024-10-01 |
Specificatiebestanden | Azure OpenAI deelt een gemeenschappelijk besturingsvlak met alle andere Azure AI Services. De besturingsvlak-API wordt gebruikt voor zaken als het maken van Azure OpenAI-resources, modelimplementatie en andere resourcebeheertaken op een hoger niveau. Het besturingsvlak bepaalt ook wat er mogelijk is met mogelijkheden zoals Azure Resource Manager, Bicep, Terraform en Azure CLI. |
Gegevensvlak - ontwerpen | 2025-02-01-preview |
2024-10-21 |
Specificatiebestanden | De api voor het ontwerpen van gegevensvlakken bepaalt het afstemmen, uploaden van bestanden, opnametaken, batch- en bepaalde query's op modelniveau |
Gegevensvlak - deductie | 2025-02-01-preview |
2024-10-21 |
Specificatiebestanden | De gegevensvlakdeductie-API biedt de deductiemogelijkheden/eindpunten voor functies zoals voltooiingen, chatvoltooiingen, insluitingen, spraak/fluisteren, op uw gegevens, Dall-e, assistenten, enzovoort. |
Azure OpenAI biedt twee methoden voor verificatie. U kunt API-sleutels of Microsoft Entra-id gebruiken.
API-sleutelverificatie: voor dit type verificatie moeten alle API-aanvragen de API-sleutel in de api-key
HTTP-header bevatten. De quickstart bevat richtlijnen voor het maken van aanroepen met dit type verificatie.
Microsoft Entra ID-verificatie: u kunt een API-aanroep verifiëren met behulp van een Microsoft Entra-token. Verificatietokens worden als header Authorization
opgenomen in een aanvraag. Het opgegeven token moet worden voorafgegaan door Bearer
bijvoorbeeld Bearer YOUR_AUTH_TOKEN
. U kunt onze handleiding voor verificatie met Microsoft Entra ID lezen.
De service-API's hebben versiebeheer met behulp van de api-version
queryparameter. Alle versies volgen de datumstructuur JJJJ-MM-DD. Voorbeeld:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
De rest van het artikel bevat informatie over de nieuwste GA-release van de Azure OpenAI-gegevensvlakdeductiespecificatie, 2024-10-21
.
Als u op zoek bent naar documentatie over de nieuwste preview-API-release, raadpleegt u de nieuwste preview-API voor deductie-API voor gegevensvlakken
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Hiermee maakt u een voltooiing voor de opgegeven prompt, parameters en het gekozen model.
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het model dat is geïmplementeerd. |
api-versie | query | Ja | tekenreeks | API-versie |
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Inhoudstype: toepassing/json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
vraag | tekenreeks of matrix | De prompt(s) voor het genereren van voltooiingen voor, gecodeerd als een tekenreeks, matrix van tekenreeksen, matrix van tokens of matrix van tokenmatrices. <|endoftext|> is het documentscheidingsteken dat het model tijdens de training ziet, dus als er geen prompt is opgegeven, wordt het model gegenereerd alsof het vanaf het begin van een nieuw document wordt gegenereerd. |
Ja | |
best_of | geheel getal | Genereert best_of voltooiingen aan de serverzijde en retourneert de 'beste' (de waarde met de hoogste logboekkans per token). Resultaten kunnen niet worden gestreamd.Wanneer gebruikt met n , best_of bepaalt u het aantal voltooiingen van de kandidaat en n geeft u op hoeveel te retourneren â€" best_of groter moet zijn dan n .Opmerking: Omdat deze parameter veel voltooiingen genereert, kan deze snel uw tokenquotum gebruiken. Gebruik zorgvuldig en zorg ervoor dat u redelijke instellingen max_tokens voor en stop . |
Nee | 1 |
echo | boolean | Echo terug van de prompt naast de voltooiing |
Nee | Onwaar |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een JSON-object waarmee tokens (opgegeven door de token-id in de GPT-tokenizer) worden toegewezen aan een bijbehorende bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. U kunt bijvoorbeeld doorgeven {"50256": -100} om te voorkomen dat het <token |endoftext|> wordt gegenereerd. |
Nee | Geen |
logprobs | geheel getal | Neem de logboekkans op de logprobs meest waarschijnlijke uitvoertokens op, evenals de gekozen tokens. Als dit bijvoorbeeld logprobs 5 is, retourneert de API een lijst met de vijf meest waarschijnlijke tokens. De API retourneert altijd het logprob voorbeeldtoken, dus er kunnen maximaal logprobs+1 elementen in het antwoord zijn.De maximumwaarde voor logprobs is 5. |
Nee | Geen |
max_tokens | geheel getal | Het maximum aantal tokens dat kan worden gegenereerd in de voltooiing. Het tokenaantal van uw prompt plus max_tokens kan de contextlengte van het model niet overschrijden. |
Nee | 16 |
n | geheel getal | Hoeveel voltooiingen moeten worden gegenereerd voor elke prompt. Opmerking: Omdat deze parameter veel voltooiingen genereert, kan deze snel uw tokenquotum gebruiken. Gebruik zorgvuldig en zorg ervoor dat u redelijke instellingen max_tokens voor en stop . |
Nee | 1 |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
Nee | 0 |
seed | geheel getal | Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren.Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren. |
Nee | |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat de stopvolgorde niet. |
Nee | |
stroom | boolean | Of gedeeltelijke voortgang moet worden gestreamd. Als deze optie is ingesteld, worden tokens verzonden als gebeurtenissen die alleen door de server worden verzonden zodra ze beschikbaar komen, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
achtervoegsel | tekenreeks | Het achtervoegsel dat na een voltooiing van ingevoegde tekst komt. Deze parameter wordt alleen ondersteund voor gpt-3.5-turbo-instruct . |
Nee | Geen |
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. |
Nee |
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | createCompletionResponse | Vertegenwoordigt een voltooiingsantwoord van de API. Opmerking: zowel de gestreamde als niet-gestreamde antwoordobjecten delen dezelfde vorm (in tegenstelling tot het chateindpunt). |
Statuscode: standaard
Beschrijving: Service niet beschikbaar
Content-Type | Type | Beschrijving |
---|---|---|
application/json | errorResponse |
Hiermee maakt u een voltooiing voor de opgegeven prompt, parameters en het gekozen model.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Haal een vectorweergave op van een bepaalde invoer die eenvoudig kan worden gebruikt door machine learning-modellen en -algoritmen.
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | |
api-versie | query | Ja | tekenreeks | API-versie |
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Inhoudstype: toepassing/json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
input | tekenreeks of matrix | Invoertekst voor insluiten, gecodeerd als een tekenreeks of matrix met tokens. Als u meerdere invoer in één aanvraag wilt insluiten, geeft u een matrix van tekenreeksen of matrix met tokenmatrices door. De invoer mag niet groter zijn dan de maximuminvoertokens voor het model (8.192 tokens voor text-embedding-ada-002 ), mag geen lege tekenreeks zijn en een matrix moet 2048 dimensies of minder zijn. |
Ja | |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. | Nee | |
input_type | tekenreeks | invoertype van zoekactie voor insluiten om te gebruiken | Nee | |
encoding_format | tekenreeks | De indeling waarin de insluitingen moeten worden geretourneerd. Kan een van float beide zijn of base64 . Standaard ingesteld op float . |
Nee | |
dimensions | geheel getal | Het aantal dimensies dat de resulterende uitvoer-insluitingen moeten hebben. Alleen ondersteund in text-embedding-3 en latere modellen. |
Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
object | tekenreeks | Ja | ||
model | tekenreeks | Ja | ||
gegevens | matrix | Ja | ||
gebruikt | object | Ja |
Name | Type | Description | Standaard |
---|---|---|---|
prompt_tokens | geheel getal |
Name | Type | Description | Standaard |
---|---|---|---|
total_tokens | geheel getal |
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | object |
Retourneer de insluitingen voor een bepaalde prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Antwoorden: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Hiermee maakt u een voltooiing voor het chatbericht
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het model dat is geïmplementeerd. |
api-versie | query | Ja | tekenreeks | API-versie |
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Inhoudstype: toepassing/json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
stroom | boolean | Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. |
Nee | |
max_tokens | geheel getal | Het maximum aantal tokens dat kan worden gegenereerd in de voltooiing van de chat. De totale lengte van invoertokens en gegenereerde tokens wordt beperkt door de contextlengte van het model. |
Nee | |
max_completion_tokens | geheel getal | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | Nee | |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
Nee | 0 |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een JSON-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. |
Nee | Geen |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. |
Nee | |
messages | matrix | Een lijst met berichten die tot nu toe bestaan uit het gesprek. | Ja | |
data_sources | matrix | De configuratievermeldingen voor Azure OpenAI-chatextensies die deze gebruiken. Deze aanvullende specificatie is alleen compatibel met Azure OpenAI. |
Nee | |
logprobs | boolean | Of u nu logboekkansen van de uitvoertokens wilt retourneren of niet. Indien waar, retourneert u de logboekkans van elk uitvoertoken dat wordt geretourneerd in de van content message . |
Nee | Onwaar |
top_logprobs | geheel getal | Een geheel getal tussen 0 en 20 dat het aantal waarschijnlijke tokens aangeeft dat op elke tokenpositie moet worden geretourneerd, elk met een gekoppelde logboekkans. logprobs moet worden ingesteld op true of deze parameter wordt gebruikt. |
Nee | |
n | geheel getal | Hoeveel opties voor het voltooien van chats voor elk invoerbericht moeten worden gegenereerd. Houd er rekening mee dat er kosten in rekening worden gebracht op basis van het aantal gegenereerde tokens voor alle opties. 1 Houd n rekening met het minimaliseren van de kosten. |
Nee | 1 |
parallel_tool_calls | ParallelToolCalls | Hiermee wordt aangegeven of parallelle functie aanroepen moet worden ingeschakeld tijdens het gebruik van het hulpprogramma. | Nee | Waar |
response_format | ResponseFormatText of ResponseFormatJsonObject of ResponseFormatJsonSchema | Een object dat de indeling aangeeft die het model moet uitvoeren. Compatibel met GPT-4o, GPT-4o mini, GPT-4 Turbo en alle GPT-3.5 Turbo modellen nieuwer dan gpt-3.5-turbo-1106 .Instelling voor { "type": "json_schema", "json_schema": {...} } het inschakelen van gestructureerde uitvoer die garandeert dat het model overeenkomt met het opgegeven JSON-schema.Instelling voor { "type": "json_object" } het inschakelen van de JSON-modus, wat garandeert dat het bericht dat het model genereert geldige JSON is.Belangrijk: wanneer u de JSON-modus gebruikt, moet u het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een onverwerkte witruimtestroom genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopende en schijnbaar 'vastgelopen' aanvraag. Houd er ook rekening mee dat de inhoud van het bericht gedeeltelijk kan worden afgekapt als finish_reason="length" , wat aangeeft dat de generatie is overschreden max_tokens of het gesprek de maximale contextlengte heeft overschreden. |
Nee | |
seed | geheel getal | Deze functie bevindt zich in de bètaversie. Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren.Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren. |
Nee | |
tools | matrix | Een lijst met hulpprogramma's die het model kan aanroepen. Op dit moment worden alleen functies ondersteund als hulpprogramma. Gebruik dit om een lijst met functies op te geven waarvoor het model JSON-invoer kan genereren. Maximaal 128 functies worden ondersteund. |
Nee | |
tool_choice | chatCompletionToolChoiceOption | Hiermee bepaalt u welke (indien van toepassing) hulpprogramma's worden aangeroepen door het model. none betekent dat het model geen hulpprogramma aanroept en in plaats daarvan een bericht genereert. auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer hulpprogramma's. required betekent dat het model een of meer hulpprogramma's moet aanroepen. Het opgeven van een bepaald hulpprogramma via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpprogramma aan te roepen. none is de standaardinstelling wanneer er geen hulpprogramma's aanwezig zijn. auto is de standaardinstelling als er hulpprogramma's aanwezig zijn. |
Nee | |
function_call | tekenreeks of chatCompletionFunctionCallOption | Afgeschaft ten gunste van tool_choice .Hiermee bepaalt u welke functie (indien aanwezig) wordt aangeroepen door het model. none betekent dat het model geen functie aanroept en in plaats daarvan een bericht genereert.auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een functie.Als u een bepaalde functie opgeeft via dwingt {"name": "my_function"} u het model om die functie aan te roepen.none is de standaardinstelling wanneer er geen functies aanwezig zijn. auto is de standaardinstelling als er functies aanwezig zijn. |
Nee | |
functions | matrix | Afgeschaft ten gunste van tools .Een lijst met functies waarvoor het model JSON-invoer kan genereren. |
Nee |
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | createChatCompletionResponse of createChatCompletionStreamResponse |
Statuscode: standaard
Beschrijving: Service niet beschikbaar
Content-Type | Type | Beschrijving |
---|---|---|
application/json | errorResponse |
Hiermee maakt u een voltooiing voor de opgegeven prompt, parameters en het gekozen model.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Hiermee maakt u een voltooiing op basis van Azure Search-gegevens en door het systeem toegewezen beheerde identiteit.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Hiermee maakt u een voltooiing op basis van Azure Search-vectorgegevens, vorige assistentbericht en door de gebruiker toegewezen beheerde identiteit.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Hiermee maakt u een voltooiing voor de opgegeven Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antwoorden: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Hiermee wordt audio getranscribeerd in de invoertaal.
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het fluistermodel. |
api-versie | query | Ja | tekenreeks | API-versie |
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Inhoudstype: multipart/form-data
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
bestand | tekenreeks | Het audiobestandobject dat moet worden getranscribeerd. | Ja | |
vraag | tekenreeks | Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De prompt moet overeenkomen met de audiotaal. | Nee | |
response_format | audioResponseFormat | Hiermee definieert u de indeling van de uitvoer. | Nee | |
temperatuur | Nummer | De steekproeftemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Als dit is ingesteld op 0, gebruikt het model logboekkans om de temperatuur automatisch te verhogen totdat bepaalde drempelwaarden worden bereikt. | Nee | 0 |
taal | tekenreeks | De taal van de invoeraudio. Het leveren van de invoertaal in ISO-639-1-indeling verbetert de nauwkeurigheid en latentie. | Nee |
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | audioResponse of audioVerboseResponse | |
text/plain | tekenreeks | Getranscribeerde tekst in de uitvoerindeling (toen response_format een tekst, vtt of srt was). |
Hiermee haalt u getranscribeerde tekst en bijbehorende metagegevens op uit de verstrekte gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Antwoorden: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Hiermee haalt u getranscribeerde tekst en bijbehorende metagegevens op uit de verstrekte gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antwoorden: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Hiermee wordt invoeraudio getranscribeerd en omgezet in Engelse tekst.
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het fluistermodel dat is geïmplementeerd. |
api-versie | query | Ja | tekenreeks | API-versie |
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Inhoudstype: multipart/form-data
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
bestand | tekenreeks | Het audiobestand dat moet worden vertaald. | Ja | |
vraag | tekenreeks | Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De prompt moet in het Engels zijn. | Nee | |
response_format | audioResponseFormat | Hiermee definieert u de indeling van de uitvoer. | Nee | |
temperatuur | Nummer | De steekproeftemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Als dit is ingesteld op 0, gebruikt het model logboekkans om de temperatuur automatisch te verhogen totdat bepaalde drempelwaarden worden bereikt. | Nee | 0 |
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | audioResponse of audioVerboseResponse | |
text/plain | tekenreeks | Getranscribeerde tekst in de uitvoerindeling (toen response_format een tekst, vtt of srt was). |
Hiermee haalt u getranscribeerde engelse tekst en bijbehorende metagegevens op van opgegeven gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antwoorden: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Hiermee haalt u getranscribeerde engelse tekst en bijbehorende metagegevens op van opgegeven gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antwoorden: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Hiermee wordt een batch afbeeldingen gegenereerd op basis van een tekstbijschrift voor een bepaalde dall-e-modelimplementatie
Naam | In | Vereist | Type | Description |
---|---|---|---|---|
endpoint | path | Ja | tekenreeks URL |
Ondersteunde Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com . Vervang 'aoairesource' door de naam van uw Azure OpenAI-resource). https://{uw-resourcenaam}.openai.azure.com |
implementatie-id | path | Ja | tekenreeks | Implementatie-id van het dall-e-model dat is geïmplementeerd. |
api-versie | query | Ja | tekenreeks | API-versie |
Naam | Vereist | Type | Description |
---|---|---|---|
api-key | Waar | tekenreeks | Geef hier de Azure OpenAI API-sleutel op |
Inhoudstype: toepassing/json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
vraag | tekenreeks | Een tekstbeschrijving van de gewenste afbeelding(en). De maximale lengte is 4000 tekens. | Ja | |
n | geheel getal | Het aantal afbeeldingen dat moet worden gegenereerd. | Nee | 1 |
size | imageSize | De grootte van de gegenereerde afbeeldingen. | Nee | 1024x1024 |
response_format | imagesResponseFormat | De indeling waarin de gegenereerde afbeeldingen worden geretourneerd. | Nee | URL |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. | Nee | |
kwaliteit | imageQuality | De kwaliteit van de afbeelding die wordt gegenereerd. | Nee | standard |
stijl | imageStyle | De stijl van de gegenereerde afbeeldingen. | Nee | levendig |
Statuscode: 200
Beschrijving: OK
Content-Type | Type | Beschrijving |
---|---|---|
application/json | generateImagesResponse |
Statuscode: standaard
Beschrijving: Er is een fout opgetreden.
Content-Type | Type | Beschrijving |
---|---|---|
application/json | dalleErrorResponse |
Hiermee maakt u installatiekopieën op basis van een prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antwoorden: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
error | fout | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
code | string | Nee | ||
bericht | tekenreeks | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
param | tekenreeks | Nee | ||
type | tekenreeks | Nee | ||
inner_error | innerError | Interne fout met aanvullende details. | Nee |
Interne fout met aanvullende details.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
code | innerErrorCode | Foutcodes voor het binnenste foutobject. | Nee | |
content_filter_results | contentFilterPromptResults | Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. | Nee |
Foutcodes voor het binnenste foutobject.
Beschrijving: Foutcodes voor het binnenste foutobject.
Type: tekenreeks
Standaard:
Opsommingsnaam: InnerErrorCode
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
ResponsibleAIPolicyViolation | De prompt heeft een van meer regels voor inhoudsfilters geschonden. |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
error | dalleError | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
param | tekenreeks | Nee | ||
type | tekenreeks | Nee | ||
inner_error | dalleInnerError | Interne fout met aanvullende details. | Nee |
Interne fout met aanvullende details.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
code | innerErrorCode | Foutcodes voor het binnenste foutobject. | Nee | |
content_filter_results | dalleFilterResults | Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. | Nee | |
revised_prompt | tekenreeks | De prompt die is gebruikt voor het genereren van de installatiekopieën, als er een revisie op de prompt is uitgevoerd. | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
Gefilterde | boolean | Ja |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
Gefilterde | boolean | Ja | ||
ernst | tekenreeks | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
Gefilterde | boolean | Ja | ||
Gedetecteerd | boolean | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
citaat | object | Nee |
Name | Type | Description | Standaard |
---|---|---|---|
URL | tekenreeks |
Name | Type | Description | Standaard |
---|---|---|---|
licentie | tekenreeks |
Informatie over de resultaten van het filteren van inhoud.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee | ||
Godslastering | contentFilterDetectedResult | Nee | ||
error | errorBase | Nee |
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee | ||
Godslastering | contentFilterDetectedResult | Nee | ||
error | errorBase | Nee | ||
Jailbreak | contentFilterDetectedResult | Nee |
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over tekst van derden en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee | ||
Godslastering | contentFilterDetectedResult | Nee | ||
error | errorBase | Nee | ||
protected_material_text | contentFilterDetectedResult | Nee | ||
protected_material_code | contentFilterDetectedWithCitationResult | Nee |
Resultaten van het filteren van inhoud voor één prompt in de aanvraag.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
prompt_index | geheel getal | Nee | ||
content_filter_results | contentFilterPromptResults | Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. | Nee |
Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
Informatie over de resultaten van het filteren van inhoud.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee |
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
seksueel | contentFilterSeverityResult | Nee | ||
geweld | contentFilterSeverityResult | Nee | ||
haten | contentFilterSeverityResult | Nee | ||
self_harm | contentFilterSeverityResult | Nee | ||
Godslastering | contentFilterDetectedResult | Nee | ||
Jailbreak | contentFilterDetectedResult | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
stroom | boolean | Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. | Nee | |
max_tokens | geheel getal | Het maximum aantal tokens dat is toegestaan voor het gegenereerde antwoord. Standaard is het aantal tokens dat het model kan retourneren (4096 - prompttokens). Deze waarde is nu afgeschaft ten gunste van max_completion_tokens en is niet compatibel met o1-seriemodellen. |
Nee | 4096 |
max_completion_tokens | geheel getal | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | Nee | |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. | Nee | 0 |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. | Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een json-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. | Nee | |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren. | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
vraag | tekenreeks of matrix | De prompt(s) voor het genereren van voltooiingen voor, gecodeerd als een tekenreeks, matrix van tekenreeksen, matrix van tokens of matrix van tokenmatrices. <|endoftext|> is het documentscheidingsteken dat het model tijdens de training ziet, dus als er geen prompt is opgegeven, wordt het model gegenereerd alsof het vanaf het begin van een nieuw document wordt gegenereerd. |
Ja | |
best_of | geheel getal | Genereert best_of voltooiingen aan de serverzijde en retourneert de 'beste' (de waarde met de hoogste logboekkans per token). Resultaten kunnen niet worden gestreamd.Wanneer gebruikt met n , best_of bepaalt u het aantal voltooiingen van de kandidaat en n geeft u op hoeveel te retourneren â€" best_of groter moet zijn dan n .Opmerking: Omdat deze parameter veel voltooiingen genereert, kan deze snel uw tokenquotum gebruiken. Gebruik zorgvuldig en zorg ervoor dat u redelijke instellingen max_tokens voor en stop . |
Nee | 1 |
echo | boolean | Echo terug van de prompt naast de voltooiing |
Nee | Onwaar |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een JSON-object waarmee tokens (opgegeven door de token-id in de GPT-tokenizer) worden toegewezen aan een bijbehorende bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. U kunt bijvoorbeeld doorgeven {"50256": -100} om te voorkomen dat het <token |endoftext|> wordt gegenereerd. |
Nee | Geen |
logprobs | geheel getal | Neem de logboekkans op de logprobs meest waarschijnlijke uitvoertokens op, evenals de gekozen tokens. Als dit bijvoorbeeld logprobs 5 is, retourneert de API een lijst met de vijf meest waarschijnlijke tokens. De API retourneert altijd het logprob voorbeeldtoken, dus er kunnen maximaal logprobs+1 elementen in het antwoord zijn.De maximumwaarde voor logprobs is 5. |
Nee | Geen |
max_tokens | geheel getal | Het maximum aantal tokens dat kan worden gegenereerd in de voltooiing. Het tokenaantal van uw prompt plus max_tokens kan de contextlengte van het model niet overschrijden. |
Nee | 16 |
n | geheel getal | Hoeveel voltooiingen moeten worden gegenereerd voor elke prompt. Opmerking: Omdat deze parameter veel voltooiingen genereert, kan deze snel uw tokenquotum gebruiken. Gebruik zorgvuldig en zorg ervoor dat u redelijke instellingen max_tokens voor en stop . |
Nee | 1 |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
Nee | 0 |
seed | geheel getal | Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren.Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren. |
Nee | |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat de stopvolgorde niet. |
Nee | |
stroom | boolean | Of gedeeltelijke voortgang moet worden gestreamd. Als deze optie is ingesteld, worden tokens verzonden als gebeurtenissen die alleen door de server worden verzonden zodra ze beschikbaar komen, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
achtervoegsel | tekenreeks | Het achtervoegsel dat na een voltooiing van ingevoegde tekst komt. Deze parameter wordt alleen ondersteund voor gpt-3.5-turbo-instruct . |
Nee | Geen |
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. |
Nee |
Vertegenwoordigt een voltooiingsantwoord van de API. Opmerking: zowel de gestreamde als niet-gestreamde antwoordobjecten delen dezelfde vorm (in tegenstelling tot het chateindpunt).
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | tekenreeks | Een unieke id voor de voltooiing. | Ja | |
Keuzes | matrix | De lijst met voltooiingskeuzen die het model heeft gegenereerd voor de invoerprompt. | Ja | |
aangemaakt | geheel getal | De Unix-tijdstempel (in seconden) van het moment waarop de voltooiing is gemaakt. | Ja | |
model | tekenreeks | Het model dat wordt gebruikt voor voltooiing. | Ja | |
prompt_filter_results | promptFilterResults | Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen. | Nee | |
system_fingerprint | tekenreeks | Deze vingerafdruk vertegenwoordigt de back-endconfiguratie waarmee het model wordt uitgevoerd. Kan worden gebruikt in combinatie met de seed aanvraagparameter om te begrijpen wanneer er back-endwijzigingen zijn aangebracht die van invloed kunnen zijn op determinisme. |
Nee | |
object | enum | Het objecttype, dat altijd 'text_completion' is Mogelijke waarden: text_completion |
Ja | |
gebruikt | completionUsage | Gebruiksstatistieken voor de voltooiingsaanvraag. | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
temperatuur | Nummer | Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen. |
Nee | 1 |
top_p | Nummer | Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen. |
Nee | 1 |
stroom | boolean | Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
Nee | Onwaar |
stoppen | tekenreeks of matrix | Maximaal vier reeksen waarin de API stopt met het genereren van verdere tokens. |
Nee | |
max_tokens | geheel getal | Het maximum aantal tokens dat kan worden gegenereerd in de voltooiing van de chat. De totale lengte van invoertokens en gegenereerde tokens wordt beperkt door de contextlengte van het model. |
Nee | |
max_completion_tokens | geheel getal | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | Nee | |
presence_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
Nee | 0 |
frequency_penalty | Nummer | Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
Nee | 0 |
logit_bias | object | Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een JSON-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. |
Nee | Geen |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. |
Nee | |
messages | matrix | Een lijst met berichten die tot nu toe bestaan uit het gesprek. | Ja | |
data_sources | matrix | De configuratievermeldingen voor Azure OpenAI-chatextensies die deze gebruiken. Deze aanvullende specificatie is alleen compatibel met Azure OpenAI. |
Nee | |
logprobs | boolean | Of u nu logboekkansen van de uitvoertokens wilt retourneren of niet. Indien waar, retourneert u de logboekkans van elk uitvoertoken dat wordt geretourneerd in de van content message . |
Nee | Onwaar |
top_logprobs | geheel getal | Een geheel getal tussen 0 en 20 dat het aantal waarschijnlijke tokens aangeeft dat op elke tokenpositie moet worden geretourneerd, elk met een gekoppelde logboekkans. logprobs moet worden ingesteld op true of deze parameter wordt gebruikt. |
Nee | |
n | geheel getal | Hoeveel opties voor het voltooien van chats voor elk invoerbericht moeten worden gegenereerd. Houd er rekening mee dat er kosten in rekening worden gebracht op basis van het aantal gegenereerde tokens voor alle opties. 1 Houd n rekening met het minimaliseren van de kosten. |
Nee | 1 |
parallel_tool_calls | ParallelToolCalls | Hiermee wordt aangegeven of parallelle functie aanroepen moet worden ingeschakeld tijdens het gebruik van het hulpprogramma. | Nee | Waar |
response_format | ResponseFormatText of ResponseFormatJsonObject of ResponseFormatJsonSchema | Een object dat de indeling aangeeft die het model moet uitvoeren. Compatibel met GPT-4o, GPT-4o mini, GPT-4 Turbo en alle GPT-3.5 Turbo modellen nieuwer dan gpt-3.5-turbo-1106 .Instelling voor { "type": "json_schema", "json_schema": {...} } het inschakelen van gestructureerde uitvoer die garandeert dat het model overeenkomt met het opgegeven JSON-schema.Instelling voor { "type": "json_object" } het inschakelen van de JSON-modus, wat garandeert dat het bericht dat het model genereert geldige JSON is.Belangrijk: wanneer u de JSON-modus gebruikt, moet u het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een onverwerkte witruimtestroom genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopende en schijnbaar 'vastgelopen' aanvraag. Houd er ook rekening mee dat de inhoud van het bericht gedeeltelijk kan worden afgekapt als finish_reason="length" , wat aangeeft dat de generatie is overschreden max_tokens of het gesprek de maximale contextlengte heeft overschreden. |
Nee | |
seed | geheel getal | Deze functie bevindt zich in de bètaversie. Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren.Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren. |
Nee | |
tools | matrix | Een lijst met hulpprogramma's die het model kan aanroepen. Op dit moment worden alleen functies ondersteund als hulpprogramma. Gebruik dit om een lijst met functies op te geven waarvoor het model JSON-invoer kan genereren. Maximaal 128 functies worden ondersteund. |
Nee | |
tool_choice | chatCompletionToolChoiceOption | Hiermee bepaalt u welke (indien van toepassing) hulpprogramma's worden aangeroepen door het model. none betekent dat het model geen hulpprogramma aanroept en in plaats daarvan een bericht genereert. auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer hulpprogramma's. required betekent dat het model een of meer hulpprogramma's moet aanroepen. Het opgeven van een bepaald hulpprogramma via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpprogramma aan te roepen. none is de standaardinstelling wanneer er geen hulpprogramma's aanwezig zijn. auto is de standaardinstelling als er hulpprogramma's aanwezig zijn. |
Nee | |
function_call | tekenreeks of chatCompletionFunctionCallOption | Afgeschaft ten gunste van tool_choice .Hiermee bepaalt u welke functie (indien aanwezig) wordt aangeroepen door het model. none betekent dat het model geen functie aanroept en in plaats daarvan een bericht genereert.auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een functie.Als u een bepaalde functie opgeeft via dwingt {"name": "my_function"} u het model om die functie aan te roepen.none is de standaardinstelling wanneer er geen functies aanwezig zijn. auto is de standaardinstelling als er functies aanwezig zijn. |
Nee | |
functions | matrix | Afgeschaft ten gunste van tools .Een lijst met functies waarvoor het model JSON-invoer kan genereren. |
Nee |
Name | Type | Beschrijving | Vereist | Default |
---|---|---|---|---|
beschrijving | tekenreeks | Een beschrijving van wat de functie doet, die door het model wordt gebruikt om te kiezen wanneer en hoe de functie moet worden aangeroepen. | Nee | |
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. Moet a-z, A-Z, 0-9 of onderstrepingstekens en streepjes bevatten, met een maximale lengte van 64. | Ja | |
parameters | FunctionParameters | De parameters die door de functies worden geaccepteerd, worden beschreven als een JSON-schemaobject. Zie de handleiding voor voorbeelden en de naslaginformatie over het JSON-schema voor documentatie over de indeling. Als u parameters weglaat, wordt een functie met een lege parameterlijst gedefinieerd. |
Nee |
Als u een bepaalde functie opgeeft via dwingt {"name": "my_function"}
u het model om die functie aan te roepen.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. | Ja |
Dit onderdeel kan een van de volgende zijn:
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks of matrix | De inhoud van het systeembericht. | Ja | |
role | enum | De rol van de auteur van berichten, in dit geval system .Mogelijke waarden: systeem |
Ja | |
naam | tekenreeks | Een optionele naam voor de deelnemer. Biedt de modelinformatie om onderscheid te maken tussen deelnemers van dezelfde rol. | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks of matrix | De inhoud van het gebruikersbericht. |
Ja | |
role | enum | De rol van de auteur van berichten, in dit geval user .Mogelijke waarden: gebruiker |
Ja | |
naam | tekenreeks | Een optionele naam voor de deelnemer. Biedt de modelinformatie om onderscheid te maken tussen deelnemers van dezelfde rol. | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks of matrix | De inhoud van het assistentbericht. Vereist tenzij tool_calls of function_call is opgegeven. |
Nee | |
weigering | tekenreeks | Het weigeringsbericht van de assistent. | Nee | |
role | enum | De rol van de auteur van berichten, in dit geval assistant .Mogelijke waarden: assistent |
Ja | |
naam | tekenreeks | Een optionele naam voor de deelnemer. Biedt de modelinformatie om onderscheid te maken tussen deelnemers van dezelfde rol. | Nee | |
tool_calls | chatCompletionMessageToolCalls | De hulpprogramma-aanroepen die door het model worden gegenereerd, zoals functie-aanroepen. | Nee | |
function_call | object | Afgeschaft en vervangen door tool_calls . De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model. |
Nee |
Name | Type | Description | Standaard |
---|---|---|---|
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. |
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
role | enum | De rol van de auteur van berichten, in dit geval tool .Mogelijke waarden: hulpprogramma |
Ja | |
content | tekenreeks of matrix | De inhoud van het hulpmiddelbericht. | Ja | |
tool_call_id | tekenreeks | De aanroep van het hulpprogramma waarop dit bericht reageert. | Ja |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
role | enum | De rol van de auteur van berichten, in dit geval function .Mogelijke waarden: functie |
Ja | |
content | tekenreeks | De inhoud van het functiebericht. | Ja | |
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. | Ja |
Dit onderdeel kan een van de volgende zijn:
Dit onderdeel kan een van de volgende zijn:
Dit onderdeel kan een van de volgende zijn:
Dit onderdeel kan een van de volgende zijn:
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type inhoudsonderdeel. Mogelijke waarden: tekst |
Ja | |
sms verzenden | tekenreeks | De tekstinhoud. | Ja |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type inhoudsonderdeel. Mogelijke waarden: image_url |
Ja | |
image_url | object | Ja |
Name | Type | Description | Standaard |
---|---|---|---|
URL | tekenreeks | Een URL van de afbeelding of de met base64 gecodeerde afbeeldingsgegevens. |
Name | Type | Description | Standaard |
---|---|---|---|
gedetailleerd | tekenreeks | Hiermee geeft u het detailniveau van de afbeelding op. Meer informatie vindt u in de Vision-handleiding. | auto |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type inhoudsonderdeel. Mogelijke waarden: weigering |
Ja | |
weigering | tekenreeks | Het weigeringsbericht dat door het model is gegenereerd. | Ja |
Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een aanvraag voor het voltooien van chats die azure OpenAI-chatextensies moeten gebruiken om het reactiegedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | azureChatExtensionType | Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een chatgesprek voltooiingsaanvraag die azure OpenAI-chatextensies moet gebruiken om het antwoordgedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Ja |
Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een aanvraag voor het voltooien van chats die azure OpenAI-chatextensies moeten gebruiken om het reactiegedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Beschrijving: Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een aanvraag voor het voltooien van chats die azure OpenAI-chatextensies moeten gebruiken om het reactiegedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Type: tekenreeks
Standaard:
Enum-naam: AzureChatExtensionType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
azure_search | Vertegenwoordigt het gebruik van Azure Search als een Azure OpenAI-chatextensie. |
azure_cosmos_db | Vertegenwoordigt het gebruik van Azure Cosmos DB als een Azure OpenAI-chatextensie. |
Een specifieke weergave van configureerbare opties voor Azure Search wanneer u deze gebruikt als een Azure OpenAI-chatextensie.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | azureChatExtensionType | Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een chatgesprek voltooiingsaanvraag die azure OpenAI-chatextensies moet gebruiken om het antwoordgedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Ja | |
parameters | azureSearchChatExtensionParameters | Parameters voor Azure Search wanneer deze worden gebruikt als een Azure OpenAI-chatextensie. | Nee |
Parameters voor Azure Search wanneer deze worden gebruikt als een Azure OpenAI-chatextensie.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
verificatie | onYourDataApiKeyAuthenticationOptions of onYourDataSystemAssignedManagedIdentityAuthenticationOptions of onYourDataUserAssignedManagedIdentityAuthenticationOptions | Ja | ||
top_n_documents | geheel getal | Het geconfigureerde bovenste aantal documenten dat moet worden aanbevolen voor de geconfigureerde query. | Nee | |
in_scope | boolean | Of query's moeten worden beperkt tot het gebruik van geïndexeerde gegevens. | Nee | |
gestrengheid | geheel getal | De geconfigureerde striktheid van het filteren op zoekrelevantie. Hoe strikter, hoe hoger de precisie, maar een lagere terugroeping van het antwoord. | Nee | |
role_information | tekenreeks | Geef het model instructies over hoe het zich moet gedragen en eventuele context waarnaar wordt verwezen bij het genereren van een antwoord. U kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe u antwoorden kunt opmaken. Er is een limiet van 100 token voor deze limiet en deze geldt voor de totale tokenlimiet. | Nee | |
endpoint | tekenreeks | Het absolute eindpuntpad voor de Azure Search-resource die moet worden gebruikt. | Ja | |
index_name | tekenreeks | De naam van de index die moet worden gebruikt als beschikbaar in de Azure Search-resource waarnaar wordt verwezen. | Ja | |
fields_mapping | azureSearchIndexFieldMappingOptions | Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Search-resource. | Nee | |
query_type | azureSearchQueryType | Het type Azure Search-ophaalquery dat moet worden uitgevoerd wanneer u deze gebruikt als een Azure OpenAI-chatextensie. | Nee | |
semantic_configuration | tekenreeks | De aanvullende semantische configuratie voor de query. | Nee | |
filter | tekenreeks | Zoekfilter. | Nee | |
embedding_dependency | onYourDataEndpointVectorizationSource of onYourDataDeploymentNameVectorizationSource | Nee |
Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Search-resource.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
title_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als titel. | Nee | |
url_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als URL. | Nee | |
filepath_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als bestandspad. | Nee | |
content_fields | matrix | De namen van indexvelden die als inhoud moeten worden behandeld. | Nee | |
content_fields_separator | tekenreeks | Het scheidingsteken dat inhoudsvelden moeten gebruiken. | Nee | |
vector_fields | matrix | De namen van velden die vectorgegevens vertegenwoordigen. | Nee |
Het type Azure Search-ophaalquery dat moet worden uitgevoerd wanneer u deze gebruikt als een Azure OpenAI-chatextensie.
Beschrijving: Het type Azure Search-ophaalquery dat moet worden uitgevoerd wanneer u deze gebruikt als een Azure OpenAI-chatextensie.
Type: tekenreeks
Standaard:
Enum-naam: AzureSearchQueryType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
eenvoudig | Vertegenwoordigt de standaard, eenvoudige queryparser. |
semantisch | Vertegenwoordigt de semantische queryparser voor geavanceerde semantische modellering. |
vector | Vertegenwoordigt vectorzoekopdrachten over berekende gegevens. |
vector_simple_hybrid | Vertegenwoordigt een combinatie van de eenvoudige querystrategie met vectorgegevens. |
vector_semantic_hybrid | Vertegenwoordigt een combinatie van semantische zoek- en vectorgegevensquery's. |
Een specifieke weergave van configureerbare opties voor Azure Cosmos DB wanneer u deze gebruikt als een Azure OpenAI-chatextensie.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | azureChatExtensionType | Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een chatgesprek voltooiingsaanvraag die azure OpenAI-chatextensies moet gebruiken om het antwoordgedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Ja | |
parameters | azureCosmosDBChatExtensionParameters | Parameters die moeten worden gebruikt bij het configureren van Azure OpenAI op uw gegevens-chatextensies bij gebruik van Azure Cosmos DB voor MongoDB vCore. |
Nee |
Parameters die moeten worden gebruikt bij het configureren van Azure OpenAI op uw gegevenschatextensies bij gebruik van Azure Cosmos DB voor MongoDB vCore.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
verificatie | onYourDataConnectionStringAuthenticationOptions | De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een verbindingsreeks gebruikt. | Ja | |
top_n_documents | geheel getal | Het geconfigureerde bovenste aantal documenten dat moet worden aanbevolen voor de geconfigureerde query. | Nee | |
in_scope | boolean | Of query's moeten worden beperkt tot het gebruik van geïndexeerde gegevens. | Nee | |
gestrengheid | geheel getal | De geconfigureerde striktheid van het filteren op zoekrelevantie. Hoe strikter, hoe hoger de precisie, maar een lagere terugroeping van het antwoord. | Nee | |
role_information | tekenreeks | Geef het model instructies over hoe het zich moet gedragen en eventuele context waarnaar wordt verwezen bij het genereren van een antwoord. U kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe u antwoorden kunt opmaken. Er is een limiet van 100 token voor deze limiet en deze geldt voor de totale tokenlimiet. | Nee | |
database_name | tekenreeks | De naam van de MongoDB vCore-database die moet worden gebruikt met Azure Cosmos DB. | Ja | |
container_name | tekenreeks | De naam van de Azure Cosmos DB-resourcecontainer. | Ja | |
index_name | tekenreeks | De naam van de MongoDB vCore-index die moet worden gebruikt met Azure Cosmos DB. | Ja | |
fields_mapping | azureCosmosDBFieldMappingOptions | Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Cosmos DB-resource. | Ja | |
embedding_dependency | onYourDataEndpointVectorizationSource of onYourDataDeploymentNameVectorizationSource | Ja |
Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Cosmos DB-resource.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
title_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als titel. | Nee | |
url_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als URL. | Nee | |
filepath_field | tekenreeks | De naam van het indexveld dat moet worden gebruikt als bestandspad. | Nee | |
content_fields | matrix | De namen van indexvelden die als inhoud moeten worden behandeld. | Ja | |
content_fields_separator | tekenreeks | Het scheidingsteken dat inhoudsvelden moeten gebruiken. | Nee | |
vector_fields | matrix | De namen van velden die vectorgegevens vertegenwoordigen. | Ja |
De verificatieopties voor Azure OpenAI op uw gegevens.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja |
De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens.
Beschrijving: De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens.
Type: tekenreeks
Standaard:
Enum-naam: OnYourDataAuthenticationType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
api_key | Verificatie via API-sleutel. |
connection_string | Verificatie via verbindingsreeks. |
system_assigned_managed_identity | Verificatie via door het systeem toegewezen beheerde identiteit. |
user_assigned_managed_identity | Verificatie via door de gebruiker toegewezen beheerde identiteit. |
De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een API-sleutel gebruikt.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja | |
sleutel | tekenreeks | De API-sleutel die moet worden gebruikt voor verificatie. | Nee |
De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een verbindingsreeks gebruikt.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja | |
connection_string | tekenreeks | Het verbindingsreeks dat moet worden gebruikt voor verificatie. | Nee |
De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een door het systeem toegewezen beheerde identiteit gebruikt.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja |
De verificatieopties voor Azure OpenAI op uw gegevens bij gebruik van een door de gebruiker toegewezen beheerde identiteit.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataAuthenticationType | De verificatietypen die worden ondersteund met Azure OpenAI op uw gegevens. | Ja | |
managed_identity_resource_id | tekenreeks | De resource-id van de door de gebruiker toegewezen beheerde identiteit die moet worden gebruikt voor verificatie. | Nee |
Een abstracte weergave van een vectorisatiebron voor Azure OpenAI On Your Data met vectorzoekopdrachten.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kunnen gebruiken om vectorisatie van gegevens te configureren voor gebruik met vector zoeken. |
Ja |
Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kan gebruiken om vectorisatie van gegevens te configureren voor gebruik met vectorzoekopdrachten.
Beschrijving: Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kunnen gebruiken om vectorisatie van gegevens te configureren voor gebruik met
vector zoeken.
Type: tekenreeks
Standaard:
Enum-naam: OnYourDataVectorizationSourceType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
endpoint | Vertegenwoordigt vectorisatie die wordt uitgevoerd door openbare serviceaanroepen naar een Azure OpenAI-insluitingsmodel. |
deployment_name | Vertegenwoordigt de implementatienaam van een Ada-model die moet worden gebruikt. Deze modelimplementatie moet zich in dezelfde Azure OpenAI-resource bevinden, maar Op Uw gegevens wordt deze modelimplementatie gebruikt via een interne aanroep in plaats van een openbare aanroep, waardoor vector mogelijk is zelfs in privénetwerken zoeken. |
De details van een vectorisatiebron, die wordt gebruikt door Azure OpenAI Op uw gegevens bij het toepassen van vectorzoekopdrachten, die is gebaseerd op een interne naam voor het implementeren van een model voor insluitingen in dezelfde Azure OpenAI-resource.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kunnen gebruiken om vectorisatie van gegevens te configureren voor gebruik met vector zoeken. |
Ja | |
deployment_name | tekenreeks | Hiermee geeft u de naam op van de modelimplementatie die moet worden gebruikt voor vectorisatie. Deze modelimplementatie moet zich in dezelfde Azure OpenAI-resource bevinden, maar op uw gegevens wordt deze modelimplementatie gebruikt via een interne aanroep in plaats van een openbare, waardoor vectorzoekopdrachten zelfs in particuliere netwerken mogelijk zijn. | Nee |
De details van een vectorisatiebron, die door Azure OpenAI op uw gegevens worden gebruikt bij het toepassen van vectorzoekopdrachten, die is gebaseerd op een openbare Aanroep van een Azure OpenAI-eindpunt voor insluitingen.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kunnen gebruiken om vectorisatie van gegevens te configureren voor gebruik met vector zoeken. |
Ja | |
verificatie | onYourDataApiKeyAuthenticationOptions | De verificatieopties voor Azure OpenAI op uw gegevens wanneer u een API-sleutel gebruikt. | Nee | |
endpoint | tekenreeks | Hiermee geeft u het eindpunt te gebruiken voor vectorisatie. Dit eindpunt moet zich in dezelfde Azure OpenAI-resource bevinden, maar op uw gegevens wordt dit eindpunt gebruikt via een interne aanroep in plaats van een openbare, waardoor vectorzoekopdrachten zelfs in particuliere netwerken mogelijk zijn. | Nee |
Een weergave van de aanvullende contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een overeenkomstig chatvoltooiingsantwoord. Deze contextinformatie wordt alleen ingevuld wanneer u een Azure OpenAI-aanvraag gebruikt die is geconfigureerd voor het gebruik van een overeenkomende extensie.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
Citaten | matrix | Het resultaat van het ophalen van de gegevensbron, dat wordt gebruikt om het assistentbericht in het antwoord te genereren. | Nee | |
intentie | tekenreeks | De gedetecteerde intentie uit de chatgeschiedenis, die wordt gebruikt om door te geven aan de volgende beurt om de context over te dragen. | Nee |
Bronvermeldingsinformatie voor een antwoordbericht over het voltooien van een chat.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks | De inhoud van de bronvermelding. | Ja | |
title | tekenreeks | De titel van de bronvermelding. | Nee | |
URL | tekenreeks | De URL van de bronvermelding. | Nee | |
bestandspad | tekenreeks | Het bestandspad van de bronvermelding. | Nee | |
chunk_id | tekenreeks | De segment-id van de bronvermelding. | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | tekenreeks | De id van de aanroep van het hulpprogramma. | Ja | |
type | toolCallType | Het type van de aanroep van het hulpprogramma, in dit geval function . |
Ja | |
function | object | De functie die het model heeft aangeroepen. | Ja |
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
Name | Type | Description | Standaard |
---|---|---|---|
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. |
Het type van de aanroep van het hulpprogramma, in dit geval function
.
Beschrijving: Het type van de aanroep van het hulpprogramma, in dit geval function
.
Type: tekenreeks
Standaard:
Opsommingsnaam: ToolCallType
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
function | Het aanroeptype van het hulpprogramma is functie. |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
tool_call_id | tekenreeks | De aanroep van het hulpprogramma waarop dit bericht reageert. | Nee | |
content | tekenreeks | De inhoud van het bericht. | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
role | enum | De rol van de auteur van berichten, in dit geval function .Mogelijke waarden: functie |
Nee | |
naam | tekenreeks | De inhoud van het bericht. | Nee | |
content | tekenreeks | De inhoud van het bericht. | Nee |
Vertegenwoordigt een antwoord op voltooiing van een chat dat wordt geretourneerd door het model, op basis van de opgegeven invoer.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | tekenreeks | Een unieke id voor het voltooien van de chat. | Ja | |
prompt_filter_results | promptFilterResults | Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen. | Nee | |
Keuzes | matrix | Een lijst met opties voor chatvoltooiing. Kan meer dan één zijn als n deze groter is dan 1. |
Ja | |
aangemaakt | geheel getal | De Unix-tijdstempel (in seconden) van het moment waarop de chat is voltooid. | Ja | |
model | tekenreeks | Het model dat wordt gebruikt voor het voltooien van de chat. | Ja | |
system_fingerprint | tekenreeks | Deze vingerafdruk vertegenwoordigt de back-endconfiguratie waarmee het model wordt uitgevoerd. Kan worden gebruikt in combinatie met de seed aanvraagparameter om te begrijpen wanneer er back-endwijzigingen zijn aangebracht die van invloed kunnen zijn op determinisme. |
Nee | |
object | enum | Het objecttype, dat altijd chat.completion is.Mogelijke waarden: chat.completion |
Ja | |
gebruikt | completionUsage | Gebruiksstatistieken voor de voltooiingsaanvraag. | Nee |
Vertegenwoordigt een gestreamd segment van een antwoord op voltooiing van een chat dat door het model wordt geretourneerd, op basis van de opgegeven invoer.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | tekenreeks | Een unieke id voor het voltooien van de chat. Elk segment heeft dezelfde id. | Ja | |
Keuzes | matrix | Een lijst met opties voor chatvoltooiing. Kan meer dan één element bevatten als n deze groter is dan 1. |
Ja | |
aangemaakt | geheel getal | De Unix-tijdstempel (in seconden) van het moment waarop de chat is voltooid. Elk segment heeft dezelfde tijdstempel. | Ja | |
model | tekenreeks | Het model om de voltooiing te genereren. | Ja | |
system_fingerprint | tekenreeks | Deze vingerafdruk vertegenwoordigt de back-endconfiguratie waarmee het model wordt uitgevoerd. Kan worden gebruikt in combinatie met de seed aanvraagparameter om te begrijpen wanneer er back-endwijzigingen zijn aangebracht die van invloed kunnen zijn op determinisme. |
Nee | |
object | enum | Het objecttype, dat altijd chat.completion.chunk is.Mogelijke waarden: chat.completion.chunk |
Ja |
Een delta voor het voltooien van chats die wordt gegenereerd door gestreamde modelreacties.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | tekenreeks | De inhoud van het segmentbericht. | Nee | |
function_call | object | Afgeschaft en vervangen door tool_calls . De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model. |
Nee | |
tool_calls | matrix | Nee | ||
role | enum | De rol van de auteur van dit bericht. Mogelijke waarden: systeem, gebruiker, assistent, hulpprogramma |
Nee | |
weigering | tekenreeks | Het weigeringsbericht dat door het model is gegenereerd. | Nee |
Name | Type | Description | Standaard |
---|---|---|---|
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. |
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
index | geheel getal | Ja | ||
id | tekenreeks | De id van de aanroep van het hulpprogramma. | Nee | |
type | enum | Het type hulpprogramma. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
Nee | |
function | object | Nee |
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
Name | Type | Description | Standaard |
---|---|---|---|
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. |
Opties voor streaming-antwoord. Stel dit alleen in wanneer u instelt stream: true
.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
include_usage | boolean | Als dit is ingesteld, wordt er vóór het data: [DONE] bericht een extra segment gestreamd. Het usage veld in dit segment toont de gebruiksstatistieken van tokens voor de hele aanvraag en het choices veld is altijd een lege matrix. Alle andere segmenten bevatten ook een usage veld, maar met een null-waarde. |
Nee |
Logboekinformatie over waarschijnlijkheid voor de keuze.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
content | matrix | Een lijst met berichteninhoudstokens met informatie over logboekkans. | Ja | |
weigering | matrix | Een lijst met weigeringstokens voor berichten met informatie over de logboekkans. | Nee |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
token | tekenreeks | Het token. | Ja | |
logprob | Nummer | De logboekkans van dit token. | Ja | |
bytes | matrix | Een lijst met gehele getallen die de UTF-8 bytes vertegenwoordigen van het token. Handig in gevallen waarin tekens worden vertegenwoordigd door meerdere tokens en hun byteweergaven moeten worden gecombineerd om de juiste tekstweergave te genereren. Dit kan zijn null als er geen bytes voor het token zijn. |
Ja | |
top_logprobs | matrix | Lijst met de meest waarschijnlijke tokens en hun logboekkans, op deze tokenpositie. In zeldzame gevallen kan er minder zijn dan het aantal aangevraagde top_logprobs geretourneerde aanvragen. |
Ja |
Een chatvoltooiingsbericht gegenereerd door het model.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | De rol van de auteur van het antwoordbericht. | Ja | |
weigering | tekenreeks | Het weigeringsbericht dat door het model is gegenereerd. | Ja | |
content | tekenreeks | De inhoud van het bericht. | Ja | |
tool_calls | matrix | De hulpprogramma-aanroepen die door het model worden gegenereerd, zoals functie-aanroepen. | Nee | |
function_call | chatCompletionFunctionCall | Afgeschaft en vervangen door tool_calls . De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model. |
Nee | |
context | azureChatExtensionsMessageContext | Een weergave van de aanvullende contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een overeenkomstig chat-voltooiingsantwoord. Deze contextinformatie wordt alleen ingevuld wanneer met behulp van een Azure OpenAI-aanvraag die is geconfigureerd voor het gebruik van een overeenkomende extensie. |
Nee |
De rol van de auteur van het antwoordbericht.
Beschrijving: De rol van de auteur van het antwoordbericht.
Type: tekenreeks
Standaard:
Enum-waarden:
Hiermee bepaalt u welke (indien van toepassing) hulpprogramma's worden aangeroepen door het model. none
betekent dat het model geen hulpprogramma aanroept en in plaats daarvan een bericht genereert. auto
betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer hulpprogramma's. required
betekent dat het model een of meer hulpprogramma's moet aanroepen. Het opgeven van een bepaald hulpprogramma via {"type": "function", "function": {"name": "my_function"}}
dwingt het model om dat hulpprogramma aan te roepen. none
is de standaardinstelling wanneer er geen hulpprogramma's aanwezig zijn. auto
is de standaardinstelling als er hulpprogramma's aanwezig zijn.
Dit onderdeel kan een van de volgende zijn:
Hiermee geeft u een hulpprogramma op dat het model moet gebruiken. Gebruik dit om het model te dwingen een specifieke functie aan te roepen.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type hulpprogramma. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
Ja | |
function | object | Ja |
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. |
Hiermee wordt aangegeven of parallelle functie aanroepen moet worden ingeschakeld tijdens het gebruik van het hulpprogramma.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
De hulpprogramma-aanroepen die door het model worden gegenereerd, zoals functie-aanroepen.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
Afgeschaft en vervangen door tool_calls
. De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. | Ja | |
Argumenten | tekenreeks | De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en mogelijk parameters genereert die niet zijn gedefinieerd door uw functieschema. Valideer de argumenten in uw code voordat u de functie aanroept. | Ja |
Gebruiksstatistieken voor de voltooiingsaanvraag.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
prompt_tokens | geheel getal | Aantal tokens in de prompt. | Ja | |
completion_tokens | geheel getal | Aantal tokens in de gegenereerde voltooiing. | Ja | |
total_tokens | geheel getal | Het totale aantal tokens dat wordt gebruikt in de aanvraag (prompt + voltooiing). | Ja | |
completion_tokens_details | object | Uitsplitsing van tokens die worden gebruikt in een voltooiing. | Nee |
Name | Type | Description | Standaard |
---|---|---|---|
reasoning_tokens | geheel getal | Tokens die door het model worden gegenereerd voor redenering. |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type hulpprogramma. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
Ja | |
function | FunctionObject | Ja |
De parameters die door de functies worden geaccepteerd, worden beschreven als een JSON-schemaobject. Zie de handleiding voor voorbeelden en de naslaginformatie over het JSON-schema voor documentatie over de indeling.
Als u parameters
weglaat, wordt een functie met een lege parameterlijst gedefinieerd.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
Name | Type | Beschrijving | Vereist | Default |
---|---|---|---|---|
beschrijving | tekenreeks | Een beschrijving van wat de functie doet, die door het model wordt gebruikt om te kiezen wanneer en hoe de functie moet worden aangeroepen. | Nee | |
naam | tekenreeks | De naam van de functie die moet worden aangeroepen. Moet a-z, A-Z, 0-9 of onderstrepingstekens en streepjes bevatten, met een maximale lengte van 64. | Ja | |
parameters | FunctionParameters | De parameters die door de functies worden geaccepteerd, worden beschreven als een JSON-schemaobject. Zie de handleiding voor voorbeelden en de naslaginformatie over het JSON-schema voor documentatie over de indeling. Als u parameters weglaat, wordt een functie met een lege parameterlijst gedefinieerd. |
Nee | |
streng | boolean | Of u strikte schema-naleving wilt inschakelen bij het genereren van de functieaanroep. Als dit is ingesteld op true, volgt het model het exacte schema dat in het parameters veld is gedefinieerd. Alleen een subset van het JSON-schema wordt ondersteund wanneer strict dit is true . |
Nee | Onwaar |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type antwoordindeling dat wordt gedefinieerd: text Mogelijke waarden: tekst |
Ja |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type antwoordindeling dat wordt gedefinieerd: json_object Mogelijke waarden: json_object |
Ja |
Het schema voor de antwoordindeling, beschreven als een JSON-schemaobject.
Er zijn geen eigenschappen gedefinieerd voor dit onderdeel.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
type | enum | Het type antwoordindeling dat wordt gedefinieerd: json_schema Mogelijke waarden: json_schema |
Ja | |
json_schema | object | Ja |
Naam | Type | Description | Default |
---|---|---|---|
beschrijving | tekenreeks | Een beschrijving van wat de antwoordindeling is, die door het model wordt gebruikt om te bepalen hoe moet worden gereageerd in de indeling. |
Name | Type | Description | Standaard |
---|---|---|---|
naam | tekenreeks | De naam van de antwoordindeling. Moet a-z, A-Z, 0-9 of onderstrepingstekens en streepjes bevatten, met een maximale lengte van 64. |
Name | Type | Description | Standaard |
---|---|---|---|
schema | ResponseFormatJsonSchemaSchema | Het schema voor de antwoordindeling, beschreven als een JSON-schemaobject. |
Name | Type | Description | Standaard |
---|---|---|---|
streng | boolean | Of u strikte schema-naleving wilt inschakelen bij het genereren van de uitvoer. Als dit is ingesteld op true, volgt het model altijd het exacte schema dat in het schema veld is gedefinieerd. Alleen een subset van het JSON-schema wordt ondersteund wanneer strict dit is true . |
Onwaar |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
index | geheel getal | Nee | ||
finish_reason | tekenreeks | Nee |
Vertaalaanvraag.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
bestand | tekenreeks | Het audiobestand dat moet worden vertaald. | Ja | |
vraag | tekenreeks | Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De prompt moet in het Engels zijn. | Nee | |
response_format | audioResponseFormat | Hiermee definieert u de indeling van de uitvoer. | Nee | |
temperatuur | Nummer | De steekproeftemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Als dit is ingesteld op 0, gebruikt het model logboekkans om de temperatuur automatisch te verhogen totdat bepaalde drempelwaarden worden bereikt. | Nee | 0 |
Vertaling of transcriptiereactie toen response_format json was
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
sms verzenden | tekenreeks | Vertaalde of getranscribeerde tekst. | Ja |
Vertaling of transcriptiereactie toen response_format werd verbose_json
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
sms verzenden | tekenreeks | Vertaalde of getranscribeerde tekst. | Ja | |
taak | tekenreeks | Type audiotaak. | Nee | |
taal | tekenreeks | Taal. | Nee | |
duur | Nummer | Duur. | Nee | |
Segmenten | matrix | Nee |
Hiermee definieert u de indeling van de uitvoer.
Beschrijving: Definieert de indeling van de uitvoer.
Type: tekenreeks
Standaard:
Enum-waarden:
Transcriptieaanvraag.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
bestand | tekenreeks | Het audiobestandobject dat moet worden getranscribeerd. | Ja | |
vraag | tekenreeks | Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De prompt moet overeenkomen met de audiotaal. | Nee | |
response_format | audioResponseFormat | Hiermee definieert u de indeling van de uitvoer. | Nee | |
temperatuur | Nummer | De steekproeftemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Als dit is ingesteld op 0, gebruikt het model logboekkans om de temperatuur automatisch te verhogen totdat bepaalde drempelwaarden worden bereikt. | Nee | 0 |
taal | tekenreeks | De taal van de invoeraudio. Het leveren van de invoertaal in ISO-639-1-indeling verbetert de nauwkeurigheid en latentie. | Nee |
Transcriptie- of vertaalsegment.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
id | geheel getal | Segment-id. | Nee | |
zoeken | Nummer | Verschuiving van het segment. | Nee | |
starten | Nummer | Segment beginverschil. | Nee | |
end | Nummer | Eindverschil segment. | Nee | |
sms verzenden | tekenreeks | Segmenttekst. | Nee | |
Tokens | matrix | Tokens van de tekst. | Nee | |
temperatuur | Nummer | Temperatuur. | Nee | |
avg_logprob | Nummer | Gemiddelde logboekkans. | Nee | |
compression_ratio | Nummer | Compressieverhouding. | Nee | |
no_speech_prob | Nummer | Waarschijnlijkheid van no speech . |
Nee |
De kwaliteit van de afbeelding die wordt gegenereerd.
Beschrijving: De kwaliteit van de afbeelding die wordt gegenereerd.
Type: tekenreeks
Standaard: standaard
Naam van opsomming: kwaliteit
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
standard | Standaardkwaliteit creëert afbeeldingen met standaardkwaliteit. |
harde schijf | Hd-kwaliteit maakt afbeeldingen met gedetailleerdere details en meer consistentie in de afbeelding. |
De indeling waarin de gegenereerde afbeeldingen worden geretourneerd.
Beschrijving: De indeling waarin de gegenereerde afbeeldingen worden geretourneerd.
Type: tekenreeks
Standaard: URL
Enum-naam: ImagesResponseFormat
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
url | De URL die tijdelijke toegang biedt om de gegenereerde afbeeldingen te downloaden. |
b64_json | De gegenereerde afbeeldingen worden geretourneerd als een met base64 gecodeerde tekenreeks. |
De grootte van de gegenereerde afbeeldingen.
Beschrijving: De grootte van de gegenereerde afbeeldingen.
Type: tekenreeks
Standaard: 1024x1024
Naam van opsomming: grootte
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
1792x1024 | De gewenste grootte van de gegenereerde afbeelding is 1792x1024 pixels. |
1024x1792 | De gewenste grootte van de gegenereerde afbeelding is 1024x1792 pixels. |
1024x1024 | De gewenste grootte van de gegenereerde afbeelding is 1024x1024 pixels. |
De stijl van de gegenereerde afbeeldingen.
Beschrijving: De stijl van de gegenereerde afbeeldingen.
Type: tekenreeks
Standaard: levendig
Naam van opsomming: stijl
Enum-waarden:
Weergegeven als | Beschrijving |
---|---|
levendig | Levendig creëert beelden die hyperrealistisch en dramatisch zijn. |
natuurlijk | Natuurlijk creëert afbeeldingen die natuurlijker en minder hyperrealistisch zijn. |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
vraag | tekenreeks | Een tekstbeschrijving van de gewenste afbeelding(en). De maximale lengte is 4000 tekens. | Ja | |
n | geheel getal | Het aantal afbeeldingen dat moet worden gegenereerd. | Nee | 1 |
size | imageSize | De grootte van de gegenereerde afbeeldingen. | Nee | 1024x1024 |
response_format | imagesResponseFormat | De indeling waarin de gegenereerde afbeeldingen worden geretourneerd. | Nee | URL |
Gebruiker | tekenreeks | Een unieke id die uw eindgebruiker vertegenwoordigt, die kan helpen bij het bewaken en detecteren van misbruik. | Nee | |
kwaliteit | imageQuality | De kwaliteit van de afbeelding die wordt gegenereerd. | Nee | standard |
stijl | imageStyle | De stijl van de gegenereerde afbeeldingen. | Nee | levendig |
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
aangemaakt | geheel getal | De UNIX-tijdstempel toen de bewerking werd gemaakt. | Ja | |
gegevens | matrix | De resultaatgegevens van de bewerking, indien geslaagd | Ja |
De afbeeldings-URL of gecodeerde installatiekopieën, indien geslaagd, en anders een fout.
Name | Type | Beschrijving | Vereist | Standaardinstelling |
---|---|---|---|---|
URL | tekenreeks | De afbeeldings-URL. | Nee | |
b64_json | tekenreeks | De met base64 gecodeerde installatiekopieën | Nee | |
content_filter_results | dalleContentFilterResults | Informatie over de resultaten van het filteren van inhoud. | Nee | |
revised_prompt | tekenreeks | De prompt die is gebruikt voor het genereren van de installatiekopieën, als er een revisie op de prompt is uitgevoerd. | Nee | |
prompt_filter_results | dalleFilterResults | Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. | Nee |
Voltooiingsextensies maken geen deel uit van de nieuwste GA-versie van de azure OpenAI-gegevensvlakdeductiespecificatie.
Het chatberichtobject maakt geen deel uit van de nieuwste GA-versie van de azure OpenAI-gegevensvlakdeductiespecificatie.
Maakt momenteel geen deel uit van de nieuwste Azure OpenAI GA-versie van de azure OpenAI-gegevensvlakdeductiespecificatie. Raadpleeg de nieuwste preview-versie voor deze mogelijkheid.
Meer informatie over modellen en het afstemmen met de REST API. Meer informatie over de onderliggende modellen die Azure OpenAI mogelijk maken.
gebeurtenis
17 mrt, 21 - 21 mrt, 10
Neem deel aan de meetup-serie om schaalbare AI-oplossingen te bouwen op basis van praktijkgebruiksvoorbeelden met collega-ontwikkelaars en experts.
Nu registrerenTraining
Module
Tekst en gesprekken genereren met .NET en Azure OpenAI-voltooiingen - Training
Meer informatie over het gebruik van de .NET SDK met de Azure OpenAI-service om uw toepassingen gesprekken te laten voeren met gebruikers in natuurlijke taal.