Azure OpenAI in Microsoft Foundry Models REST API-Referenz

Dieser Artikel enthält Details zu den Ableitungs-REST-API-Endpunkten für Azure OpenAI.

API specs

Das Verwalten und Interagieren mit Azure OpenAI-Modellen und -Ressourcen ist auf drei primäre API-Oberflächen aufgeteilt:

  • Control plane
  • Datenebene – Erstellung
  • Datenebene – Ableitung

Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API verfügt über einen eigenen eindeutigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA)-API-Versionen. Vorschauversionen folgen derzeit einem monatlichen Rhythmus.

Important

Es gibt jetzt eine neue Vorschau-Ableitungs-API. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.

API Neueste Vorschauversion Neueste GA-Version Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files Die Steuerungsebenen-API wird für Vorgänge wie das Erstellen von Ressourcen, modellbasierte Bereitstellung und andere Ressourcenverwaltungsaufgaben auf höherer Ebene verwendet. Die Steuerungsebene steuert auch, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist.
Data plane v1 preview v1 Spec files Die Datenebenen-API steuert Ableitungs- und Erstellungsvorgänge.

Authentication

Azure OpenAI bietet zwei Methoden für die Authentifizierung. Sie können entweder API-Schlüssel oder Microsoft Entra ID verwenden.

  • API-Schlüsselauthentifizierung: Für diesen Authentifizierungstyp müssen alle API-Anforderungen den API-Schlüssel im api-key HTTP-Header enthalten. Die Schnellstartanleitung enthält Anleitungen zum Tätigen von Anrufen mit diesem Authentifizierungstyp.

  • Microsoft Entra ID authentication: Sie können einen API-Aufruf mithilfe eines Microsoft Entra Tokens authentifizieren. Authentifizierungstoken sind in einer Anforderung als Authorization Header enthalten. Das bereitgestellte Token muss z. BBearer. vorangestellt Bearer YOUR_AUTH_TOKENsein. Sie können unsere Anleitung zu Authenticating mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs werden mithilfe des api-version Abfrageparameters versionsgesteuert. Alle Versionen folgen der Datumsstruktur JJJJ-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Datenebenen-Ableitung

Der Rest des Artikels behandelt die GA-Freigabe der Azure OpenAI-Datenebenen-Ableitungsspezifikation, 2024-10-21.

Wenn Sie nach Dokumentationen zur neuesten Vorschau-API-Version suchen, lesen Sie die neueste Vorschaudatenebenen-Ableitungs-API.

Completions

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Bereitstellungs-ID des Modells, das bereitgestellt wurde.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt Zeichenfolge oder Matrix Die Eingabeaufforderungen zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Arrays von Token oder Arrays von Tokenarrays codiert werden sollen.

Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell vom Anfang eines neuen Dokuments generiert.
Yes
best_of integer Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.

Bei Verwendung mit n, best_of steuert die Anzahl der Fertigstellungen von Kandidaten und n gibt an, wie viele zurückgegeben werden best_ofsollen . n

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
No 1
echo boolean Echo der Eingabeaufforderung zusätzlich zum Abschluss
No False
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.

Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird.
No None
logprobs integer Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn logprobs beispielsweise 5 ist, gibt die API eine Liste der fünf höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob beispielgesteuerte Token zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.

Der Maximalwert für logprobs 5.
No None
max_tokens integer Die maximale Anzahl von Token, die im Abschluss generiert werden können.

Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen.

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
No 1
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
No 0
seed integer Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz.
No
stream boolean Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. No False
suffix string Das Suffix, das nach abschluss des eingefügten Texts kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instruct.
No None
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse Stellt eine Abschlussantwort der API dar. Hinweis: Sowohl die gestreamten als auch nichtstreamten Antwortobjekte verwenden dasselbe Shape (im Gegensatz zum Chatendpunkt).

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden kann.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
input Zeichenfolge oder Matrix Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Um mehrere Eingaben in eine einzelne Anforderung einzubetten, übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays. Die Eingabe darf die maximalen Eingabetoken für das Modell (8.192 Token für text-embedding-ada-002), keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. Yes
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No
input_type string Eingabetyp der zu verwendenden Einbettungssuche No
encoding_format string Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64. Standardwert ist .float No
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. No

Responses

Name Type Description Required Default
object string Yes
model string Yes
data array Yes
usage object Yes

Eigenschaften für die Verwendung

prompt_tokens

Name Type Description Default
prompt_tokens integer

total_tokens

Name Type Description Default
total_tokens integer

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Gibt die Einbettungen für eine bestimmte Eingabeaufforderung zurück.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chat completions

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Erstellt einen Abschluss für die Chatnachricht

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Bereitstellungs-ID des Modells, das bereitgestellt wurde.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
stream boolean Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. No False
stop Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert.
No
max_tokens integer Die maximale Anzahl von Token, die im Chatabschluss generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt.
No
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
No 0
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.
No None
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
No
messages array Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Yes
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. No False
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. No
n integer Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. No 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die garantiert, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt.
No
tool_choice chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. No
function_call string or chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

none ist der Standardwert, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
No
functions array Veraltet zugunsten von tools.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json createChatCompletionResponse oder createChatCompletionStreamResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss basierend auf Azure Suchdaten und vom System zugewiesener verwalteter Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss basierend auf Azure Suchvektordaten, vorheriger Assistant-Nachricht und der vom Benutzer zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss für die bereitgestellte Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen - Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transkribiert Audio in die Eingabesprache.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Bereitstellungs-ID der Sprache im Textmodell.

Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Das zu transkribierende Audiodateiobjekt. Yes
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json audioResponse oder audioVerboseResponse
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format einer von Text, vtt oder srt war).

Examples

Example

Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen - Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transkribiert und übersetzt Eingabeaudio in englischen Text.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Bereitstellungs-ID des Flüstermodells, das bereitgestellt wurde.

Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Die zu übersetzende Audiodatei. Yes
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json audioResponse oder audioVerboseResponse
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format einer von Text, vtt oder srt war).

Examples

Example

Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Image generation

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Generiert einen Batch von Bildern aus einer Textbeschriftung für eine bestimmte Dall-e-Modellbereitstellung.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Bereitstellungs-ID des bereitgestellten Dall-e-Modells.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. Yes
n integer Die Anzahl der zu generierenden Bilder. No 1
size imageSize Die Größe der generierten Bilder. No 1024x1024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No
quality imageQuality Die Qualität des Bilds, das generiert wird. No standard
style imageStyle Die Formatvorlage der generierten Bilder. No vivid

Responses

Statuscode: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Erstellt Bilder mit einer Eingabeaufforderung.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
param string No
type string No
inner_error innerError Innerer Fehler mit zusätzlichen Details. No

innerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt. No
content_filter_results contentFilterPromptResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. No

innerErrorCode

Fehlercodes für das innere Fehlerobjekt.

Beschreibung: Fehlercodes für das innere Fehlerobjekt.

Type: string

Default:

Enumerationsname: InnerErrorCode

Enum Values:

Value Description
ResponsibleAIPolicyViolation Die Eingabeaufforderung verletzte eine der weiteren Inhaltsfilterregeln.

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
param string No
type string No
inner_error dalleInnerError Innerer Fehler mit zusätzlichen Details. No

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt. No
content_filter_results dalleFilterResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. No
revised_prompt string Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. No

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
filtered boolean Yes
detected boolean No

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No

Eigenschaften für Zitate

URL

Name Type Description Default
URL string

license

Name Type Description Default
license string

contentFilterResultsBase

Informationen zu den Ergebnissen der Inhaltsfilterung.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No

contentFilterPromptResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
jailbreak contentFilterDetectedResult No

contentFilterChoiceResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Text und Profanität von Drittanbietern, sofern er erkannt wurde und ob er gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Ergebnisse der Inhaltsfilterung für eine einzelne Eingabeaufforderung in der Anforderung.

Name Type Description Required Default
prompt_index integer No
content_filter_results contentFilterPromptResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. No

promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen.

Für diese Komponente sind keine Eigenschaften definiert.

dalleContentFilterResults

Informationen zu den Ergebnissen der Inhaltsfilterung.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No

chatCompletionsRequestCommon

Name Type Description Required Default
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.
Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
stream boolean Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. No False
stop Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. No
max_tokens integer Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig lautet die Anzahl der Token, die das Modell zurückgeben kann (4096 – Eingabeaufforderungstoken). Dieser Wert ist nun zugunsten von max_completion_tokens" veraltet" und ist nicht mit o1-Serienmodellen kompatibel. No 4096
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. No 0
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. No

createCompletionRequest

Name Type Description Required Default
prompt Zeichenfolge oder Matrix Die Eingabeaufforderungen zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Arrays von Token oder Arrays von Tokenarrays codiert werden sollen.

Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell vom Anfang eines neuen Dokuments generiert.
Yes
best_of integer Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.

Bei Verwendung mit n, best_of steuert die Anzahl der Fertigstellungen von Kandidaten und n gibt an, wie viele zurückgegeben werden best_ofsollen . n

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
No 1
echo boolean Echo der Eingabeaufforderung zusätzlich zum Abschluss
No False
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.

Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird.
No None
logprobs integer Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn logprobs beispielsweise 5 ist, gibt die API eine Liste der fünf höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob beispielgesteuerte Token zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.

Der Maximalwert für logprobs 5.
No None
max_tokens integer Die maximale Anzahl von Token, die im Abschluss generiert werden können.

Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen.

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
No 1
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
No 0
seed integer Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz.
No
stream boolean Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. No False
suffix string Das Suffix, das nach abschluss des eingefügten Texts kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instruct.
No None
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
No

createCompletionResponse

Stellt eine Abschlussantwort der API dar. Hinweis: Sowohl die gestreamten als auch nichtstreamten Antwortobjekte verwenden dasselbe Shape (im Gegensatz zum Chatendpunkt).

Name Type Description Required Default
id string Ein eindeutiger Bezeichner für den Abschluss. Yes
choices array Die Liste der Abschlussoptionen, die das Modell für die Eingabeaufforderung generiert hat. Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Abschlusses. Yes
model string Das Modell, das für den Abschluss verwendet wird. Yes
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. No
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
No
object enum Der Objekttyp, der immer "text_completion" ist
Mögliche Werte: text_completion
Yes
usage completionUsage Nutzungsstatistiken für die Abschlussanforderung. No

createChatCompletionRequest

Name Type Description Required Default
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
stream boolean Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. No False
stop Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert.
No
max_tokens integer Die maximale Anzahl von Token, die im Chatabschluss generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt.
No
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
No 0
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.
No None
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
No
messages array Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Yes
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. No False
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. No
n integer Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. No 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die garantiert, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt.
No
tool_choice chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. No
function_call string or chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

none ist der Standardwert, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
No
functions array Veraltet zugunsten von tools.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No

chatCompletionFunctions

Name Type Description Required Default
description string Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name string Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Yes
parameters FunctionParameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
No

chatCompletionFunctionCallOption

Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

Name Type Description Required Default
name string Der Name der funktion, die aufgerufen werden soll. Yes

chatCompletionRequestMessage

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestSystemMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt der Systemnachricht. Yes
role enum Die Rolle des Autors von Nachrichten in diesem Fall system.
Mögliche Werte: System
Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No

chatCompletionRequestUserMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt der Benutzernachricht.
Yes
role enum Die Rolle des Autors von Nachrichten in diesem Fall user.
Mögliche Werte: Benutzer
Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt der Assistentennachricht. Erforderlich, es sei denn tool_calls , oder function_call es wird angegeben.
No
refusal string Die Ablehnungsnachricht des Assistenten. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall assistant.
Mögliche Werte: Assistent
Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
tool_calls chatCompletionMessageToolCalls Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. No
function_call object Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No

Eigenschaften für function_call

arguments

Name Type Description Default
arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

name

Name Type Description Default
name string Der Name der funktion, die aufgerufen werden soll.

chatCompletionRequestToolMessage

Name Type Description Required Default
role enum Die Rolle des Autors von Nachrichten in diesem Fall tool.
Mögliche Werte: Tool
Yes
content Zeichenfolge oder Matrix Der Inhalt der Toolnachricht. Yes
tool_call_id string Toolaufruf, auf den diese Nachricht reagiert. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
role enum Die Rolle des Autors von Nachrichten in diesem Fall function.
Mögliche Werte: Funktion
Yes
content string Der Inhalt der Funktionsmeldung. Yes
name string Der Name der funktion, die aufgerufen werden soll. Yes

chatCompletionRequestSystemMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestUserMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestAssistantMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestToolMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
type enum Der Typ des Inhaltsteils.
Mögliche Werte: Text
Yes
text string Der Textinhalt. Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
type enum Der Typ des Inhaltsteils.
Mögliche Werte: image_url
Yes
image_url object Yes

Eigenschaften für image_url

url

Name Type Description Default
url string Entweder eine URL des Bilds oder die base64-codierten Bilddaten.

detail

Name Type Description Default
detail string Gibt die Detailebene des Bilds an. Weitere Informationen finden Sie im Vision-Leitfaden. auto

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
type enum Der Typ des Inhaltsteils.
Mögliche Werte: Ablehnung
Yes
refusal string Die vom Modell generierte Ablehnungsmeldung. Yes

azureChatExtensionConfiguration

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Name Type Description Required Default
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet.
Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureChatExtensionType

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Description: Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Type: string

Default:

Enumerationsname: AzureChatExtensionType

Enum Values:

Value Description
azure_search Stellt die Verwendung von Azure Search als Azure OpenAI-Chaterweiterung dar.
azure_cosmos_db Stellt die Verwendung von Azure Cosmos DB als Azure OpenAI-Chaterweiterung dar.

azureSearchChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Suche, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet.
Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes
parameters azureSearchChatExtensionParameters Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden. No

azureSearchChatExtensionParameters

Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions Yes
top_n_documents integer Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. No
role_information string Geben Sie dem Modell Anweisungen dazu, wie es sich verhalten soll, und auf jeden Kontext, auf den es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihnen mitteilen, wie Sie Antworten formatieren. Dafür gibt es ein Tokenlimit von 100, und es zählt gegen den gesamten Tokengrenzwert. No
endpoint string Der absolute Endpunktpfad für die zu verwendende Azure Suchressource. Yes
index_name string Der Name des Indexes, der in der referenzierten Azure Suchressource als verfügbar verwendet werden soll. Yes
fields_mapping azureSearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Suchressource. No
query_type azureSearchQueryType Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll. No
semantic_configuration string Die zusätzliche semantische Konfiguration für die Abfrage. No
filter string Search filter. No
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource No

azureSearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Suchressource.

Name Type Description Required Default
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No

azureSearchQueryType

Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.

Description: Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.

Type: string

Default:

Enumerationsname: AzureSearchQueryType

Enum Values:

Value Description
simple Stellt den Standardmäßigen einfachen Abfrageparser dar.
semantic Stellt den Semantikabfrageparser für die erweiterte semantische Modellierung dar.
vector Stellt die Vektorsuche über berechnete Daten dar.
vector_simple_hybrid Stellt eine Kombination der einfachen Abfragestrategie mit Vektordaten dar.
vector_semantic_hybrid Stellt eine Kombination aus semantischer Suche und Vektordatenabfrage dar.

azureCosmosDBChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet.
Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes
parameters azureCosmosDBChatExtensionParameters Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat Extensions verwendet werden sollen, wenn Azure Cosmos DB für
MongoDB vCore.
No

azureCosmosDBChatExtensionParameters

Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat Extensions verwendet werden sollen, wenn Azure Cosmos DB für MongoDB vCore verwendet werden.

Name Type Description Required Default
authentication onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Verbindungszeichenfolge. Yes
top_n_documents integer Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. No
role_information string Geben Sie dem Modell Anweisungen dazu, wie es sich verhalten soll, und auf jeden Kontext, auf den es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihnen mitteilen, wie Sie Antworten formatieren. Dafür gibt es ein Tokenlimit von 100, und es zählt gegen den gesamten Tokengrenzwert. No
database_name string Der Name der MongoDB-vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll. Yes
container_name string Der Name des Azure Cosmos DB-Ressourcencontainers. Yes
index_name string Der Name des MongoDB-vCore-Indexes, der mit Azure Cosmos DB verwendet werden soll. Yes
fields_mapping azureCosmosDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB Ressource. Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Yes

azureCosmosDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB Ressource.

Name Type Description Required Default
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Yes
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. Yes

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataAuthenticationType

Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.

Description: Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.

Type: string

Default:

Enumerationsname: OnYourDataAuthenticationType

Enum Values:

Value Description
api_key Authentifizierung über API-Schlüssel.
connection_string Authentifizierung über Verbindungszeichenfolge.
system_assigned_managed_identity Authentifizierung über vom System zugewiesene verwaltete Identität.
user_assigned_managed_identity Authentifizierung über vom Benutzer zugewiesene verwaltete Identität.

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes
key string Der FÜR die Authentifizierung zu verwendende API-Schlüssel. No

onYourDataConnectionStringAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Verbindungszeichenfolge.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes
connection_string string Die für die Authentifizierung zu verwendende Verbindungszeichenfolge. No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes
managed_identity_resource_id string Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. No

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.

Name Type Description Required Default
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
vector search.
Yes

onYourDataVectorizationSourceType

Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data verwendet werden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren.

Description: Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
vector search.

Type: string

Default:

Enumerationsname: OnYourDataVectorizationSourceType

Enum Values:

Value Description
endpoint Stellt die Vektorisierung dar, die von öffentlichen Dienstaufrufen an ein Azure OpenAI-Einbettungsmodell ausgeführt wird.
deployment_name Stellt einen zu verwendenden Ada-Modellbereitstellungsnamen dar. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber
In Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch Vektoren aktiviert werden.
auch in privaten Netzwerken suchen.

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert.

Name Type Description Required Default
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
vector search.
Yes
deployment_name string Gibt den Namen der Modellbereitstellung an, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber In Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch die Vektorsuche auch in privaten Netzwerken ermöglicht wird. No

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Einbettungen basiert.

Name Type Description Required Default
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
vector search.
Yes
authentication onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. No
endpoint string Gibt den Endpunkt an, der für die Vektorisierung verwendet werden soll. Dieser Endpunkt muss sich in derselben Azure OpenAI-Ressource befinden, aber In Ihren Daten wird dieser Endpunkt über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, der die Vektorsuche sogar in privaten Netzwerken ermöglicht. No

azureChatExtensionsMessageContext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung aufgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist.

Name Type Description Required Default
citations array Das Abrufergebnis der Datenquelle, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. No
intent string Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um an die nächste Aufgabe zu übergeben, um den Kontext zu übernehmen. No

citation

Zitatinformationen für eine Chatabschlussantwortnachricht.

Name Type Description Required Default
content string Der Inhalt des Zitats. Yes
title string Der Titel des Zitats. No
url string Die URL des Zitats. No
filepath string Der Dateipfad des Zitats. No
chunk_id string Die Block-ID des Zitats. No

chatCompletionMessageToolCall

Name Type Description Required Default
id string Die ID des Toolaufrufs. Yes
type toolCallType Der Typ des Toolaufrufs in diesem Fall function. Yes
function object Die Funktion, die das Modell aufgerufen hat. Yes

Eigenschaften für Funktion

name

Name Type Description Default
name string Der Name der funktion, die aufgerufen werden soll.

arguments

Name Type Description Default
arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

toolCallType

Der Typ des Toolaufrufs in diesem Fall function.

Beschreibung: Der Typ des Toolaufrufs in diesem Fall function.

Type: string

Default:

Enumerationsname: ToolCallType

Enum Values:

Value Description
function Der Toolaufruftyp ist Funktion.

chatCompletionRequestMessageTool

Name Type Description Required Default
tool_call_id string Toolaufruf, auf den diese Nachricht reagiert. No
content string Der Inhalt der Nachricht. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
role enum Die Rolle des Autors von Nachrichten in diesem Fall function.
Mögliche Werte: Funktion
No
name string Der Inhalt der Nachricht. No
content string Der Inhalt der Nachricht. No

createChatCompletionResponse

Stellt eine chat-Abschlussantwort dar, die nach Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.

Name Type Description Required Default
id string Ein eindeutiger Bezeichner für den Chatabschluss. Yes
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. No
choices array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere sein, wenn n größer als 1 ist. Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Yes
model string Das Modell, das für den Chatabschluss verwendet wird. Yes
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
No
object enum Der Objekttyp, der immer chat.completionist.
Mögliche Werte: chat.completion
Yes
usage completionUsage Nutzungsstatistiken für die Abschlussanforderung. No

createChatCompletionStreamResponse

Stellt einen gestreamten Teil einer Chat-Abschlussantwort dar, die nach Dem Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.

Name Type Description Required Default
id string Ein eindeutiger Bezeichner für den Chatabschluss. Jeder Block weist die gleiche ID auf. Yes
choices array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehr als ein Element enthalten, wenn n größer als 1 ist.
Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Jeder Block hat den gleichen Zeitstempel. Yes
model string Das Modell, das den Abschluss generiert. Yes
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
No
object enum Der Objekttyp, der immer chat.completion.chunkist.
Mögliche Werte: chat.completion.chunk
Yes

chatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von streamten Modellantworten generiert wurde.

Name Type Description Required Default
content string Der Inhalt der Blocknachricht. No
function_call object Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
tool_calls array No
role enum Die Rolle des Autors dieser Nachricht.
Mögliche Werte: System, Benutzer, Assistent, Tool
No
refusal string Die vom Modell generierte Ablehnungsmeldung. No

Eigenschaften für function_call

arguments

Name Type Description Default
arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

name

Name Type Description Default
name string Der Name der funktion, die aufgerufen werden soll.

chatCompletionMessageToolCallChunk

Name Type Description Required Default
index integer Yes
id string Die ID des Toolaufrufs. No
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
No
function object No

Eigenschaften für Funktion

name

Name Type Description Default
name string Der Name der funktion, die aufgerufen werden soll.

arguments

Name Type Description Default
arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

chatCompletionStreamOptions

Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.

Name Type Description Required Default
include_usage boolean Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert.
No

chatCompletionChoiceLogProbs

Protokoll-Wahrscheinlichkeitsinformationen für die Auswahl.

Name Type Description Required Default
content array Eine Liste der Nachrichteninhaltstoken mit Protokollwahrscheinlichkeitsinformationen. Yes
refusal array Eine Liste der Nachrichtenverweigerungstoken mit Protokollwahrscheinlichkeitsinformationen. No

chatCompletionTokenLogprob

Name Type Description Required Default
token string The token. Yes
logprob number Die Protokollwahrscheinlichkeit dieses Tokens. Yes
bytes array Eine Liste der ganzzahligen Zahlen, die die UTF-8 Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden, und ihre Bytedarstellungen müssen kombiniert werden, um die richtige Textdarstellung zu generieren. Kann sein null , wenn für das Token keine Bytedarstellung vorhanden ist. Yes
top_logprobs array Liste der höchstwahrscheinlichen Token und deren Protokollwahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen kann es weniger als die Anzahl der angeforderten top_logprobs Rückgaben geben. Yes

chatCompletionResponseMessage

Eine vom Modell generierte Chatabschlussnachricht.

Name Type Description Required Default
role chatCompletionResponseMessageRole Die Rolle des Autors der Antwortnachricht. Yes
refusal string Die vom Modell generierte Ablehnungsmeldung. Yes
content string Der Inhalt der Nachricht. Yes
tool_calls array Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. No
function_call chatCompletionFunctionCall Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
context azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen beteiligt sind
in der Generierung einer entsprechenden Chatabschlussantwort. Diese Kontextinformationen werden nur ausgefüllt, wenn
Verwenden einer Azure OpenAI-Anforderung, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist.
No

chatCompletionResponseMessageRole

Die Rolle des Autors der Antwortnachricht.

Beschreibung: Die Rolle des Autors der Antwortnachricht.

Type: string

Default:

Enum Values:

  • assistant

chatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Diese Komponente kann eine der folgenden Sein:

chatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Type Description Required Default
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
Yes
function object Yes

Eigenschaften für Funktion

name

Name Type Description Default
name string Der Name der funktion, die aufgerufen werden soll.

ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionMessageToolCalls

Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionFunctionCall

Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.

Name Type Description Required Default
name string Der Name der funktion, die aufgerufen werden soll. Yes
arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. Yes

completionUsage

Nutzungsstatistiken für die Abschlussanforderung.

Name Type Description Required Default
prompt_tokens integer Anzahl der Token in der Eingabeaufforderung. Yes
completion_tokens integer Anzahl der Token im generierten Abschluss. Yes
total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). Yes
completion_tokens_details object Aufschlüsselung der in einem Abschluss verwendeten Token. No

Eigenschaften für completion_tokens_details

reasoning_tokens

Name Type Description Default
reasoning_tokens integer Vom Modell generierte Token zur Begründung.

chatCompletionTool

Name Type Description Required Default
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
Yes
function FunctionObject Yes

FunctionParameters

Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.

Für diese Komponente sind keine Eigenschaften definiert.

FunctionObject

Name Type Description Required Default
description string Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name string Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Yes
parameters FunctionParameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
No
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf "true" festgelegt ist, folgt das Modell dem genauen Schema, das parameters im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. No False

ResponseFormatText

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats: text
Mögliche Werte: Text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats: json_object
Mögliche Werte: json_object
Yes

ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseFormatJsonSchema

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats: json_schema
Mögliche Werte: json_schema
Yes
json_schema object Yes

Eigenschaften für json_schema

description

Name Type Description Default
description string Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert.

name

Name Type Description Default
name string Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64.

schema

Name Type Description Default
schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

strict

Name Type Description Default
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. False

chatCompletionChoiceCommon

Name Type Description Required Default
index integer No
finish_reason string No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Die zu übersetzende Audiodatei. Yes
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

audioResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format json war

Name Type Description Required Default
text string Übersetzter oder transkribierter Text. Yes

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json

Name Type Description Required Default
text string Übersetzter oder transkribierter Text. Yes
task string Typ der Audioaufgabe. No
language string Language. No
duration number Duration. No
segments array No

audioResponseFormat

Definiert das Format der Ausgabe.

Beschreibung: Definiert das Format der Ausgabe.

Type: string

Default:

Enum Values:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Das zu transkribierende Audiodateiobjekt. Yes
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. No

audioSegment

Transkription oder Übersetzungssegment.

Name Type Description Required Default
id integer Segment identifier. No
seek number Offset des Segments. No
start number Segmentanfangsoffset. No
end number Segmentende-Offset. No
text string Segment text. No
tokens array Token des Texts. No
temperature number Temperature. No
avg_logprob number Durchschnittliche Protokollwahrscheinlichkeit. No
compression_ratio number Compression ratio. No
no_speech_prob number Wahrscheinlichkeit von no speech. No

imageQuality

Die Qualität des Bilds, das generiert wird.

Beschreibung: Die Qualität des Bilds, das generiert wird.

Type: string

Default: standard

Enumerationsname: Qualität

Enum Values:

Value Description
standard Standardqualität schafft Bilder mit Standardqualität.
hd Hd-Qualität schafft Bilder mit feineren Details und größerer Konsistenz im gesamten Bild.

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden.

Type: string

Default: url

Enumerationsname: ImagesResponseFormat

Enum Values:

Value Description
url Die URL, die temporären Zugriff zum Herunterladen der generierten Bilder bietet.
b64_json Die generierten Bilder werden als base64-codierte Zeichenfolge zurückgegeben.

imageSize

Die Größe der generierten Bilder.

Beschreibung: Die Größe der generierten Bilder.

Type: string

Default: 1024x1024

Enumerationsname: Größe

Enum Values:

Value Description
1792x1024 Die gewünschte Größe des generierten Bilds beträgt 1792 x 1024 Pixel.
1024x1792 Die gewünschte Größe des generierten Bilds beträgt 1024 x 1792 Pixel.
1024x1024 Die gewünschte Größe des generierten Bilds beträgt 1024 x 1024 Pixel.

imageStyle

Die Formatvorlage der generierten Bilder.

Beschreibung: Die Formatvorlage der generierten Bilder.

Type: string

Default: vivid

Enumerationsname: Formatvorlage

Enum Values:

Value Description
vivid Lebendig erzeugt Bilder, die hyperrealistisch und dramatisch sind.
natural Natürlich erzeugt Bilder, die natürlicher und weniger hyperrealistisch sind.

imageGenerationsRequest

Name Type Description Required Default
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. Yes
n integer Die Anzahl der zu generierenden Bilder. No 1
size imageSize Die Größe der generierten Bilder. No 1024x1024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No
quality imageQuality Die Qualität des Bilds, das generiert wird. No standard
style imageStyle Die Formatvorlage der generierten Bilder. No vivid

generateImagesResponse

Name Type Description Required Default
created integer Der Unix-Zeitstempel, als der Vorgang erstellt wurde. Yes
data array Die Ergebnisdaten des Vorgangs, falls erfolgreich Yes

imageResult

Die Bild-URL oder das codierte Bild bei erfolgreicher Ausführung und andernfalls ein Fehler.

Name Type Description Required Default
url string Die Bild-URL. No
b64_json string Das base64-codierte Bild No
content_filter_results dalleContentFilterResults Informationen zu den Ergebnissen der Inhaltsfilterung. No
revised_prompt string Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. No
prompt_filter_results dalleFilterResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. No

Completions extensions

Fertigstellungserweiterungen sind nicht Teil der neuesten GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation.

Chatmessage

Das Chatnachrichtenobjekt ist nicht Teil der neuesten GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation.

Text in Sprache (Vorschau)

Ist derzeit nicht Teil der neuesten Azure OpenAI GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation. Weitere Informationen finden Sie in der neuesten version preview version für diese Funktion.

Next steps

Erfahren Sie mehr über Modelle und feinabstimmungen mit der REST-API. Erfahren Sie mehr über die modelle underlying that power Azure OpenAI.