Azure OpenAI in Microsoft Foundry Models REST API-Referenz

Dieser Artikel enthält Details zu den Ableitungs-REST-API-Endpunkten für Azure OpenAI.

API-Spezifikationen

Das Verwalten und Interagieren mit Azure OpenAI-Modellen und -Ressourcen ist auf drei primäre API-Oberflächen aufgeteilt:

  • Steuerebene
  • Datenebene – Erstellung
  • Datenebene – Ableitung

Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API verfügt über einen eigenen eindeutigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA)-API-Versionen. Vorschauversionen folgen derzeit einem monatlichen Rhythmus.

Wichtig

Es gibt jetzt eine neue Vorschau-Ableitungs-API. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.

API Neueste Vorschauversion Neueste GA-Version Spezifikationen Beschreibung
Steuerebene 2025-07-01-preview 2025-06-01 Spec-Dateien Die Steuerungsebenen-API wird für Vorgänge wie das Erstellen von Ressourcen, modellbasierte Bereitstellung und andere Ressourcenverwaltungsaufgaben auf höherer Ebene verwendet. Die Steuerungsebene steuert auch, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist.
Datenebene v1 preview v1 Spec-Dateien Die Datenebenen-API steuert Ableitungs- und Erstellungsvorgänge.

Authentifizierung

Azure OpenAI bietet zwei Methoden für die Authentifizierung. Sie können entweder API-Schlüssel oder Microsoft Entra ID verwenden.

  • API-Schlüsselauthentifizierung: Für diesen Authentifizierungstyp müssen alle API-Anforderungen den API-Schlüssel im api-key HTTP-Header enthalten. Die Schnellstartanleitung enthält Anleitungen zum Tätigen von Anrufen mit diesem Authentifizierungstyp.

  • Microsoft Entra ID authentication: Sie können einen API-Aufruf mithilfe eines Microsoft Entra Tokens authentifizieren. Authentifizierungstoken sind in einer Anforderung als Authorization Header enthalten. Das bereitgestellte Token muss z. BBearer YOUR_AUTH_TOKEN. vorangestellt Bearersein. Sie können unsere Anleitung zu Authenticating mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs werden mithilfe des api-version Abfrageparameters versionsgesteuert. Alle Versionen folgen der Datumsstruktur JJJJ-MM-DD. Zum Beispiel:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Datenebenen-Ableitung

Der Rest des Artikels behandelt die GA-Freigabe der Azure OpenAI-Datenebenen-Ableitungsspezifikation, 2024-10-21.

Wenn Sie nach Dokumentationen zur neuesten Vorschau-API-Version suchen, lesen Sie die neueste Vorschaudatenebenen-Ableitungs-API.

Abschlüsse

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

URI-Parameter

Namen In Erforderlich Typ Beschreibung
Endpunkt Pfad Ja Schnur
Url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id Pfad Ja Schnur Bereitstellungs-ID des Modells, das bereitgestellt wurde.
API-Version Abfrage Ja Schnur API-Version

Anforderungsheader

Namen Erforderlich Typ Beschreibung
API-Schlüssel STIMMT Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Namen Typ Beschreibung Erforderlich Standard
Eingabeaufforderung Zeichenfolge oder Matrix Die Eingabeaufforderungen zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Arrays von Token oder Arrays von Tokenarrays codiert werden sollen.

Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell vom Anfang eines neuen Dokuments generiert.
Ja
best_of Ganzzahl Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.

Bei Verwendung mit n, best_of steuert die Anzahl der Fertigstellungen von Kandidaten und n gibt an, wie viele zurückgegeben werden nsollen . best_of

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
Nein 1
Echo Boolean Echo der Eingabeaufforderung zusätzlich zum Abschluss
Nein FALSE
frequency_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.

Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird.
Nein Nichts
logprobs Ganzzahl Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn logprobs beispielsweise 5 ist, gibt die API eine Liste der fünf höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob beispielgesteuerte Token zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.

Der Maximalwert für logprobs 5.
Nein Nichts
max_tokens Ganzzahl Die maximale Anzahl von Token, die im Abschluss generiert werden können.

Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
Nein 16
N Ganzzahl Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen.

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
Nein 1
presence_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
Nein 0
Samen Ganzzahl Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
Nein
Stoppen Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz.
Nein
Stream Boolean Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Nein FALSE
Suffix Schnur Das Suffix, das nach abschluss des eingefügten Texts kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instruct.
Nein Nichts
Temperatur Anzahl Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
Nein 1
top_p Anzahl Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
Nein 1
Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
Nein

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
application/json createCompletionResponse Stellt eine Abschlussantwort der API dar. Hinweis: Sowohl die gestreamten als auch nichtstreamten Antwortobjekte verwenden dasselbe Shape (im Gegensatz zum Chatendpunkt).

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Inhaltstyp Typ Beschreibung
application/json errorResponse

Beispiele

Beispiel

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Einbettungen

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden kann.

URI-Parameter

Namen In Erforderlich Typ Beschreibung
Endpunkt Pfad Ja Schnur
Url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id Pfad Ja Schnur
API-Version Abfrage Ja Schnur API-Version

Anforderungsheader

Namen Erforderlich Typ Beschreibung
API-Schlüssel STIMMT Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Namen Typ Beschreibung Erforderlich Standard
Eingabe Zeichenfolge oder Matrix Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Um mehrere Eingaben in eine einzelne Anforderung einzubetten, übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays. Die Eingabe darf die maximalen Eingabetoken für das Modell (8.192 Token für text-embedding-ada-002), keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. Ja
Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. Nein
input_type Schnur Eingabetyp der zu verwendenden Einbettungssuche Nein
encoding_format Schnur Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64. Standardwert ist .float Nein
Dimensionen Ganzzahl Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. Nein

Antworten

Namen Typ Beschreibung Erforderlich Standard
Objekt Schnur Ja
Modell Schnur Ja
Daten Array Ja
Verwendung Objekt Ja

Eigenschaften für die Verwendung

prompt_tokens

Namen Typ Beschreibung Standard
prompt_tokens Ganzzahl

total_tokens

Namen Typ Beschreibung Standard
total_tokens Ganzzahl

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
application/json Objekt

Beispiele

Beispiel

Gibt die Einbettungen für eine bestimmte Eingabeaufforderung zurück.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chatabschluss

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Erstellt einen Abschluss für die Chatnachricht

URI-Parameter

Namen In Erforderlich Typ Beschreibung
Endpunkt Pfad Ja Schnur
Url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id Pfad Ja Schnur Bereitstellungs-ID des Modells, das bereitgestellt wurde.
API-Version Abfrage Ja Schnur API-Version

Anforderungsheader

Namen Erforderlich Typ Beschreibung
API-Schlüssel STIMMT Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Namen Typ Beschreibung Erforderlich Standard
Temperatur Anzahl Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
Nein 1
top_p Anzahl Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
Nein 1
Stream Boolean Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Nein FALSE
Stoppen Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert.
Nein
max_tokens Ganzzahl Die maximale Anzahl von Token, die im Chatabschluss generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt.
Nein
max_completion_tokens Ganzzahl Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
presence_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
Nein 0
frequency_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.
Nein Nichts
Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
Nein
Nachrichten Array Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Ja
data_sources Array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
Nein
logprobs Boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. Nein FALSE
top_logprobs Ganzzahl Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. Nein
N Ganzzahl Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. Nein 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein STIMMT
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die garantiert, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Nein
Samen Ganzzahl Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
Nein
Werkzeuge Array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt.
Nein
tool_choice chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. Nein
function_call string or chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

none ist der Standardwert, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
Nein
Funktionen Array Veraltet zugunsten von tools.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
application/json createChatCompletionResponse oder createChatCompletionStreamResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Inhaltstyp Typ Beschreibung
application/json errorResponse

Beispiele

Beispiel

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt einen Abschluss basierend auf Azure Suchdaten und vom System zugewiesener verwalteter Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt einen Abschluss basierend auf Azure Suchvektordaten, vorheriger Assistant-Nachricht und der vom Benutzer zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt einen Abschluss für die bereitgestellte Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen - Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transkribiert Audio in die Eingabesprache.

URI-Parameter

Namen In Erforderlich Typ Beschreibung
Endpunkt Pfad Ja Schnur
Url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id Pfad Ja Schnur Bereitstellungs-ID der Sprache im Textmodell.

Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models].
API-Version Abfrage Ja Schnur API-Version

Anforderungsheader

Namen Erforderlich Typ Beschreibung
API-Schlüssel STIMMT Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: multipart/form-data

Namen Typ Beschreibung Erforderlich Standard
Datei Schnur Das zu transkribierende Audiodateiobjekt. Ja
Eingabeaufforderung Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. Nein
response_format audioResponseFormat Definiert das Format der Ausgabe. Nein
Temperatur Anzahl Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0
Sprache Schnur Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. Nein

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
application/json audioResponse oder audioVerboseResponse
Text/Nur-Text Schnur Transkribierter Text im Ausgabeformat (wenn response_format einer von Text, vtt oder srt war).

Beispiele

Beispiel

Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Beispiel

Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen - Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transkribiert und übersetzt Eingabeaudio in englischen Text.

URI-Parameter

Namen In Erforderlich Typ Beschreibung
Endpunkt Pfad Ja Schnur
Url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id Pfad Ja Schnur Bereitstellungs-ID des Flüstermodells, das bereitgestellt wurde.

Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models].
API-Version Abfrage Ja Schnur API-Version

Anforderungsheader

Namen Erforderlich Typ Beschreibung
API-Schlüssel STIMMT Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: multipart/form-data

Namen Typ Beschreibung Erforderlich Standard
Datei Schnur Die zu übersetzende Audiodatei. Ja
Eingabeaufforderung Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. Nein
response_format audioResponseFormat Definiert das Format der Ausgabe. Nein
Temperatur Anzahl Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0

Antworten

Statuscode: 200

Beschreibung: OK

Inhaltstyp Typ Beschreibung
application/json audioResponse oder audioVerboseResponse
Text/Nur-Text Schnur Transkribierter Text im Ausgabeformat (wenn response_format einer von Text, vtt oder srt war).

Beispiele

Beispiel

Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Beispiel

Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Bildgenerierung

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Generiert einen Batch von Bildern aus einer Textbeschriftung für eine bestimmte Dall-e-Modellbereitstellung.

URI-Parameter

Namen In Erforderlich Typ Beschreibung
Endpunkt Pfad Ja Schnur
Url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id Pfad Ja Schnur Bereitstellungs-ID des bereitgestellten Dall-e-Modells.
API-Version Abfrage Ja Schnur API-Version

Anforderungsheader

Namen Erforderlich Typ Beschreibung
API-Schlüssel STIMMT Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Namen Typ Beschreibung Erforderlich Standard
Eingabeaufforderung Schnur Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. Ja
N Ganzzahl Die Anzahl der zu generierenden Bilder. Nein 1
Größe Imagesize Die Größe der generierten Bilder. Nein 1024 x 1024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Nein Url
Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. Nein
Qualität imageQuality Die Qualität des Bilds, das generiert wird. Nein Standard
Stil imageStyle Die Formatvorlage der generierten Bilder. Nein Lebendige

Antworten

Statuscode: 200

Beschreibung: Ok

Inhaltstyp Typ Beschreibung
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Inhaltstyp Typ Beschreibung
application/json dalleErrorResponse

Beispiele

Beispiel

Erstellt Bilder mit einer Eingabeaufforderung.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Komponenten

errorResponse

Namen Typ Beschreibung Erforderlich Standard
Fehler Fehler Nein

errorBase

Namen Typ Beschreibung Erforderlich Standard
Code Schnur Nein
Nachricht Schnur Nein

Fehler

Namen Typ Beschreibung Erforderlich Standard
Param Schnur Nein
Typ Schnur Nein
inner_error innerError Innerer Fehler mit zusätzlichen Details. Nein

innerError

Innerer Fehler mit zusätzlichen Details.

Namen Typ Beschreibung Erforderlich Standard
Code innerErrorCode Fehlercodes für das innere Fehlerobjekt. Nein
content_filter_results contentFilterPromptResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. Nein

innerErrorCode

Fehlercodes für das innere Fehlerobjekt.

Beschreibung: Fehlercodes für das innere Fehlerobjekt.

Typ: Zeichenfolge

Standard:

Enumerationsname: InnerErrorCode

Enumerationswerte:

Wert Beschreibung
ResponsibleAIPolicyViolation Die Eingabeaufforderung verletzte eine der weiteren Inhaltsfilterregeln.

dalleErrorResponse

Namen Typ Beschreibung Erforderlich Standard
Fehler dalleError Nein

dalleError

Namen Typ Beschreibung Erforderlich Standard
Param Schnur Nein
Typ Schnur Nein
inner_error dalleInnerError Innerer Fehler mit zusätzlichen Details. Nein

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Namen Typ Beschreibung Erforderlich Standard
Code innerErrorCode Fehlercodes für das innere Fehlerobjekt. Nein
content_filter_results dalleFilterResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. Nein
revised_prompt Schnur Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. Nein

contentFilterResultBase

Namen Typ Beschreibung Erforderlich Standard
Gefiltert Boolean Ja

contentFilterSeverityResult

Namen Typ Beschreibung Erforderlich Standard
Gefiltert Boolean Ja
Schweregrad Schnur Nein

contentFilterDetectedResult

Namen Typ Beschreibung Erforderlich Standard
Gefiltert Boolean Ja
Erkannt Boolean Nein

contentFilterDetectedWithCitationResult

Namen Typ Beschreibung Erforderlich Standard
Zitat Objekt Nein

Eigenschaften für Zitate

URL

Namen Typ Beschreibung Standard
URL Schnur

Lizenz

Namen Typ Beschreibung Standard
Lizenz Schnur

contentFilterResultsBase

Informationen zu den Ergebnissen der Inhaltsfilterung.

Namen Typ Beschreibung Erforderlich Standard
Sexuelle contentFilterSeverityResult Nein
Gewalt contentFilterSeverityResult Nein
Hass contentFilterSeverityResult Nein
self_harm contentFilterSeverityResult Nein
Profanität contentFilterDetectedResult Nein
Fehler errorBase Nein

contentFilterPromptResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.

Namen Typ Beschreibung Erforderlich Standard
Sexuelle contentFilterSeverityResult Nein
Gewalt contentFilterSeverityResult Nein
Hass contentFilterSeverityResult Nein
self_harm contentFilterSeverityResult Nein
Profanität contentFilterDetectedResult Nein
Fehler errorBase Nein
Jailbreak contentFilterDetectedResult Nein

contentFilterChoiceResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Text und Profanität von Drittanbietern, sofern er erkannt wurde und ob er gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.

Namen Typ Beschreibung Erforderlich Standard
Sexuelle contentFilterSeverityResult Nein
Gewalt contentFilterSeverityResult Nein
Hass contentFilterSeverityResult Nein
self_harm contentFilterSeverityResult Nein
Profanität contentFilterDetectedResult Nein
Fehler errorBase Nein
protected_material_text contentFilterDetectedResult Nein
protected_material_code contentFilterDetectedWithCitationResult Nein

promptFilterResult

Ergebnisse der Inhaltsfilterung für eine einzelne Eingabeaufforderung in der Anforderung.

Namen Typ Beschreibung Erforderlich Standard
prompt_index Ganzzahl Nein
content_filter_results contentFilterPromptResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. Nein

promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen.

Für diese Komponente sind keine Eigenschaften definiert.

dalleContentFilterResults

Informationen zu den Ergebnissen der Inhaltsfilterung.

Namen Typ Beschreibung Erforderlich Standard
Sexuelle contentFilterSeverityResult Nein
Gewalt contentFilterSeverityResult Nein
Hass contentFilterSeverityResult Nein
self_harm contentFilterSeverityResult Nein

dalleFilterResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID.

Namen Typ Beschreibung Erforderlich Standard
Sexuelle contentFilterSeverityResult Nein
Gewalt contentFilterSeverityResult Nein
Hass contentFilterSeverityResult Nein
self_harm contentFilterSeverityResult Nein
Profanität contentFilterDetectedResult Nein
Jailbreak contentFilterDetectedResult Nein

chatCompletionsRequestCommon

Namen Typ Beschreibung Erforderlich Standard
Temperatur Anzahl Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
Nein 1
top_p Anzahl Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.
Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
Nein 1
Stream Boolean Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Nein FALSE
Stoppen Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Nein
max_tokens Ganzzahl Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig lautet die Anzahl der Token, die das Modell zurückgeben kann (4096 – Eingabeaufforderungstoken). Dieser Wert ist nun zugunsten von max_completion_tokens" veraltet" und ist nicht mit o1-Serienmodellen kompatibel. Nein 4096
max_completion_tokens Ganzzahl Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
presence_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. Nein 0
frequency_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. Nein
Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

createCompletionRequest

Namen Typ Beschreibung Erforderlich Standard
Eingabeaufforderung Zeichenfolge oder Matrix Die Eingabeaufforderungen zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Arrays von Token oder Arrays von Tokenarrays codiert werden sollen.

Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell vom Anfang eines neuen Dokuments generiert.
Ja
best_of Ganzzahl Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.

Bei Verwendung mit n, best_of steuert die Anzahl der Fertigstellungen von Kandidaten und n gibt an, wie viele zurückgegeben werden nsollen . best_of

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
Nein 1
Echo Boolean Echo der Eingabeaufforderung zusätzlich zum Abschluss
Nein FALSE
frequency_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.

Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird.
Nein Nichts
logprobs Ganzzahl Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn logprobs beispielsweise 5 ist, gibt die API eine Liste der fünf höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob beispielgesteuerte Token zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.

Der Maximalwert für logprobs 5.
Nein Nichts
max_tokens Ganzzahl Die maximale Anzahl von Token, die im Abschluss generiert werden können.

Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
Nein 16
N Ganzzahl Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen.

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
Nein 1
presence_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
Nein 0
Samen Ganzzahl Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
Nein
Stoppen Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz.
Nein
Stream Boolean Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Nein FALSE
Suffix Schnur Das Suffix, das nach abschluss des eingefügten Texts kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instruct.
Nein Nichts
Temperatur Anzahl Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
Nein 1
top_p Anzahl Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
Nein 1
Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
Nein

createCompletionResponse

Stellt eine Abschlussantwort der API dar. Hinweis: Sowohl die gestreamten als auch nichtstreamten Antwortobjekte verwenden dasselbe Shape (im Gegensatz zum Chatendpunkt).

Namen Typ Beschreibung Erforderlich Standard
Id Schnur Ein eindeutiger Bezeichner für den Abschluss. Ja
Entscheidungen Array Die Liste der Abschlussoptionen, die das Modell für die Eingabeaufforderung generiert hat. Ja
Erstellt Ganzzahl Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Abschlusses. Ja
Modell Schnur Das Modell, das für den Abschluss verwendet wird. Ja
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. Nein
system_fingerprint Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
Nein
Objekt Enum Der Objekttyp, der immer "text_completion" ist
Mögliche Werte: text_completion
Ja
Verwendung completionUsage Nutzungsstatistiken für die Abschlussanforderung. Nein

createChatCompletionRequest

Namen Typ Beschreibung Erforderlich Standard
Temperatur Anzahl Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
Nein 1
top_p Anzahl Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
Nein 1
Stream Boolean Falls festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Nein FALSE
Stoppen Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert.
Nein
max_tokens Ganzzahl Die maximale Anzahl von Token, die im Chatabschluss generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt.
Nein
max_completion_tokens Ganzzahl Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
presence_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
Nein 0
frequency_penalty Anzahl Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
Nein 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.
Nein Nichts
Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
Nein
Nachrichten Array Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Ja
data_sources Array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
Nein
logprobs Boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. Nein FALSE
top_logprobs Ganzzahl Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. Nein
N Ganzzahl Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. Nein 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein STIMMT
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die garantiert, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Nein
Samen Ganzzahl Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
Nein
Werkzeuge Array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt.
Nein
tool_choice chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. Nein
function_call string or chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

none ist der Standardwert, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
Nein
Funktionen Array Veraltet zugunsten von tools.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein

chatCompletionFunctions

Namen Typ Beschreibung Erforderlich Standard
Beschreibung Schnur Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
Namen Schnur Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Ja
Parameter FunctionParameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
Nein

chatCompletionFunctionCallOption

Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

Namen Typ Beschreibung Erforderlich Standard
Namen Schnur Der Name der funktion, die aufgerufen werden soll. Ja

chatCompletionRequestMessage

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestSystemMessage

Namen Typ Beschreibung Erforderlich Standard
Inhalt Zeichenfolge oder Matrix Der Inhalt der Systemnachricht. Ja
Rolle Enum Die Rolle des Autors von Nachrichten in diesem Fall system.
Mögliche Werte: System
Ja
Namen Schnur Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein

chatCompletionRequestUserMessage

Namen Typ Beschreibung Erforderlich Standard
Inhalt Zeichenfolge oder Matrix Der Inhalt der Benutzernachricht.
Ja
Rolle Enum Die Rolle des Autors von Nachrichten in diesem Fall user.
Mögliche Werte: Benutzer
Ja
Namen Schnur Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein

chatCompletionRequestAssistantMessage

Namen Typ Beschreibung Erforderlich Standard
Inhalt Zeichenfolge oder Matrix Der Inhalt der Assistentennachricht. Erforderlich, es sei denn tool_calls , oder function_call es wird angegeben.
Nein
Weigerung Schnur Die Ablehnungsnachricht des Assistenten. Nein
Rolle Enum Die Rolle des Autors von Nachrichten in diesem Fall assistant.
Mögliche Werte: Assistent
Ja
Namen Schnur Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
tool_calls chatCompletionMessageToolCalls Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. Nein
function_call Objekt Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein

Eigenschaften für function_call

Argumente

Namen Typ Beschreibung Standard
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

Namen

Namen Typ Beschreibung Standard
Namen Schnur Der Name der funktion, die aufgerufen werden soll.

chatCompletionRequestToolMessage

Namen Typ Beschreibung Erforderlich Standard
Rolle Enum Die Rolle des Autors von Nachrichten in diesem Fall tool.
Mögliche Werte: Tool
Ja
Inhalt Zeichenfolge oder Matrix Der Inhalt der Toolnachricht. Ja
tool_call_id Schnur Toolaufruf, auf den diese Nachricht reagiert. Ja

chatCompletionRequestFunctionMessage

Namen Typ Beschreibung Erforderlich Standard
Rolle Enum Die Rolle des Autors von Nachrichten in diesem Fall function.
Mögliche Werte: Funktion
Ja
Inhalt Schnur Der Inhalt der Funktionsmeldung. Ja
Namen Schnur Der Name der funktion, die aufgerufen werden soll. Ja

chatCompletionRequestSystemMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestUserMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestAssistantMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestToolMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestMessageContentPartText

Namen Typ Beschreibung Erforderlich Standard
Typ Enum Der Typ des Inhaltsteils.
Mögliche Werte: Text
Ja
Text Schnur Der Textinhalt. Ja

chatCompletionRequestMessageContentPartImage

Namen Typ Beschreibung Erforderlich Standard
Typ Enum Der Typ des Inhaltsteils.
Mögliche Werte: image_url
Ja
image_url Objekt Ja

Eigenschaften für image_url

Url

Namen Typ Beschreibung Standard
Url Schnur Entweder eine URL des Bilds oder die base64-codierten Bilddaten.

Detail

Namen Typ Beschreibung Standard
Detail Schnur Gibt die Detailebene des Bilds an. Weitere Informationen finden Sie im Vision-Leitfaden. Auto

chatCompletionRequestMessageContentPartRefusal

Namen Typ Beschreibung Erforderlich Standard
Typ Enum Der Typ des Inhaltsteils.
Mögliche Werte: Ablehnung
Ja
Weigerung Schnur Die vom Modell generierte Ablehnungsmeldung. Ja

azureChatExtensionConfiguration

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Namen Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet.
Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja

azureChatExtensionType

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Description: Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Typ: Zeichenfolge

Standard:

Enumerationsname: AzureChatExtensionType

Enumerationswerte:

Wert Beschreibung
azure_search Stellt die Verwendung von Azure Search als Azure OpenAI-Chaterweiterung dar.
azure_cosmos_db Stellt die Verwendung von Azure Cosmos DB als Azure OpenAI-Chaterweiterung dar.

azureSearchChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Suche, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Namen Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet.
Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter azureSearchChatExtensionParameters Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden. Nein

azureSearchChatExtensionParameters

Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden.

Namen Typ Beschreibung Erforderlich Standard
Authentifizierung onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions Ja
top_n_documents Ganzzahl Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. Nein
in_scope Boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. Nein
Strenge Ganzzahl Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. Nein
role_information Schnur Geben Sie dem Modell Anweisungen dazu, wie es sich verhalten soll, und auf jeden Kontext, auf den es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihnen mitteilen, wie Sie Antworten formatieren. Dafür gibt es ein Tokenlimit von 100, und es zählt gegen den gesamten Tokengrenzwert. Nein
Endpunkt Schnur Der absolute Endpunktpfad für die zu verwendende Azure Suchressource. Ja
Index_name Schnur Der Name des Indexes, der in der referenzierten Azure Suchressource als verfügbar verwendet werden soll. Ja
fields_mapping azureSearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Suchressource. Nein
query_type azureSearchQueryType Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll. Nein
semantic_configuration Schnur Die zusätzliche semantische Konfiguration für die Abfrage. Nein
Filter Schnur Suchfilter. Nein
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Nein

azureSearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Suchressource.

Namen Typ Beschreibung Erforderlich Standard
title_field Schnur Der Name des Indexfelds, das als Titel verwendet werden soll. Nein
url_field Schnur Der Name des Indexfelds, das als URL verwendet werden soll. Nein
filepath_field Schnur Der Name des Indexfelds, das als Dateipfad verwendet werden soll. Nein
content_fields Array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Nein
content_fields_separator Schnur Das Trennmuster, das Inhaltsfelder verwenden sollen. Nein
vector_fields Array Die Namen von Feldern, die Vektordaten darstellen. Nein

azureSearchQueryType

Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.

Description: Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.

Typ: Zeichenfolge

Standard:

Enumerationsname: AzureSearchQueryType

Enumerationswerte:

Wert Beschreibung
Einfach Stellt den Standardmäßigen einfachen Abfrageparser dar.
Semantische Stellt den Semantikabfrageparser für die erweiterte semantische Modellierung dar.
Vektor Stellt die Vektorsuche über berechnete Daten dar.
vector_simple_hybrid Stellt eine Kombination der einfachen Abfragestrategie mit Vektordaten dar.
vector_semantic_hybrid Stellt eine Kombination aus semantischer Suche und Vektordatenabfrage dar.

azureCosmosDBChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Namen Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einem Chat verwendet.
Abschlussanforderung, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter azureCosmosDBChatExtensionParameters Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat Extensions verwendet werden sollen, wenn Azure Cosmos DB für
MongoDB vCore.
Nein

azureCosmosDBChatExtensionParameters

Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat Extensions verwendet werden sollen, wenn Azure Cosmos DB für MongoDB vCore verwendet werden.

Namen Typ Beschreibung Erforderlich Standard
Authentifizierung onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Verbindungszeichenfolge. Ja
top_n_documents Ganzzahl Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. Nein
in_scope Boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. Nein
Strenge Ganzzahl Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. Nein
role_information Schnur Geben Sie dem Modell Anweisungen dazu, wie es sich verhalten soll, und auf jeden Kontext, auf den es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihnen mitteilen, wie Sie Antworten formatieren. Dafür gibt es ein Tokenlimit von 100, und es zählt gegen den gesamten Tokengrenzwert. Nein
Database_name Schnur Der Name der MongoDB-vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll. Ja
container_name Schnur Der Name des Azure Cosmos DB-Ressourcencontainers. Ja
Index_name Schnur Der Name des MongoDB-vCore-Indexes, der mit Azure Cosmos DB verwendet werden soll. Ja
fields_mapping azureCosmosDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB Ressource. Ja
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Ja

azureCosmosDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB Ressource.

Namen Typ Beschreibung Erforderlich Standard
title_field Schnur Der Name des Indexfelds, das als Titel verwendet werden soll. Nein
url_field Schnur Der Name des Indexfelds, das als URL verwendet werden soll. Nein
filepath_field Schnur Der Name des Indexfelds, das als Dateipfad verwendet werden soll. Nein
content_fields Array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Ja
content_fields_separator Schnur Das Trennmuster, das Inhaltsfelder verwenden sollen. Nein
vector_fields Array Die Namen von Feldern, die Vektordaten darstellen. Ja

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten.

Namen Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Ja

onYourDataAuthenticationType

Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.

Description: Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.

Typ: Zeichenfolge

Standard:

Enumerationsname: OnYourDataAuthenticationType

Enumerationswerte:

Wert Beschreibung
api_key Authentifizierung über API-Schlüssel.
connection_string Authentifizierung über Verbindungszeichenfolge.
system_assigned_managed_identity Authentifizierung über vom System zugewiesene verwaltete Identität.
user_assigned_managed_identity Authentifizierung über vom Benutzer zugewiesene verwaltete Identität.

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.

Namen Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Ja
Schlüssel Schnur Der FÜR die Authentifizierung zu verwendende API-Schlüssel. Nein

onYourDataConnectionStringAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Verbindungszeichenfolge.

Namen Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Ja
connection_string Schnur Die für die Authentifizierung zu verwendende Verbindungszeichenfolge. Nein

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.

Namen Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Ja

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.

Namen Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Ja
managed_identity_resource_id Schnur Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. Nein

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.

Namen Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
Vektorsuche.
Ja

onYourDataVectorizationSourceType

Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data verwendet werden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren.

Description: Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
Vektorsuche.

Typ: Zeichenfolge

Standard:

Enumerationsname: OnYourDataVectorizationSourceType

Enumerationswerte:

Wert Beschreibung
Endpunkt Stellt die Vektorisierung dar, die von öffentlichen Dienstaufrufen an ein Azure OpenAI-Einbettungsmodell ausgeführt wird.
deployment_name Stellt einen zu verwendenden Ada-Modellbereitstellungsnamen dar. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber
In Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch Vektoren aktiviert werden.
auch in privaten Netzwerken suchen.

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert.

Namen Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
Vektorsuche.
Ja
deployment_name Schnur Gibt den Namen der Modellbereitstellung an, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber In Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch die Vektorsuche auch in privaten Netzwerken ermöglicht wird. Nein

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Einbettungen basiert.

Namen Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data zum Konfigurieren der Vektorisierung von Daten für die Verwendung mit
Vektorsuche.
Ja
Authentifizierung onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. Nein
Endpunkt Schnur Gibt den Endpunkt an, der für die Vektorisierung verwendet werden soll. Dieser Endpunkt muss sich in derselben Azure OpenAI-Ressource befinden, aber In Ihren Daten wird dieser Endpunkt über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, der die Vektorsuche sogar in privaten Netzwerken ermöglicht. Nein

azureChatExtensionsMessageContext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung aufgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist.

Namen Typ Beschreibung Erforderlich Standard
Zitate Array Das Abrufergebnis der Datenquelle, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. Nein
Absicht Schnur Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um an die nächste Aufgabe zu übergeben, um den Kontext zu übernehmen. Nein

Zitat

Zitatinformationen für eine Chatabschlussantwortnachricht.

Namen Typ Beschreibung Erforderlich Standard
Inhalt Schnur Der Inhalt des Zitats. Ja
Titel Schnur Der Titel des Zitats. Nein
Url Schnur Die URL des Zitats. Nein
Filepath Schnur Der Dateipfad des Zitats. Nein
chunk_id Schnur Die Block-ID des Zitats. Nein

chatCompletionMessageToolCall

Namen Typ Beschreibung Erforderlich Standard
Id Schnur Die ID des Toolaufrufs. Ja
Typ toolCallType Der Typ des Toolaufrufs in diesem Fall function. Ja
Funktion Objekt Die Funktion, die das Modell aufgerufen hat. Ja

Eigenschaften für Funktion

Namen

Namen Typ Beschreibung Standard
Namen Schnur Der Name der funktion, die aufgerufen werden soll.

Argumente

Namen Typ Beschreibung Standard
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

toolCallType

Der Typ des Toolaufrufs in diesem Fall function.

Beschreibung: Der Typ des Toolaufrufs in diesem Fall function.

Typ: Zeichenfolge

Standard:

Enumerationsname: ToolCallType

Enumerationswerte:

Wert Beschreibung
Funktion Der Toolaufruftyp ist Funktion.

chatCompletionRequestMessageTool

Namen Typ Beschreibung Erforderlich Standard
tool_call_id Schnur Toolaufruf, auf den diese Nachricht reagiert. Nein
Inhalt Schnur Der Inhalt der Nachricht. Nein

chatCompletionRequestMessageFunction

Namen Typ Beschreibung Erforderlich Standard
Rolle Enum Die Rolle des Autors von Nachrichten in diesem Fall function.
Mögliche Werte: Funktion
Nein
Namen Schnur Der Inhalt der Nachricht. Nein
Inhalt Schnur Der Inhalt der Nachricht. Nein

createChatCompletionResponse

Stellt eine chat-Abschlussantwort dar, die nach Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.

Namen Typ Beschreibung Erforderlich Standard
Id Schnur Ein eindeutiger Bezeichner für den Chatabschluss. Ja
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. Nein
Entscheidungen Array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere sein, wenn n größer als 1 ist. Ja
Erstellt Ganzzahl Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Ja
Modell Schnur Das Modell, das für den Chatabschluss verwendet wird. Ja
system_fingerprint Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
Nein
Objekt Enum Der Objekttyp, der immer chat.completionist.
Mögliche Werte: chat.completion
Ja
Verwendung completionUsage Nutzungsstatistiken für die Abschlussanforderung. Nein

createChatCompletionStreamResponse

Stellt einen gestreamten Teil einer Chat-Abschlussantwort dar, die nach Dem Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.

Namen Typ Beschreibung Erforderlich Standard
Id Schnur Ein eindeutiger Bezeichner für den Chatabschluss. Jeder Block weist die gleiche ID auf. Ja
Entscheidungen Array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehr als ein Element enthalten, wenn n größer als 1 ist.
Ja
Erstellt Ganzzahl Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Jeder Block hat den gleichen Zeitstempel. Ja
Modell Schnur Das Modell, das den Abschluss generiert. Ja
system_fingerprint Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
Nein
Objekt Enum Der Objekttyp, der immer chat.completion.chunkist.
Mögliche Werte: chat.completion.chunk
Ja

chatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von streamten Modellantworten generiert wurde.

Namen Typ Beschreibung Erforderlich Standard
Inhalt Schnur Der Inhalt der Blocknachricht. Nein
function_call Objekt Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
tool_calls Array Nein
Rolle Enum Die Rolle des Autors dieser Nachricht.
Mögliche Werte: System, Benutzer, Assistent, Tool
Nein
Weigerung Schnur Die vom Modell generierte Ablehnungsmeldung. Nein

Eigenschaften für function_call

Argumente

Namen Typ Beschreibung Standard
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

Namen

Namen Typ Beschreibung Standard
Namen Schnur Der Name der funktion, die aufgerufen werden soll.

chatCompletionMessageToolCallChunk

Namen Typ Beschreibung Erforderlich Standard
Index Ganzzahl Ja
Id Schnur Die ID des Toolaufrufs. Nein
Typ Enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
Nein
Funktion Objekt Nein

Eigenschaften für Funktion

Namen

Namen Typ Beschreibung Standard
Namen Schnur Der Name der funktion, die aufgerufen werden soll.

Argumente

Namen Typ Beschreibung Standard
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen.

chatCompletionStreamOptions

Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.

Namen Typ Beschreibung Erforderlich Standard
include_usage Boolean Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert.
Nein

chatCompletionChoiceLogProbs

Protokoll-Wahrscheinlichkeitsinformationen für die Auswahl.

Namen Typ Beschreibung Erforderlich Standard
Inhalt Array Eine Liste der Nachrichteninhaltstoken mit Protokollwahrscheinlichkeitsinformationen. Ja
Weigerung Array Eine Liste der Nachrichtenverweigerungstoken mit Protokollwahrscheinlichkeitsinformationen. Nein

chatCompletionTokenLogprob

Namen Typ Beschreibung Erforderlich Standard
Token Schnur Das Token. Ja
logprob Anzahl Die Protokollwahrscheinlichkeit dieses Tokens. Ja
Bytes Array Eine Liste der ganzzahligen Zahlen, die die UTF-8 Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden, und ihre Bytedarstellungen müssen kombiniert werden, um die richtige Textdarstellung zu generieren. Kann sein null , wenn für das Token keine Bytedarstellung vorhanden ist. Ja
top_logprobs Array Liste der höchstwahrscheinlichen Token und deren Protokollwahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen kann es weniger als die Anzahl der angeforderten top_logprobs Rückgaben geben. Ja

chatCompletionResponseMessage

Eine vom Modell generierte Chatabschlussnachricht.

Namen Typ Beschreibung Erforderlich Standard
Rolle chatCompletionResponseMessageRole Die Rolle des Autors der Antwortnachricht. Ja
Weigerung Schnur Die vom Modell generierte Ablehnungsmeldung. Ja
Inhalt Schnur Der Inhalt der Nachricht. Ja
tool_calls Array Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. Nein
function_call chatCompletionFunctionCall Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
Kontext azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen beteiligt sind
in der Generierung einer entsprechenden Chatabschlussantwort. Diese Kontextinformationen werden nur ausgefüllt, wenn
Verwenden einer Azure OpenAI-Anforderung, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist.
Nein

chatCompletionResponseMessageRole

Die Rolle des Autors der Antwortnachricht.

Beschreibung: Die Rolle des Autors der Antwortnachricht.

Typ: Zeichenfolge

Standard:

Enumerationswerte:

  • Assistent

chatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Diese Komponente kann eine der folgenden Sein:

chatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Namen Typ Beschreibung Erforderlich Standard
Typ Enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
Ja
Funktion Objekt Ja

Eigenschaften für Funktion

Namen

Namen Typ Beschreibung Standard
Namen Schnur Der Name der funktion, die aufgerufen werden soll.

ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionMessageToolCalls

Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionFunctionCall

Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.

Namen Typ Beschreibung Erforderlich Standard
Namen Schnur Der Name der funktion, die aufgerufen werden soll. Ja
Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON generiert und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. Ja

completionUsage

Nutzungsstatistiken für die Abschlussanforderung.

Namen Typ Beschreibung Erforderlich Standard
prompt_tokens Ganzzahl Anzahl der Token in der Eingabeaufforderung. Ja
completion_tokens Ganzzahl Anzahl der Token im generierten Abschluss. Ja
total_tokens Ganzzahl Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). Ja
completion_tokens_details Objekt Aufschlüsselung der in einem Abschluss verwendeten Token. Nein

Eigenschaften für completion_tokens_details

reasoning_tokens

Namen Typ Beschreibung Standard
reasoning_tokens Ganzzahl Vom Modell generierte Token zur Begründung.

chatCompletionTool

Namen Typ Beschreibung Erforderlich Standard
Typ Enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
Ja
Funktion Functionobject Ja

FunctionParameters

Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.

Für diese Komponente sind keine Eigenschaften definiert.

Functionobject

Namen Typ Beschreibung Erforderlich Standard
Beschreibung Schnur Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
Namen Schnur Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Ja
Parameter FunctionParameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
Nein
Streng Boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf "true" festgelegt ist, folgt das Modell dem genauen Schema, das parameters im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. Nein FALSE

ResponseFormatText

Namen Typ Beschreibung Erforderlich Standard
Typ Enum Der Typ des zu definierenden Antwortformats: text
Mögliche Werte: Text
Ja

ResponseFormatJsonObject

Namen Typ Beschreibung Erforderlich Standard
Typ Enum Der Typ des zu definierenden Antwortformats: json_object
Mögliche Werte: json_object
Ja

ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseFormatJsonSchema

Namen Typ Beschreibung Erforderlich Standard
Typ Enum Der Typ des zu definierenden Antwortformats: json_schema
Mögliche Werte: json_schema
Ja
json_schema Objekt Ja

Eigenschaften für json_schema

Beschreibung

Namen Typ Beschreibung Standard
Beschreibung Schnur Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert.

Namen

Namen Typ Beschreibung Standard
Namen Schnur Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64.

Schema

Namen Typ Beschreibung Standard
Schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

Streng

Namen Typ Beschreibung Standard
Streng Boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. FALSE

chatCompletionChoiceCommon

Namen Typ Beschreibung Erforderlich Standard
Index Ganzzahl Nein
finish_reason Schnur Nein

createTranslationRequest

Übersetzungsanforderung.

Namen Typ Beschreibung Erforderlich Standard
Datei Schnur Die zu übersetzende Audiodatei. Ja
Eingabeaufforderung Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. Nein
response_format audioResponseFormat Definiert das Format der Ausgabe. Nein
Temperatur Anzahl Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0

audioResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format json war

Namen Typ Beschreibung Erforderlich Standard
Text Schnur Übersetzter oder transkribierter Text. Ja

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json

Namen Typ Beschreibung Erforderlich Standard
Text Schnur Übersetzter oder transkribierter Text. Ja
Aufgabe Schnur Typ der Audioaufgabe. Nein
Sprache Schnur Sprache. Nein
Dauer Anzahl Dauer. Nein
Segmente Array Nein

audioResponseFormat

Definiert das Format der Ausgabe.

Beschreibung: Definiert das Format der Ausgabe.

Typ: Zeichenfolge

Standard:

Enumerationswerte:

  • Json
  • Text
  • Srt
  • verbose_json
  • Vtt

createTranscriptionRequest

Transkriptionsanforderung.

Namen Typ Beschreibung Erforderlich Standard
Datei Schnur Das zu transkribierende Audiodateiobjekt. Ja
Eingabeaufforderung Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. Nein
response_format audioResponseFormat Definiert das Format der Ausgabe. Nein
Temperatur Anzahl Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0
Sprache Schnur Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. Nein

audioSegment

Transkription oder Übersetzungssegment.

Namen Typ Beschreibung Erforderlich Standard
Id Ganzzahl Segmentbezeichner. Nein
Suchen Anzahl Offset des Segments. Nein
Starten Anzahl Segmentanfangsoffset. Nein
Ende Anzahl Segmentende-Offset. Nein
Text Schnur Segmentierungstext. Nein
Token Array Token des Texts. Nein
Temperatur Anzahl Temperatur. Nein
avg_logprob Anzahl Durchschnittliche Protokollwahrscheinlichkeit. Nein
compression_ratio Anzahl Kompressionsrate. Nein
no_speech_prob Anzahl Wahrscheinlichkeit von no speech. Nein

imageQuality

Die Qualität des Bilds, das generiert wird.

Beschreibung: Die Qualität des Bilds, das generiert wird.

Typ: Zeichenfolge

Standard: Standard

Enumerationsname: Qualität

Enumerationswerte:

Wert Beschreibung
Standard Standardqualität schafft Bilder mit Standardqualität.
Hd Hd-Qualität schafft Bilder mit feineren Details und größerer Konsistenz im gesamten Bild.

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden.

Typ: Zeichenfolge

Standard: URL

Enumerationsname: ImagesResponseFormat

Enumerationswerte:

Wert Beschreibung
Url Die URL, die temporären Zugriff zum Herunterladen der generierten Bilder bietet.
b64_json Die generierten Bilder werden als base64-codierte Zeichenfolge zurückgegeben.

Imagesize

Die Größe der generierten Bilder.

Beschreibung: Die Größe der generierten Bilder.

Typ: Zeichenfolge

Standard: 1024x1024

Enumerationsname: Größe

Enumerationswerte:

Wert Beschreibung
1792x1024 Die gewünschte Größe des generierten Bilds beträgt 1792 x 1024 Pixel.
1024 x 1792 Die gewünschte Größe des generierten Bilds beträgt 1024 x 1792 Pixel.
1024 x 1024 Die gewünschte Größe des generierten Bilds beträgt 1024 x 1024 Pixel.

imageStyle

Die Formatvorlage der generierten Bilder.

Beschreibung: Die Formatvorlage der generierten Bilder.

Typ: Zeichenfolge

Standard: lebendig

Enumerationsname: Formatvorlage

Enumerationswerte:

Wert Beschreibung
Lebendige Lebendig erzeugt Bilder, die hyperrealistisch und dramatisch sind.
Natürliche Natürlich erzeugt Bilder, die natürlicher und weniger hyperrealistisch sind.

imageGenerationsRequest

Namen Typ Beschreibung Erforderlich Standard
Eingabeaufforderung Schnur Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. Ja
N Ganzzahl Die Anzahl der zu generierenden Bilder. Nein 1
Größe Imagesize Die Größe der generierten Bilder. Nein 1024 x 1024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Nein Url
Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. Nein
Qualität imageQuality Die Qualität des Bilds, das generiert wird. Nein Standard
Stil imageStyle Die Formatvorlage der generierten Bilder. Nein Lebendige

generateImagesResponse

Namen Typ Beschreibung Erforderlich Standard
Erstellt Ganzzahl Der Unix-Zeitstempel, als der Vorgang erstellt wurde. Ja
Daten Array Die Ergebnisdaten des Vorgangs, falls erfolgreich Ja

imageResult

Die Bild-URL oder das codierte Bild bei erfolgreicher Ausführung und andernfalls ein Fehler.

Namen Typ Beschreibung Erforderlich Standard
Url Schnur Die Bild-URL. Nein
b64_json Schnur Das base64-codierte Bild Nein
content_filter_results dalleContentFilterResults Informationen zu den Ergebnissen der Inhaltsfilterung. Nein
revised_prompt Schnur Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. Nein
prompt_filter_results dalleFilterResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert und seine ID. Nein

Fertigstellungserweiterungen

Fertigstellungserweiterungen sind nicht Teil der neuesten GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation.

Chatmessage

Das Chatnachrichtenobjekt ist nicht Teil der neuesten GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation.

Text in Sprache (Vorschau)

Ist derzeit nicht Teil der neuesten Azure OpenAI GA-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation. Weitere Informationen finden Sie in der neuesten version preview version für diese Funktion.

Nächste Schritte

Erfahren Sie mehr über Modelle und feinabstimmungen mit der REST-API. Erfahren Sie mehr über die modelle underlying that power Azure OpenAI.