Freigeben über


Referenz zur REST-API von Azure OpenAI Service

Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.

API-Spezifikationen

Die Verwaltung von Azure OpenAI-Modellen und -Ressourcen und die Interaktion mit ihnen ist auf drei primäre API-Oberflächen aufgeteilt:

  • Steuerungsebene
  • Datenebene: Erstellung
  • Datenebene: Rückschluss

Jede API-Oberfläche/-Spezifikation kapselt eine andere Gruppe von Azure OpenAI-Funktionen. Jede API verfügt über individuelle Vorschau-API-Releases und stabile/allgemein verfügbare API-Releases. Vorschaureleases folgen derzeit in der Regel einem monatlichen Rhythmus.

API Neuestes Vorschaurelease Neuestes allgemein verfügbares Release Spezifikationen Beschreibung
Steuerungsebene 2024-04-01-preview 2023-05-01 Spezifikationsdateien Azure OpenAI teilt sich eine gemeinsame Steuerungsebene mit allen anderen Azure KI Services-Instanzen. Die Steuerungsebenen-API wird unter anderem zum Erstellen von Azure OpenAI-Ressourcen, für die Modellimplementierung und für andere übergeordnete Ressourcenverwaltungsaufgaben verwendet. Die Steuerungsebene steuert auch, was mit Komponenten wie Azure Resource Manager, Bicep, Terraform und der Azure CLI möglich ist.
Datenebene: Erstellung 2024-05-01-preview 2024-06-01 Spezifikationsdateien Die Datenebenen-API für die Erstellung steuert die Optimierung sowie Dateiuploads, Erfassungsaufträge und bestimmte Abfragen auf Modellebene.
Datenebene: Rückschluss 2024-05-01-preview 2024-06-01 Spezifikationsdateien Die Datenebenen-API für Rückschlüsse stellt die Rückschlussfunktionen/-endpunkte für Features wie Vervollständigungen, Chatvervollständigungen, Einbettungen, Speech/Whisper, „On Your Data“, DALL-E, Assistenten usw. bereit.

Authentifizierung

Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.

  • API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den api-key-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.

  • Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als Authorization-Header in eine Anforderung eingefügt. Dem bereitgestellten Token muss Bearer vorangestellt werden. Beispiel: Bearer YOUR_AUTH_TOKEN. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Zum Beispiel:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-06-01

Datenebene: Rückschluss

Der Rest des Artikels behandelt das neueste Vorschaurelease der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse: 2024-06-01.

Eine Dokumentation für das neueste Vorschau-API-Release der Datenebenen-API für Rückschlüsse finden Sie hier.

Vervollständigungen

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des Modells, das bereitgestellt wurde
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
prompt Zeichenfolge oder Array Die Prompts, für die Vervollständigungen generiert werden sollen, als Zeichenfolge oder Array von Zeichenfolgen codiert.
Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, generiert das Modell wie am Anfang eines neuen Dokuments. Die maximal zulässige Größe der Zeichenfolgenliste ist 2048.
No
max_tokens integer Die Tokenanzahl Ihrer Äußerung plus „max_tokens“ darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen). Der Mindestwert ist 0. Nein 16
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme. Höhere Werte bedeuten, dass das Modell mehr Risiken eingehen wird. Verwenden Sie 0,9 für kreativere Anwendungen und 0 (maximale Stichprobenentnahme für Argument) für Anwendungen mit einer klar definierten Antwort.
Wir empfehlen im Allgemeinen, dies oder „top_p“ zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
logit_bias Objekt Der Standardwert ist „null“. Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Sie können dieses Tokenizertool (das sowohl für GPT-2 als auch für GPT-3 funktioniert) verwenden, um Text in Token-IDs zu konvertieren. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Sie können beispielsweise„{"50256":-100}“ übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird. No
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No
n integer Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Zulässiger Mindestwert: 1. Zulässiger Maximalwert: 128.
Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden.
No 1
Datenstrom boolean Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn diese Option festgelegt ist, werden die Token als reine Serverereignisse gesendet, sobald sie verfügbar sind, wobei der Stream durch die Nachricht „data: [DONE]“ beendet wird. No False
logprobs integer Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von „logprobs“ sowie die ausgewählten Token ein. Wenn „logprobs“ z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Token zurück. Die API gibt immer den logprob-Wert des gesampelten Tokens zurück, sodass die Antwort bis zu logprobs + 1 Elemente enthalten kann.
Zulässiger Mindestwert: 0. Zulässiger Maximalwert: 5.
No Keine
Suffix Zeichenfolge Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. No
Echo boolean Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. No False
stop Zeichenfolge oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten. No
completion_config Zeichenfolge No
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. No 0
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. No 0
best_of integer Generiert serverseitige „best_of“-Vervollständigungen und gibt die beste (als diejenige mit der geringsten logarithmierten Wahrscheinlichkeit pro Token definiert) zurück. Die Ergebnisse können nicht gestreamt werden.
Wenn Sie diese Funktion mit „n“ verwenden, steuert „best_of“ die Anzahl der möglichen Vervollständigungen, und „n“ gibt an, wie viele Vervollständigungen zurückgegeben werden sollen. „best_of“ muss dabei größer als „n“ sein.
Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. Maximalwert: 128.
No

Antworten

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ja
Objekt Zeichenfolge Ja
erstellte integer Ja
Modell Zeichenfolge Ja
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
Optionen array Ja
Nutzung Objekt No

Eigenschaften für „usage“

completion_tokens

Name Typ Beschreibung Standard
completion_tokens Zahl
prompt_tokens Zahl
total_tokens Zahl

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json Objekt

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Typ Beschreibung
application/json errorResponse

Beispiele

Beispiel

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Einbettungen

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine-Learning-Modellen und anderen Algorithmen problemlos verarbeitet werden kann.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
input Zeichenfolge oder Array Eingabetext, für den Sie Einbettungen abrufen können, codiert als Zeichenfolge. Übergeben Sie ein Zeichenfolgenarray, um Einbettungen für mehrere Eingaben in einer einzelnen Anforderung zu erhalten. Die einzelnen Eingaben dürfen eine Länge von 2048 Token nicht überschreiten.
Sofern Sie keinen Code einbetten, empfiehlt es sich, ein Zeilenvorschubzeichen (\n) in Eingaben durch ein einzelnes Leerzeichen zu ersetzen, da wir festgestellt haben, dass die Ergebnisse schlechter ausfallen, wenn Zeilenvorschubzeichen vorhanden sind.
Ja
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No
input_type Zeichenfolge Eingabetyp der zu verwendenden Einbettungssuche No
encoding_format Zeichenfolge Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. No
Dimensionen integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. No

Antworten

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
Modell Zeichenfolge Ja
data array Ja
Nutzung Objekt Ja

Eigenschaften für „usage“

prompt_tokens

Name Typ Beschreibung Standard
prompt_tokens integer

total_tokens

Name Typ Beschreibung Standard
total_tokens integer

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json Objekt

Beispiele

Beispiel

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chatvervollständigungen

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

Erstellt eine Vervollständigung für die Chatnachricht

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des Modells, das bereitgestellt wurde
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE]-Nachricht beendet. No False
stop Zeichenfolge oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. No
max_tokens integer Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). No 4096
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. No 0
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. No 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. No
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. No
Cloud an das Gerät array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Python-Beispielcode No
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
n integer Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. No 1
seed integer Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten. Determinismus ist nicht garantiert, und Sie sollten auf den Antwortparameter system_fingerprint verweisen, um Änderungen im Back-End zu überwachen. No 0
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das in der content von message zurückgegeben wird. Diese Option ist derzeit im gpt-4-vision-preview-Modell nicht verfügbar. No False
top_logprobs integer Eine ganze Zahl zwischen 0 und 5, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. No
response_format Objekt Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Wird verwendet, um den JSON-Modus zu aktivieren. No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. No
Toolauswahl chatCompletionToolChoiceOption Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen. No
functions array Zugunsten von tools eingestellt. Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. No
function_call Zeichenfolge oder Objekt Zugunsten von tool_choice eingestellt. Steuert, wie das Modell auf Funktionsaufrufe reagiert. „none“ bedeutet, dass das Modell keine Funktion aufruft und Endbenutzer*innen antwortet. „auto“ bedeutet, dass das Modell zwischen einem Endbenutzer oder dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"name":\ "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen. „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. „auto“ ist die Standardeinstellung, wenn Funktionen vorhanden sind. No

Eigenschaften für „response_format“

type

Name Typ Beschreibung Standard
Typ chatCompletionResponseFormat Das Festlegen auf json_object aktiviert den JSON-Modus. Dadurch wird sichergestellt, dass es sich bei der vom Modell generierten Nachricht um gültigen JSON-Code handelt. Text

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json createChatCompletionResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Typ Beschreibung
application/json errorResponse

Beispiele

Beispiel

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "system",
   "content": "you're a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Daten und der systemseitig zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Vektordaten, der vorherigen Assistentennachricht und der systemseitig zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "you're an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung für die angegebene Azure Cosmos DB-Instanz

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Transkribiert Audio in die Eingabesprache

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des Whisper-Modells
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: multipart/form-data

Name Typ Beschreibung Erforderlich Standard
datei Zeichenfolge Das zu transkribierende Audiodateiobjekt Ja
prompt Zeichenfolge Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
Temperatur Zahl Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
language Zeichenfolge Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json audioResponse oder audioVerboseResponse
text/plain Zeichenfolge Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war)

Beispiele

Beispiel

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Beispiel

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

Transkribiert Audioeingaben und übersetzt sie in englischen Text

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des Whisper-Modells, das bereitgestellt wurde
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: multipart/form-data

Name Typ Beschreibung Erforderlich Standard
datei Zeichenfolge Die zu übersetzende Audiodatei Ja
prompt Zeichenfolge Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt muss in englischer Sprache formuliert werden. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
Temperatur Zahl Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json audioResponse oder audioVerboseResponse
text/plain Zeichenfolge Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war)

Beispiele

Beispiel

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Beispiel

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Bildgenerierung

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

Generiert eine Reihe von Bildern auf der Grundlage einer Textbeschriftung für eine bestimmte DALL-E-Modellimplementierung

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des dall-e-Modells, das bereitgestellt wurde
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
prompt Zeichenfolge Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen. Ja
n integer Die Anzahl der zu generierenden Bilder. No 1
size imageSize Die Größe der generierten Bilder. No 1\.024 × 1.024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No
qualität imageQuality Die Qualität des zu generierenden Bilds No Standard
style imageStyle Die Größe der generierten Bilder. No vivid

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Content-Type Typ Beschreibung
application/json dalleErrorResponse

Beispiele

Beispiel

Erstellt Bilder auf der Grundlage eines Prompts.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Komponenten

errorResponse

Name Typ Beschreibung Erforderlich Standard
error error No

errorBase

Name Typ Beschreibung Erforderlich Standard
Code string Nein
message Zeichenfolge No

Fehler

Name Typ Beschreibung Erforderlich Standard
param Zeichenfolge Nein
Typ Zeichenfolge No
inner_error innerError Innerer Fehler mit zusätzlichen Details. No

innerError

Innerer Fehler mit zusätzlichen Details.

Name Typ Beschreibung Erforderlich Standard
code innerErrorCode Fehlercodes für das innere Fehlerobjekt No
content_filter_results contentFilterPromptResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. No

innerErrorCode

Fehlercodes für das innere Fehlerobjekt

Beschreibung: Fehlercodes für das innere Fehlerobjekt

Typ: string

Standardwert:

Enumerationsname: InnerErrorCode

Enumerationswerte:

Wert Beschreibung
ResponsibleAIPolicyViolation Der Prompt verstieß gegen eine von mehreren Inhaltsfilterregeln.

dalleErrorResponse

Name Typ Beschreibung Erforderlich Standard
error dalleError No

dalleError

Name Typ Beschreibung Erforderlich Standard
param Zeichenfolge Nein
Typ Zeichenfolge No
inner_error dalleInnerError Innerer Fehler mit zusätzlichen Details. No

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Name Typ Beschreibung Erforderlich Standard
code innerErrorCode Fehlercodes für das innere Fehlerobjekt No
content_filter_results dalleFilterResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. No
revised_prompt Zeichenfolge Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde No

contentFilterResultBase

Name Typ Beschreibung Erforderlich Standard
filtered boolean Ja

contentFilterSeverityResult

Name Typ Beschreibung Erforderlich Standard
filtered boolean Ja
severity Zeichenfolge No

contentFilterDetectedResult

Name Typ Beschreibung Erforderlich Standard
filtered boolean Ja
detected boolean Nein

contentFilterDetectedWithCitationResult

Name Typ Beschreibung Erforderlich Standard
citation Objekt No

Eigenschaften für „citation“

URL

Name Typ Beschreibung Standard
URL Zeichenfolge

Lizenz

Name Typ Beschreibung Standard
license Zeichenfolge

contentFilterResultsBase

Informationen zu den Ergebnissen der Inhaltsfilterung

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No

contentFilterPromptResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
Jailbreak contentFilterDetectedResult No

contentFilterChoiceResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Drittanbietertexten und Profanität, sofern diese erkannt wurde, und ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung

Name Typ Beschreibung Erforderlich Standard
prompt_index integer No
content_filter_results contentFilterPromptResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. No

promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

dalleContentFilterResults

Informationen zu den Ergebnissen der Inhaltsfilterung

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
Jailbreak contentFilterDetectedResult No

chatCompletionsRequestCommon

Name Typ Beschreibung Erforderlich Standard
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE]-Nachricht beendet. No False
stop Zeichenfolge oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. No
max_tokens integer Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). No 4096
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. No 0
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. No 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. No
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. No

createChatCompletionRequest

Name Typ Beschreibung Erforderlich Standard
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE]-Nachricht beendet. No False
stop Zeichenfolge oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. No
max_tokens integer Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). No 4096
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. No 0
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. No 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. No
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. No
Cloud an das Gerät array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Python-Beispielcode No
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
n integer Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. No 1
seed integer Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten. Determinismus ist nicht garantiert, und Sie sollten auf den Antwortparameter system_fingerprint verweisen, um Änderungen im Back-End zu überwachen. No 0
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das in der content von message zurückgegeben wird. Diese Option ist derzeit im gpt-4-vision-preview-Modell nicht verfügbar. No False
top_logprobs integer Eine ganze Zahl zwischen 0 und 5, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. No
response_format Objekt Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Wird verwendet, um den JSON-Modus zu aktivieren. No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. No
Toolauswahl chatCompletionToolChoiceOption Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen. No
functions array Zugunsten von tools eingestellt. Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. No
function_call Zeichenfolge oder Objekt Zugunsten von tool_choice eingestellt. Steuert, wie das Modell auf Funktionsaufrufe reagiert. „none“ bedeutet, dass das Modell keine Funktion aufruft und Endbenutzer*innen antwortet. „auto“ bedeutet, dass das Modell zwischen einem Endbenutzer oder dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"name":\ "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen. „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. „auto“ ist die Standardeinstellung, wenn Funktionen vorhanden sind. No

Eigenschaften für „response_format“

type

Name Typ Beschreibung Standard
Typ chatCompletionResponseFormat Das Festlegen auf json_object aktiviert den JSON-Modus. Dadurch wird sichergestellt, dass es sich bei der vom Modell generierten Nachricht um gültigen JSON-Code handelt. Text

chatCompletionResponseFormat

Das Festlegen auf json_object aktiviert den JSON-Modus. Dadurch wird sichergestellt, dass es sich bei der vom Modell generierten Nachricht um gültigen JSON-Code handelt.

Beschreibung: Das Festlegen auf json_object aktiviert den JSON-Modus. Dadurch wird sichergestellt, dass es sich bei der vom Modell generierten Nachricht um gültigen JSON-Code handelt.

Typ: string

Standard: text

Enumerationsname: ChatCompletionResponseFormat

Enumerationswerte:

Wert Beschreibung
Text Das Antwortformat ist eine Nur-Text-Zeichenfolge.
json_object Das Antwortformat ist ein JSON-Objekt.

chatCompletionFunction

Name Typ Beschreibung Erforderlich Standard
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
description string Eine Beschreibung dessen, was die Funktion tut No
Parameter chatCompletionFunctionParameters Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz. No

chatCompletionFunctionParameters

Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz.

chatCompletionRequestMessage

Name Typ Beschreibung Erforderlich Standard
role chatCompletionRequestMessageRole Die Rolle des Nachrichtenerstellers Ja

chatCompletionRequestMessageRole

Die Rolle des Nachrichtenerstellers

Beschreibung: Die Rolle des Nachrichtenerstellers

Typ: string

Standardwert:

Enumerationsname: ChatCompletionRequestMessageRole

Enumerationswerte:

Wert Beschreibung
system Die Rolle des Nachrichtenerstellers ist „system“.
user Die Rolle des Nachrichtenerstellers ist „user“.
assistant Die Rolle des Nachrichtenerstellers ist „assistant“.
Tool Die Rolle des Nachrichtenerstellers ist „tool“.
Funktion Veraltet. Die Rolle des Nachrichtenerstellers ist „function“.

chatCompletionRequestMessageSystem

Name Typ Beschreibung Erforderlich Standard
role chatCompletionRequestMessageRole Die Rolle des Nachrichtenerstellers Ja
content Zeichenfolge Der Inhalt der Nachricht. No

chatCompletionRequestMessageUser

Name Typ Beschreibung Erforderlich Standard
role chatCompletionRequestMessageRole Die Rolle des Nachrichtenerstellers Ja
content Zeichenfolge oder Array No

chatCompletionRequestMessageContentPart

Name Typ Beschreibung Erforderlich Standard
Typ chatCompletionRequestMessageContentPartType Der Typ des Inhaltsteils Ja

chatCompletionRequestMessageContentPartType

Der Typ des Inhaltsteils

Beschreibung: Der Typ des Inhaltsteils

Typ: string

Standardwert:

Enumerationsname: ChatCompletionRequestMessageContentPartType

Enumerationswerte:

Wert Beschreibung
Text Der Typ des Inhaltsteils ist „text“.
image_url Der Typ des Inhaltsteils ist „image_url“.

chatCompletionRequestMessageContentPartText

Name Typ Beschreibung Erforderlich Standard
Typ chatCompletionRequestMessageContentPartType Der Typ des Inhaltsteils Ja
Text Zeichenfolge Der Textinhalt. No

chatCompletionRequestMessageContentPartImage

Name Typ Beschreibung Erforderlich Standard
Typ chatCompletionRequestMessageContentPartType Der Typ des Inhaltsteils Ja
url Zeichenfolge Entweder eine URL des Bilds oder die base64-codierten Bilddaten No
detail imageDetailLevel Gibt den Detailgrad des Bilds an. No auto

imageDetailLevel

Gibt den Detailgrad des Bilds an.

Beschreibung: Gibt den Detailgrad des Bilds an

Typ: string

Standard: auto

Enumerationsname: ImageDetailLevel

Enumerationswerte:

Wert BESCHREIBUNG
auto Die Detailebene des Bilds ist „auto“.
low Die Detailebene des Bilds ist „low“.
high Die Detailebene des Bilds ist „high“.

chatCompletionRequestMessageAssistant

Name Typ Beschreibung Erforderlich Standard
role chatCompletionRequestMessageRole Die Rolle des Nachrichtenerstellers Ja
content Zeichenfolge Der Inhalt der Nachricht. No
tool_calls array Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. No
context azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen
an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn
eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer entsprechenden Erweiterung konfiguriert ist.
No

azureChatExtensionConfiguration

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja

azureChatExtensionType

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Beschreibung: Eine Darstellung der Konfigurationsdaten einer einzelnen Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Typ: string

Standardwert:

Enumerationsname: AzureChatExtensionType

Enumerationswerte:

Wert Beschreibung
azure_search Stellt die Verwendung von Azure Search als Azure OpenAI-Chaterweiterung dar
azure_cosmos_db Stellt die Verwendung von Azure Cosmos DB als Azure OpenAI-Chaterweiterung dar

azureSearchChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter azureSearchChatExtensionParameters Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird No

azureSearchChatExtensionParameters

Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ Beschreibung Erforderlich Standard
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
role_information Zeichenfolge Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet. No
endpoint Zeichenfolge Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. Ja
index_name Zeichenfolge Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource. Ja
fields_mapping azureSearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. No
query_type azureSearchQueryType Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll No
semantic_configuration Zeichenfolge Die zusätzliche semantische Konfiguration für die Abfrage. No
filter Zeichenfolge Suchfilter. No
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource No

azureSearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.

Name Typ Beschreibung Erforderlich Standard
title_field Zeichenfolge Der Name des Indexfelds, das als Titel verwendet werden soll No
url_field Zeichenfolge Der Name des Indexfelds, das als URL verwendet werden soll No
filepath_field Zeichenfolge Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
content_fields_separator Zeichenfolge Das Trennmuster, das Inhaltsfelder verwenden sollen. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No

azureSearchQueryType

Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll

Beschreibung: Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll

Typ: string

Standardwert:

Enumerationsname: azureSearchQueryType

Enumerationswerte:

Wert Beschreibung
Einfach Stellt den standardmäßigen einfachen Abfrageparser dar.
semantisch Stellt den Semantikabfrageparser für die erweiterte semantische Modellierung dar.
vector Stellt die Vektorsuche über berechnete Daten dar.
vector_simple_hybrid Stellt eine Kombination der einfachen Abfragestrategie mit Vektordaten dar.
vector_semantic_hybrid Stellt eine Kombination aus semantischer Suche und Vektordatenabfrage dar.

azureCosmosDBChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn Azure Cosmos DB als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter azureCosmosDBChatExtensionParameters Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for
MongoDB vCore verwenden.
No

azureCosmosDBChatExtensionParameters

Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden

Name Typ Beschreibung Erforderlich Standard
authentication onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
role_information Zeichenfolge Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet. No
database_name Zeichenfolge Der Name der MongoDB vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll Ja
container_name Zeichenfolge Der Name des Azure Cosmos DB-Ressourcencontainers Ja
index_name Zeichenfolge Der Name des MongoDB vCore-Index, der mit Azure Cosmos DB verwendet werden soll Ja
fields_mapping azureCosmosDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource Ja
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Ja

azureCosmosDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource

Name Typ Beschreibung Erforderlich Standard
title_field Zeichenfolge Der Name des Indexfelds, das als Titel verwendet werden soll No
url_field Zeichenfolge Der Name des Indexfelds, das als URL verwendet werden soll No
filepath_field Zeichenfolge Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Ja
content_fields_separator Zeichenfolge Das Trennmuster, das Inhaltsfelder verwenden sollen. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. Ja

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja

onYourDataAuthenticationType

Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data

Beschreibung: Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data

Typ: string

Standardwert:

Enumerationsname: OnYourDataAuthenticationType

Enumerationswerte:

Wert Beschreibung
api_key Authentifizierung per API-Schlüssel
connection_string Authentifizierung per Verbindungszeichenfolge
system_assigned_managed_identity Authentifizierung per systemseitig zugewiesener verwalteter Identität
user_assigned_managed_identity Authentifizierung per benutzerseitig zugewiesener verwalteter Identität

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
Schlüssel Zeichenfolge Der für die Authentifizierung zu verwendende API-Schlüssel. No

onYourDataConnectionStringAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
connection_string Zeichenfolge Die Verbindungszeichenfolge für die Authentifizierung No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
managed_identity_resource_id Zeichenfolge Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. No

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja

onYourDataVectorizationSourceType

Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren

Beschreibung: Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
Vektorsuche.

Typ: string

Standardwert:

Enumerationsname: OnYourDataVectorizationSourceType

Enumerationswerte:

Wert Beschreibung
endpoint Stellt die Vektorisierung dar, die von Aufrufen durchgeführt wird, die von öffentlichen Diensten an ein Azure OpenAI-Einbettungsmodell gerichtet werden
deployment_name Stellt den zu verwendenden Namen einer Ada-Modellimplementierung dar. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden.
Das Feature „On Your Data“ verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche
auch in privaten Netzwerken ermöglicht.

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Namen der Modellimplementierung für Einbettungen in der gleichen Azure OpenAI-Ressource basiert.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja
deployment_name Zeichenfolge Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. No

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem öffentlichen Einbettungsendpunkt für Azure OpenAI basiert.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja
authentication onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. No
endpoint Zeichenfolge Gibt den Endpunkt an, der für die Vektorisierung verwendet werden soll. Dieser Endpunkt muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diesen Endpunkt jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. No

azureChatExtensionsMessageContext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.

Name Typ Beschreibung Erforderlich Standard
citations array Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. No
Absicht Zeichenfolge Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. No

Quellenangaben

Zitatinformationen zur Nachricht einer Chatvervollständigungsantwort

Name Typ Beschreibung Erforderlich Standard
content Zeichenfolge Der Inhalt des Zitats. Ja
title Zeichenfolge Der Titel des Zitats. No
url Zeichenfolge Die URL des Zitats. No
filepath Zeichenfolge Der Dateipfad des Zitats. No
chunk_id Zeichenfolge Die Segment-ID des Zitats. No

chatCompletionMessageToolCall

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Die ID des Toolaufrufs Ja
Typ toolCallType Der Typ des Toolaufrufs (in diesem Fall: function). Ja
Funktion Objekt Die Funktion, die das Modell aufgerufen hat Ja

Eigenschaften für „function“

Name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der aufzurufenden Funktion.

Argumente

Name Typ Beschreibung Standard
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise Parameter erstellt, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen.

toolCallType

Der Typ des Toolaufrufs (in diesem Fall: function).

Beschreibung: Der Typ des Toolaufrufs (in diesem Fall: function)

Typ: string

Standardwert:

Enumerationsname: ToolCallType

Enumerationswerte:

Wert BESCHREIBUNG
Funktion Der Typ des Toolaufrufs ist „function“.

chatCompletionRequestMessageTool

Name Typ Beschreibung Erforderlich Standard
role chatCompletionRequestMessageRole Die Rolle des Nachrichtenerstellers Ja
tool_call_id Zeichenfolge Toolaufruf, auf den diese Nachricht reagiert. No
content Zeichenfolge Der Inhalt der Nachricht. No

chatCompletionRequestMessageFunction

Name Typ Beschreibung Erforderlich Standard
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Mögliche Werte: function
Yes
Name Zeichenfolge Der Inhalt der Nachricht. No
content Zeichenfolge Der Inhalt der Nachricht. No

createChatCompletionResponse

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ein eindeutiger Bezeichner für die Chatvervollständigung Ja
Objekt chatCompletionResponseObject Der Objekttyp. Ja
erstellte integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Ja
Modell Zeichenfolge Das Modell, das für die Chatvervollständigung verwendet wird Ja
Nutzung completionUsage Nutzungsstatistiken für die Vervollständigungsanforderung No
system_fingerprint Zeichenfolge Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. No
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
Optionen array No

chatCompletionChoiceLogProbs

Logarithmierte Wahrscheinlichkeit für die Auswahl

Name Typ Beschreibung Erforderlich Standard
content array Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit Ja

chatCompletionTokenLogprob

Name Typ Beschreibung Erforderlich Standard
token Zeichenfolge Das Token. Ja
logprob Zahl Die logarithmierte Wahrscheinlichkeit dieses Tokens Ja
Byte array Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. Ja
top_logprobs array Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. Ja

ChatCompletionResponseMessage

Eine vom Modell generierte Chatvervollständigungsnachricht

Name Typ Beschreibung Erforderlich Standard
role chatCompletionResponseMessageRole Die Rolle des Antwortnachrichterstellers No
content Zeichenfolge Der Inhalt der Nachricht. No
tool_calls array Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. No
function_call chatCompletionFunctionCall Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. No
context azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen
an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn
eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer entsprechenden Erweiterung konfiguriert ist.
No

chatCompletionResponseMessageRole

Die Rolle des Antwortnachrichterstellers

Beschreibung: Die Rolle des Autors der Antwortnachricht

Typ: string

Standardwert:

Enumerationswerte:

  • assistant

chatCompletionToolChoiceOption

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type": "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

Mögliche Werte für diese Komponente:

chatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
No
Funktion Objekt No

Eigenschaften für „function“

Name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der aufzurufenden Funktion.

chatCompletionFunctionCall

Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden.

Name Typ Beschreibung Erforderlich Standard
name Zeichenfolge Der Name der aufzurufenden Funktion. Ja
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise Parameter erstellt, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. Ja

chatCompletionsResponseCommon

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ein eindeutiger Bezeichner für die Chatvervollständigung Ja
Objekt chatCompletionResponseObject Der Objekttyp. Ja
erstellte integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Ja
Modell Zeichenfolge Das Modell, das für die Chatvervollständigung verwendet wird Ja
Nutzung completionUsage Nutzungsstatistiken für die Vervollständigungsanforderung No
system_fingerprint Zeichenfolge Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. No

chatCompletionResponseObject

Der Objekttyp.

Beschreibung: Der Objekttyp

Typ: string

Standardwert:

Enumerationsname: ChatCompletionResponseObject

Enumerationswerte:

Wert Beschreibung
chat.completion Der Objekttyp ist „chat.completion“.

completionUsage

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Typ Beschreibung Erforderlich Standard
prompt_tokens integer Anzahl der Token im Prompt. Ja
completion_tokens integer Anzahl der Token in der generierten Vervollständigung Ja
total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Ja

chatCompletionTool

Name Typ Beschreibung Erforderlich Standard
Typ chatCompletionToolType Der Typ des Tools. Derzeit wird nur function unterstützt. Ja
Funktion Objekt Ja

Eigenschaften für „function“

Beschreibung

Name Typ Beschreibung Default
Beschreibung string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird.

Name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64.

Parameter

Name Typ Beschreibung Standard
Parameter chatCompletionFunctionParameters Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz.

chatCompletionToolType

Der Typ des Tools. Derzeit wird nur function unterstützt.

Beschreibung: Der Typ des Tools. Derzeit wird nur function unterstützt.

Typ: string

Standardwert:

Enumerationsname: ChatCompletionToolType

Enumerationswerte:

Wert BESCHREIBUNG
Funktion Der Typ des Tools ist „function“.

chatCompletionChoiceCommon

Name Typ Beschreibung Erforderlich Standard
Index integer No
finish_reason Zeichenfolge No

createTranslationRequest

Übersetzungsanforderung

Name Typ Beschreibung Erforderlich Standard
datei Zeichenfolge Die zu übersetzende Audiodatei Ja
prompt Zeichenfolge Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt muss in englischer Sprache formuliert werden. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
Temperatur Zahl Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

audioResponse

Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „json“ war

Name Typ Beschreibung Erforderlich Standard
Text Zeichenfolge Übersetzter oder transkribierter Text Ja

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „verbose_json“ war

Name Typ Beschreibung Erforderlich Standard
Text Zeichenfolge Übersetzter oder transkribierter Text Ja
task Zeichenfolge Die Art von Audiotask No
language Zeichenfolge Sprache. No
duration Zahl Dauer. No
Segmente array No

audioResponseFormat

Definiert das Format der Ausgabe

Beschreibung: Definiert das Format der Ausgabe

Typ: string

Standardwert:

Enumerationswerte:

  • json
  • Text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transkriptionsanforderung

Name Typ Beschreibung Erforderlich Standard
datei Zeichenfolge Das zu transkribierende Audiodateiobjekt Ja
prompt Zeichenfolge Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
Temperatur Zahl Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
language Zeichenfolge Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. No

audioSegment

Transkriptions- oder Übersetzungssegment

Name Typ Beschreibung Erforderlich Standard
id integer Segmentbezeichner No
seek Zahl Der Offset des Segments No
start Zahl Der Offset für den Segmentbeginn No
end Zahl Der Offset für das Segmentende No
Text Zeichenfolge Segmenttext No
tokens array Token des Texts No
Temperatur Zahl Temperatur No
avg_logprob Zahl Durchschnittliche logarithmierte Wahrscheinlichkeit No
compression_ratio Zahl Komprimierungsverhältnis No
no_speech_prob Zahl Wahrscheinlichkeit von „keine Sprache“ No

imageQuality

Die Qualität des zu generierenden Bilds

Beschreibung: Die Qualität des zu generierenden Bilds

Typ: string

Standard: standard

Enumerationsname: Quality

Enumerationswerte:

Wert BESCHREIBUNG
Standard Bei Verwendung von Standardqualität werden Bilder mit Standardqualität erstellt.
hd Bei Verwendung von HD-Qualität werden Bilder mit mehr Details und höherer Konsistenz im gesamten Bild erstellt.

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden

Typ: string

Standard: url

Enumerationsname: ImagesResponseFormat

Enumerationswerte:

Wert Beschreibung
url Die URL für temporären Zugriff zum Herunterladen der generierten Bilder
b64_json Die generierten Bilder werden als base64-codierte Zeichenfolge zurückgegeben.

imageSize

Die Größe der generierten Bilder.

Beschreibung: Die Größe der generierten Bilder

Typ: string

Standard: 1024x1024

Enumerationsname: Size

Enumerationswerte:

Wert Beschreibung
1792x1024 Die gewünschte Größe des generierten Bilds beträgt 1.792 × 1.024 Pixel.
1024x1792 Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.792 Pixel.
1\.024 × 1.024 Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.024 Pixel.

imageStyle

Die Größe der generierten Bilder.

Beschreibung: Der Stil der generierten Bilder

Typ: string

Standard: vivid

Enumerationsname: Style

Enumerationswerte:

Wert Beschreibung
vivid Mit „vivid“ werden hyperrealistische und spektakuläre Bilder erstellt.
natural Mit „natural“ werden natürlichere und weniger hyperrealistische Bilder erstellt.

imageGenerationsRequest

Name Typ Beschreibung Erforderlich Standard
prompt Zeichenfolge Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen. Ja
n integer Die Anzahl der zu generierenden Bilder. No 1
size imageSize Die Größe der generierten Bilder. No 1\.024 × 1.024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No
qualität imageQuality Die Qualität des zu generierenden Bilds No Standard
style imageStyle Die Größe der generierten Bilder. No vivid

generateImagesResponse

Name Typ Beschreibung Erforderlich Standard
erstellte integer Der UNIX-Zeitstempel, der angibt, wann der Vorgang erstellt wurde Ja
data array Die Ergebnisdaten des Vorgangs, sofern der Vorgang erfolgreich war Ja

imageResult

Die Bild-URL oder das codierte Bild, sofern der Vorgang erfolgreich war. Andernfalls ein Fehler.

Name Typ Beschreibung Erforderlich Standard
url Zeichenfolge Die Bild-URL No
b64_json Zeichenfolge Das base64-codierte Bild No
content_filter_results dalleContentFilterResults Informationen zu den Ergebnissen der Inhaltsfilterung No
revised_prompt Zeichenfolge Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde No
prompt_filter_results dalleFilterResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. No

Erweiterungen für Vervollständigungen

Vervollständigungserweiterungen sind nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse.

Chatnachricht

Das Chatnachrichtenobjekt ist nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse.

Sprachsynthese

Ist derzeit nicht Teil der neuesten allgemein verfügbaren Version der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse. Weitere Informationen finden Sie in der neuesten Vorschauversion dieser Funktion.

Nächste Schritte

Erfahren Sie mehr über Modelle und die Optimierung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.