Azure OpenAI in der REST-API-Vorschaureferenz für Microsoft Foundry Models

Dieser Artikel enthält Details zu den Ableitungs-REST-API-Endpunkten für Azure OpenAI.

API specs

Das Verwalten und Interagieren mit Azure OpenAI-Modellen und -Ressourcen ist auf drei primäre API-Oberflächen aufgeteilt:

  • Control plane
  • Datenebene – Erstellung
  • Datenebene – Ableitung

Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API verfügt über einen eigenen eindeutigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA)-API-Versionen. Vorschauversionen folgen derzeit einem monatlichen Rhythmus.

Important

Es gibt jetzt eine neue Vorschau-Ableitungs-API. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.

API Neueste Vorschauversion Neueste GA-Version Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files Die Steuerungsebenen-API wird für Vorgänge wie das Erstellen von Ressourcen, modellbasierte Bereitstellung und andere Ressourcenverwaltungsaufgaben auf höherer Ebene verwendet. Die Steuerungsebene steuert auch, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist.
Data plane v1 preview v1 Spec files Die Datenebenen-API steuert Ableitungs- und Erstellungsvorgänge.

Authentication

Azure OpenAI bietet zwei Methoden für die Authentifizierung. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.

  • API-Schlüsselauthentifizierung: Für diesen Authentifizierungstyp müssen alle API-Anforderungen den API-Schlüssel im api-key HTTP-Header enthalten. Die Schnellstartanleitung enthält Anleitungen zum Tätigen von Anrufen mit diesem Authentifizierungstyp.

  • Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mithilfe eines Microsoft Entra-Tokens authentifizieren. Authentifizierungstoken sind in einer Anforderung als Authorization Header enthalten. Das bereitgestellte Token muss z. BBearer. vorangestellt Bearer YOUR_AUTH_TOKENsein. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs werden mithilfe des api-version Abfrageparameters versionsgesteuert. Alle Versionen folgen der Datumsstruktur JJJJ-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Datenebenen-Ableitung

Der Rest des Artikels behandelt die 2025-04-01-preview Vorschauversion der Azure OpenAI-Datenebenen-Ableitungsspezifikation.

Wenn Sie nach Dokumentationen zur neuesten GA-API-Version suchen, lesen Sie die neueste GA-Datenebenen-Ableitungs-API.

Fertigstellungen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
best_of integer Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.

Bei Verwendung mit n, best_of steuert die Anzahl der Abschlusskandidaten und n gibt an, wie viele zurückzugebende Ã-â'“ best_of größer sein muss als n.

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
No 1
echo boolean Echo der Eingabeaufforderung zusätzlich zum Abschluss No False
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird die Verzerrung zu den logits hinzugefügt, die vom Modell vor dem Sampling generiert werden. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.

Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird.
No None
logprobs integer Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn beispielsweise logprobs 5 ist, gibt die API eine Liste der 5 höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob Beispieltoken zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.

Der Maximalwert für logprobs 5.
No None
max_tokens integer Die maximale Anzahl von Token, die im Abschluss generiert werden können.

Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen.

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
No 1
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. No 0
prompt Zeichenfolge oder Matrix Die Aufforderung zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Arrays von Tokenarrays codiert werden.

Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell von Beginn eines neuen Dokuments generiert.
Yes
seed integer Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Matrix Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz. No
stream boolean Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Beispiel-Python-Code.
No False
suffix string Das Suffix, das nach abschluss des eingefügten Texts kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instruct.
No None
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch gestalten.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Einbettungen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden kann.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Die Bereitstellungs-ID des Modells, das bereitgestellt wurde.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. No
encoding_format string Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64. Standardwert ist .float No
input Zeichenfolge oder Matrix Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Um mehrere Eingaben in eine einzelne Anforderung einzubetten, übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays. Die Eingabe darf die maximalen Eingabetoken für das Modell (8.192 Token für text-embedding-ada-002), keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. Yes
input_type string Eingabetyp der zu verwendenden Einbettungssuche No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Gibt die Einbettungen für eine bestimmte Eingabeaufforderung zurück.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chatabschluss – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Erstellt einen Abschluss für die Chatnachricht

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
audio object Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]. No
└─ format enum Gibt das Ausgabeaudioformat an. Muss eine von , , , , wavoder mp3. flacopuspcm16

Mögliche Werte: wav, , mp3flac, , opuspcm16
No
└─ voice enum Gibt den Sprachtyp an. Unterstützte Stimmen sind alloy, , echo, fable, onyx, novaund shimmer.

Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer
No
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
No 0
function_call string or chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

none ist der Standardwert, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
No
functions array Veraltet zugunsten von tools.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird die Verzerrung zu den logits hinzugefügt, die vom Modell vor dem Sampling generiert werden. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.
No None
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. No False
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. No
max_tokens integer Die maximale Anzahl von Token, die im Chatabschluss generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt.
No
messages array Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Beispiel-Python-Code. Yes
metadata object Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. No
modalities ChatCompletionModalities Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]
No
n integer Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Sie werden basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt. Halten Sie sich n an die 1 Minimierung der Kosten. No 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
prediction PredictionContent Konfiguration für eine vorhergesagte Ausgabe, die die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort vorab bekannt sind. Dies ist am häufigsten, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu erstellen. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
No 0
reasoning_effort enum Nur o1-Modelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.

Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Mögliche Werte: low, , mediumhigh
No
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.

Einstellung zum { "type": "json_schema", "json_schema": {...} } Aktivieren von strukturierten Ausgaben, die garantieren, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Matrix Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet.
No
store boolean Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. No
stream boolean Wenn festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Beispiel-Python-Code.
No False
stream_options chatCompletionStreamOptions Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.
No None
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch gestalten.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
tool_choice chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
No
user_security_context userSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender für Cloud. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss basierend auf Azure Search-Daten und vom System zugewiesener verwalteter Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss basierend auf Azure Search-Bildvektordaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss basierend auf Azure Search-Vektordaten, früherer Assistant-Nachricht und vom Benutzer zugewiesener verwalteter Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss für die bereitgestellte Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss für die bereitgestellte Mongo DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss für die bereitgestellte Elasticsearch.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt einen Abschluss für die bereitgestellte Pinecone-Ressource.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen - Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transkribiert Audio in die Eingabesprache.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
model string ID des zu verwendenden Modells. Die Optionen sind gpt-4o-transcribe: , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, , whisper-1und gpt-4o-transcribe-diarize. Yes
file string Das zu transkribierende Audiodateiobjekt. Yes
language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. No
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription aufgefüllt werden sollen. response_format muss für die Verwendung von Timestamp-Granularitäten festgelegt verbose_json werden. Entweder oder beide dieser Optionen werden unterstützt: wordoder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. No ['segment']

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format einer von text, vtt oder srt).

Examples

Example

Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen - Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transkribiert und übersetzt Eingabeaudio in englischen Text.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Die zu übersetzende Audiodatei. Yes
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format einer von Text, vtt oder srt war).

Examples

Example

Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Sprache – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Generiert Audio aus dem Eingabetext.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
input string Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. Yes
response_format enum Das Format zum Synthetisieren des Audiosignals.
Mögliche Werte: mp3, , opus, aacflac, , , wavpcm
No
speed number Die Geschwindigkeit der synthetisierten Audiodaten. Wählen Sie einen Wert von 0.25 bis zu 4.0. 1.0 ist der Standardwert. No 1.0
voice enum Die Stimme, die für die Sprachsynthese verwendet werden soll.
Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer
Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/octet-stream string

Examples

Example

Synthetisiert Audio aus dem bereitgestellten Text.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Antworten: Statuscode: 200

{
  "body": "101010101"
}

Bildgenerationen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Generiert einen Batch von Bildern aus einer Textbeschriftung in einer bestimmten Bereitstellung des Imagegenerierungsmodells.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
background imageBackground Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. No auto
n integer Die Anzahl der zu generierenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. No 1
output_compression integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. No 100
output_format imagesOutputFormat Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. No png
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serie und 4000 Zeichen für dall-e-3 Yes
partial_images integer Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streamingantworten verwendet, die Teilbilder zurückgeben. Der Wert muss zwischen 0 und 3 sein. Bei Festlegung auf 0 ist die Antwort ein einzelnes Bild, das in einem Streamingereignis gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die vollständige Anzahl von Teilbildern generiert wird, wenn das vollständige Bild schneller generiert wird. 0
stream boolean Bearbeiten Sie das Bild im Streamingmodus. no false
quality imageQuality Die Qualität des Bilds, das generiert wird. No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json.
No url
size imageSize Die Größe der generierten Bilder. No auto
style imageStyle Die Formatvorlage der generierten Bilder. Wird nur für dall-e-3 unterstützt. No vivid
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Erstellt Bilder mit einer Eingabeaufforderung.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Bildgenerationen - Bearbeiten

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Bearbeitet ein Bild aus einer Textbeschriftung in einer bestimmten Gpt-image-1-Modellbereitstellung

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
image Zeichenfolge oder Matrix Die zu bearbeitenden Bilder. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder JPG-Datei sein, die kleiner als 50 MB ist. Yes
input_fidelity string Steuern Sie, wie viel Aufwand das Modell ausüben wird, um dem Stil und den Features, insbesondere Gesichtsmerkmalen, von Eingabebildern zu entsprechen. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. Unterstützt high und low. no low.
mask string Ein zusätzliches Bild, dessen vollständig transparente Bereiche (z. B. Alpha null) angeben, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Muss eine gültige PNG-Datei sein, die kleiner als 4 MB ist und die gleichen Abmessungen wie das Bild aufweist. No
n integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. No 1
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen. Yes
quality imageQuality Die Qualität des Bilds, das generiert wird. No auto
partial_images Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streamingantworten verwendet, die Teilbilder zurückgeben. Der Wert muss zwischen 0 und 3 sein. Bei Festlegung auf 0 ist die Antwort ein einzelnes Bild, das in einem Streamingereignis gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die vollständige Anzahl von Teilbildern generiert wird, wenn das vollständige Bild schneller generiert wird.
stream boolean Bearbeiten Sie das Bild im Streamingmodus. no false
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
size imageSize Die Größe der generierten Bilder. No auto
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Content-Type Type Description
application/json dalleErrorResponse

Liste – Assistenten

Note

Die Assistenten-API ist veraltet und wird am 26. August 2026 eingestellt. Verwenden Sie den allgemein verfügbaren Microsoft Foundry Agents-Dienst. Folgen Sie dem Migrationshandbuch , um Ihre Workloads zu aktualisieren. Learn more.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Gibt eine Liste der Assistenten zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Gibt eine Liste der Assistenten zurück.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Erstellen – Assistent

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen.
No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
model string Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Der an diesen Assistenten angefügte Vektorspeicher. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
└─ vector_stores array Ein Helfer zum Erstellen eines Vektorspeichers mit file_ids und an diesen Assistenten anfügen. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, retrieval, oder function.
No []
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Abrufen – Assistent

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Ruft einen Assistenten ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des abzurufenden Assistenten.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Ruft einen Assistenten ab.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modify - Assistent

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Ändert einen Assistenten.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des zu ändernden Assistenten.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32768 Zeichen.
No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
model string No
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Überschreibt die Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Überschreibt den an diesen Assistenten angefügten Vektorspeicher. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, retrieval, oder function.
No []
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Ändert einen Assistenten.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Löschen – Assistent

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Löschen sie einen Assistenten.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des zu löschenden Assistenten.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Löscht einen Assistenten.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Create - Thread

Note

Die Assistenten-API ist veraltet und wird am 26. August 2026 eingestellt. Verwenden Sie den allgemein verfügbaren Microsoft Foundry Agents-Dienst. Folgen Sie dem Migrationshandbuch , um Ihre Workloads zu aktualisieren. Learn more.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Erstellen Sie einen Thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
messages array Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
tool_resources object Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein.
No
└─ vector_stores array Ein Hilfsprogramm zum Erstellen eines Vektorspeichers mit file_ids und an diesen Thread anfügen. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Erstellt einen Thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Get - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Ruft einen Thread ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des abzurufenden Threads.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Ruft einen Thread ab.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modify - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Ändert einen Thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des zu ändernden Threads. Nur die metadata Kann geändert werden.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
tool_resources object Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Ändert einen Thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Delete - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Löschen sie einen Thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des zu löschenden Threads.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Löscht einen Thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Liste – Nachrichten

Note

Die Assistenten-API ist veraltet und wird am 26. August 2026 eingestellt. Verwenden Sie den allgemein verfügbaren Microsoft Foundry Agents-Dienst. Folgen Sie dem Migrationshandbuch , um Ihre Workloads zu aktualisieren. Learn more.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Gibt eine Liste von Nachrichten für einen bestimmten Thread zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu der die Nachrichten gehören.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
run_id query No string Filtern Sie Nachrichten nach der Ausführungs-ID, die sie generiert hat.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Erstellen – Nachricht

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Erstellen Sie eine Nachricht.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, für die eine Nachricht erstellt werden soll.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
attachments array Eine Liste der Dateien, die an die Nachricht angefügt sind, und die Tools, denen sie hinzugefügt werden sollen. No
content string Der Inhalt der Nachricht. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
role string Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte umfassen:
- user: Gibt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wird und in den meisten Fällen verwendet werden soll, um vom Benutzer generierte Nachrichten darzustellen.
- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.
Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Erstellen Sie eine Nachricht.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Abrufen – Nachricht

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Abrufen einer Nachricht.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu denen diese Nachricht gehört.
message_id path Yes string Die ID der abzurufenden Nachricht.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Abrufen einer Nachricht.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Ändern – Nachricht

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Ändert eine Nachricht.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem diese Nachricht gehört.
message_id path Yes string Die ID der zu ändernden Nachricht.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Ändern einer Nachricht.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Erstellen – Thread und Ausführen

Note

Die Assistenten-API ist veraltet und wird am 26. August 2026 eingestellt. Verwenden Sie den allgemein verfügbaren Microsoft Foundry Agents-Dienst. Folgen Sie dem Migrationshandbuch , um Ihre Workloads zu aktualisieren. Learn more.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Erstellen Sie einen Thread, und führen Sie ihn in einer Anforderung aus.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der zum Ausführen dieser Ausführung verwendet werden soll. Yes
instructions string Überschreiben Sie die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. No
max_completion_tokens integer Die maximale Anzahl von Abschlusstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Abschlusstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die anzahl der angegebenen Abschlusstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter.
No
max_prompt_tokens integer Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Eingabeaufforderungstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die Anzahl der angegebenen Eingabeaufforderungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter.
No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
model string Die ID der Modelle, die zum Ausführen dieser Ausführung verwendet werden sollen. Wenn hier ein Wert angegeben wird, setzt er das dem Assistenten zugeordnete Modell außer Kraft. Wenn nicht, wird das dem Assistenten zugeordnete Modell verwendet. No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt.
No
stream_options chatCompletionStreamOptions Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.
No None
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.
Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen.
No
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
tools array Überschreiben Sie die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Erstellen Sie einen Thread, und führen Sie ihn in einer Anforderung aus.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

List - Runs

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Gibt eine Liste von Läufen zurück, die zu einem Thread gehören.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem die Ausführung gehört.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Gibt eine Liste von Läufen zurück, die zu einem Thread gehören.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Erstellen – Ausführen

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Erstellen Sie eine Ausführung.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des auszuführenden Threads.
include[] query No array Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert das Abrufen des Dateisuchergebnisinhalts.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
additional_instructions string Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. No
additional_messages array Fügt dem Thread zusätzliche Meldungen hinzu, bevor die Ausführung erstellt wird. No
assistant_id string Die ID des Assistenten, der zum Ausführen dieser Ausführung verwendet werden soll. Yes
instructions string Überschreiben Sie die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. No
max_completion_tokens integer Die maximale Anzahl von Abschlusstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Abschlusstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die anzahl der angegebenen Abschlusstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter.
No
max_prompt_tokens integer Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Eingabeaufforderungstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die Anzahl der angegebenen Eingabeaufforderungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter.
No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
model string Die ID des Modells, das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, setzt er das dem Assistenten zugeordnete Modell außer Kraft. Wenn nicht, wird das dem Assistenten zugeordnete Modell verwendet. No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.
Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen.
No
tools array Überschreiben Sie die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Erstellen Sie eine Ausführung.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Get – Ausführen

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Ruft eine Ausführung ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der ausgeführten Threads.
run_id path Yes string Die ID der abzurufenden Ausführung.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Ruft eine Ausführung ab.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modify - Ausführen

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Ändert eine Ausführung.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der ausgeführten Threads.
run_id path Yes string Die ID der auszuführenden Ausführung, die geändert werden soll.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Ändert eine Ausführung.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Submit - Toolausgabe zur Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Wenn eine Ausführung das status: "requires_action" Ergebnis hat und required_action.type ist submit_tool_outputs, kann dieser Endpunkt verwendet werden, um die Ausgaben des Tools zu übermitteln, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzigen Anforderung übermittelt werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu denen diese Ausführung gehört.
run_id path Yes string Die ID der Ausführung, für die die Toolausgabeübermittlung erforderlich ist.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
stream boolean Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt.
No
tool_outputs array Eine Liste der Tools, für die die Ausgaben übermittelt werden. Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Wenn eine Ausführung das status: "requires_action" Ergebnis hat und required_action.type ist submit_tool_outputs, kann dieser Endpunkt verwendet werden, um die Ausgaben des Tools zu übermitteln, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzigen Anforderung übermittelt werden.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Abbrechen – Ausführen

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Bricht eine Ausführung ab, die lautet in_progress.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem diese Ausführung gehört.
run_id path Yes string Die ID der Ausführung, die abgebrochen werden soll.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Bricht eine Ausführung ab, die lautet in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Liste – Ausführen von Schritten

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Gibt eine Liste der Ausführungsschritte zurück, die zu einer Ausführung gehören.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem die Ausführungs- und Ausführungsschritte gehören.
run_id path Yes string Die ID der Ausführung der Ausführungsschritte gehören.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string
include[] query No array Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert das Abrufen des Dateisuchergebnisinhalts.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Gibt eine Liste der Ausführungsschritte zurück, die zu einer Ausführung gehören.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Get - Run Step

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Ruft einen Ausführungsschritt ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem der Ausführungs- und Ausführungsschritt gehört.
run_id path Yes string Die ID der Ausführung, zu der der Ausführungsschritt gehört.
step_id path Yes string Die ID des auszuführenden Schritts zum Abrufen.
include[] query No array Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert das Abrufen des Dateisuchergebnisinhalts.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Ruft einen Ausführungsschritt ab.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Liste – Vektorspeicher

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Gibt eine Liste von Vektorspeichern zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Gibt eine Liste von Vektorspeichern zurück.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Erstellen – Vektorspeicher

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Erstellen Sie einen Vektorspeicher.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. Gilt nur, wenn file_ids es nicht leer ist. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
file_ids array Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
name string Der Name des Vektorspeichers. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Erstellt einen Vektorspeicher.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Abrufen – Vektorspeicher

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Ruft einen Vektorspeicher ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des abzurufenden Vektorspeichers.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Ruft einen Vektorspeicher ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modify – Vektorspeicher

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Ändert einen Vektorspeicher.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des zu ändernden Vektorspeichers.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
name string Der Name des Vektorspeichers. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Ändert einen Vektorspeicher.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Löschen – Vektorspeicher

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Löschen eines Vektorspeichers.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des zu löschenden Vektorspeichers.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Löscht einen Vektorspeicher.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Liste – Vektorspeicherdateien

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Gibt eine Liste von Vektorspeicherdateien zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Dateien gehören.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter query No string
Mögliche Werte: in_progress, , completed, failedcancelled
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Gibt eine Liste von Vektorspeicherdateien zurück.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Create – Vector Store-Datei

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, für den eine Datei erstellt werden soll.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. No
file_id string Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Abrufen – Vector Store-Datei

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Ruft eine Vektorspeicherdatei ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der abgerufenen Datei.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Ruft eine Vektorspeicherdatei ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Löschen – Vektorspeicherdatei

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den Löschdateiendpunkt.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der zu löschenden Datei.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den Löschdateiendpunkt.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Aktualisieren von Attributen in einer Vektorspeicherdatei.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der Datei zum Aktualisieren von Attributen.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes VectorStoreFileAttributes Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Abrufen von Vektorspeicherdateiinhalten

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Rufen Sie den analysierten Inhalt einer Vektorspeicherdatei ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers.
file_id path Yes string Die ID der Datei im Vektorspeicher.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Suchvektorspeicher

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Suchen Sie einen Vektorspeicher nach relevanten Blöcken basierend auf einem Abfrage- und Dateiattributefilter.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des zu durchsuchenden Vektorspeichers.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet werden soll. No
max_num_results integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen. No 10
query Zeichenfolge oder Matrix Eine Abfragezeichenfolge für eine Suche Yes
ranking_options object Bewertungsoptionen für die Suche. No
└─ ranker enum
Mögliche Werte: auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. No False

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Create – Vector Store-Dateibatch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Erstellen Sie einen Vektorspeicherdateibatch.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. No
file_ids array Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Erstellen Sie einen Vektorspeicherdateibatch.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Antworten: Statuscode: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Abrufen – Vector Store-Dateibatch

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Ruft einen Vektorspeicherdateibatch ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des abgerufenen Dateibatches.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Ruft einen Vektorspeicherdateibatch ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Abbrechen – Vector Store-Dateibatch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Abbrechen eines Vektorspeicherdateibatches. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des zu abbrechenden Dateibatches.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Abbrechen eines Vektorspeicherdateibatches. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Liste – Vector Store-Dateibatchdateien

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Gibt eine Liste der Vektorspeicherdateien in einem Batch zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Dateien gehören.
batch_id path Yes string Die ID des Dateibatches, zu dem die Dateien gehören.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter query No string
Mögliche Werte: in_progress, , completed, failedcancelled
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Gibt eine Liste von Vektorspeicherdateien zurück.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Erstellen: Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API. Kann mit denselben Sitzungsparametern wie das session.update Clientereignis konfiguriert werden. Er antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein verwendbares ephemeres API-Token enthält, das zum Authentifizieren von Browserclients für die Realtime-API verwendet werden kann.

Request Body

Content-Type: application/json

Name Type Description Required Default
input_audio_format enum Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Samplerate, einem einzelnen Kanal (Mono) und einer Kleinen-End-Byte-Reihenfolge sein.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Konfiguration für die Rauschunterdrückung von Eingaben. Dies kann so festgelegt werden, dass null sie deaktiviert wird.
Die Rauschreduzierung filtert audio, die dem Eingabeaudiopuffer hinzugefügt wurden, bevor sie an VAD und das Modell gesendet wird.
Durch die Filterung des Audiosignals können VAD verbessert und die Erkennungsgenauigkeit verbessert werden (falsch positive Ergebnisse reduziert) und die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudio verbessert wird.
No
└─ type enum Art der Rauschreduzierung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription, standardmäßig deaktiviert und kann so festgelegt werden, dass null das Deaktivieren einmal aktiviert ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Die Transkription wird asynchron über den Transkriptionsendpunkt ausgeführt und sollte als Anleitung für Eingabeaudioinhalte behandelt werden, anstatt genau das, was das Modell gehört hat. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst.
No
└─ language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ model string Das Modell, das für die Transkription verwendet werden soll, sind gpt-4o-transcribeaktuelle Optionen , , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15whisper-1.
No
└─ prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments.
Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.
Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
No
instructions string Die Standardmäßigen Systemanweisungen (d. h. Systemmeldung) werden modellierten Aufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und über Audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Die Anweisungen sind nicht garantiert, auf das Modell zu folgen, aber sie bieten Anleitungen für das Modell für das gewünschte Verhalten.

Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist.
No
max_response_output_tokens ganze Zahl oder Zeichenfolge Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Stellen Sie eine ganze Zahl zwischen 1 und 4096 bereit, inf um Ausgabetoken oder für die maximal verfügbaren Token für ein bestimmtes Modell einzuschränken. Standardwert ist .inf
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
model string Der Name der Bereitstellung, die für diese Sitzung verwendet wird.
No
output_audio_format enum Das Format der Ausgabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
Für pcm16, Ausgabeaudio wird mit einer Rate von 24 kHz abgesampt.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
temperature number Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Für Audiomodelle wird eine Temperatur von 0,8 dringend empfohlen, um eine optimale Leistung zu erzielen.
No 0.8
tool_choice string Wie das Modell Tools auswäht. Optionen sind auto, none, requiredoder geben Sie eine Funktion an.
No auto
tools array Tools (Funktionen), die für das Modell verfügbar sind. No
turn_detection object Konfiguration für turn detection, ether Server VAD oder Semantic VAD. Dies kann auf null das Deaktivieren festgelegt werden, in diesem Fall muss der Client die Modellantwort manuell auslösen.
Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
Semantischer VAD ist fortgeschrittener und verwendet ein Turn Detection-Modell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer gesprochen hat, und legt dann dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit fest. Wenn z. B. die Audiospur des Benutzers deaktiviert uhhmist, bewertet das Modell eine niedrige Wahrscheinlichkeit für das Ende der Drehung und wartet länger, bis der Benutzer weiter spricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben.
No
└─ create_response boolean Gibt an, ob beim Auftreten eines VAD-Stoppereignisses automatisch eine Antwort generiert werden soll.
No True
└─ eagerness enum Wird nur für semantic_vad den Modus verwendet. Die Eifer des Modells, zu reagieren. low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren. auto ist der Standardwert und entspricht mediumdem .

Mögliche Werte: low, , medium, highauto
No
└─ interrupt_response boolean Gibt an, ob beim Auftreten eines VAD-Startereignisses automatisch eine fortlaufende Antwort mit der Ausgabe der Standardunterhaltung (d. h. conversation von auto) unterbrochen werden soll.
No True
└─ prefix_padding_ms integer Wird nur für server_vad den Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms.
No
└─ silence_duration_ms integer Wird nur für server_vad den Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└─ threshold number Wird nur für server_vad den Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└─ type enum Typ der Turnerkennung.

Mögliche Werte: server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Statuscode: 200

Beschreibung: Die Sitzung wurde erfolgreich erstellt.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Erstellen: Transcriptionrealtimesession

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API speziell für Echtzeittranskriptionen. Kann mit denselben Sitzungsparametern wie das transcription_session.update Clientereignis konfiguriert werden. Er antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein verwendbares ephemeres API-Token enthält, das zum Authentifizieren von Browserclients für die Realtime-API verwendet werden kann.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Samplerate, einem einzelnen Kanal (Mono) und einer Kleinen-End-Byte-Reihenfolge sein.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Konfiguration für die Rauschunterdrückung von Eingaben. Dies kann so festgelegt werden, dass null sie deaktiviert wird.
Die Rauschreduzierung filtert audio, die dem Eingabeaudiopuffer hinzugefügt wurden, bevor sie an VAD und das Modell gesendet wird.
Durch die Filterung des Audiosignals können VAD verbessert und die Erkennungsgenauigkeit verbessert werden (falsch positive Ergebnisse reduziert) und die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudio verbessert wird.
No
└─ type enum Art der Rauschreduzierung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst.
No
└─ language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ model enum Das Modell, das für die Transkription verwendet werden soll, sind gpt-4o-transcribeaktuelle Optionen , , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15und whisper-1.

Mögliche Werte: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└─ prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments.
Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.
Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
turn_detection object Konfiguration für turn detection, ether Server VAD oder Semantic VAD. Dies kann auf null das Deaktivieren festgelegt werden, in diesem Fall muss der Client die Modellantwort manuell auslösen.
Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
Semantischer VAD ist fortgeschrittener und verwendet ein Turn Detection-Modell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer gesprochen hat, und legt dann dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit fest. Wenn z. B. die Audiospur des Benutzers deaktiviert uhhmist, bewertet das Modell eine niedrige Wahrscheinlichkeit für das Ende der Drehung und wartet länger, bis der Benutzer weiter spricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben.
No
└─ create_response boolean Gibt an, ob beim Auftreten eines VAD-Stoppereignisses automatisch eine Antwort generiert werden soll. Für Transkriptionssitzungen nicht verfügbar.
No True
└─ eagerness enum Wird nur für semantic_vad den Modus verwendet. Die Eifer des Modells, zu reagieren. low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren. auto ist der Standardwert und entspricht mediumdem .

Mögliche Werte: low, , medium, highauto
No
└─ interrupt_response boolean Gibt an, ob beim Auftreten eines VAD-Startereignisses automatisch eine fortlaufende Antwort mit der Ausgabe der Standardunterhaltung (d. h. conversation von auto) unterbrochen werden soll. Für Transkriptionssitzungen nicht verfügbar.
No True
└─ prefix_padding_ms integer Wird nur für server_vad den Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms.
No
└─ silence_duration_ms integer Wird nur für server_vad den Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└─ threshold number Wird nur für server_vad den Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└─ type enum Typ der Turnerkennung.

Mögliche Werte: server_vad, semantic_vad
No

Responses

Statuscode: 200

Beschreibung: Die Sitzung wurde erfolgreich erstellt.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Erstellt eine Modellantwort.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array No
input Zeichenfolge oder Matrix Model inputs Yes
instructions string Fügt eine Systemnachricht (oder entwickler) als erstes Element im Kontext des Modells ein.

Bei Verwendung mit previous_response_iddieser Antwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Unterhaltungsstatus.
No
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf.
No True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Erfahren Sie mehr über den Unterhaltungsstatus.
No
reasoning Reasoning Konfigurationsoptionen für Begründungsmodelle. No
store boolean Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll.
No True
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird.
Weitere Informationen finden Sie im Abschnitt "Streaming" weiter unten.
No False
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Learn more:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Durch das Konfigurieren werden { "type": "json_schema" } strukturierte Ausgaben aktiviert, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Erweiterung der
model's capabilities
No
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Antwort-API – Eingabeelemente

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Ruft eine Modellantwort mit der angegebenen ID ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der abzurufenden Antwort.
include query No array Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen. Weitere Informationen finden Sie im Obigen Parameter für die include Erstellung von Antworten.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json response

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Delete response

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Löscht eine Modellantwort mit der angegebenen ID.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der zu löschenden Antwort.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Statuscode: 404

Beschreibung: Nicht gefunden

Content-Type Type Description
application/json error

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Antwort-API – Antwortelementliste

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der Antwort, für die Eingabeelemente abgerufen werden sollen.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Die Reihenfolge, in der die Eingabeelemente zurückgegeben werden sollen. Der Standardwert ist asc.
- asc: Gibt die Eingabeelemente in aufsteigender Reihenfolge zurück.
- desc: Gibt die Eingabeelemente in absteigender Reihenfolge zurück.
after query No string Eine Element-ID zum Auflisten von Elementen, die in der Paginierung verwendet werden.
before query No string Eine Element-ID zum Auflisten von Elementen vor, die in der Paginierung verwendet werden.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen des Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
inner_error innerError Innerer Fehler mit zusätzlichen Details. No
param string No
type string No

innerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt. No
content_filter_results contentFilterPromptResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. No

innerErrorCode

Fehlercodes für das innere Fehlerobjekt.

Property Value
Description Fehlercodes für das innere Fehlerobjekt.
Type string
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
inner_error dalleInnerError Innerer Fehler mit zusätzlichen Details. No
param string No
type string No

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt. No
content_filter_results dalleFilterResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. No
revised_prompt string Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. No

contentFilterCompletionTextSpan

Beschreibt eine Spanne innerhalb des generierten Abschlusstexts. Offset 0 ist der erste UTF32-Codepunkt des Abschlusstexts.

Name Type Description Required Default
completion_end_offset integer Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld ist immer gleich completion_start_offset für leere Spannen. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. Yes
completion_start_offset integer Offset des UTF32-Codepunkts, der die Spanne beginnt. Yes

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No
└─ URL string No
└─ license string No

contentFilterDetectedWithCompletionTextSpansResult

Name Type Description Required Default
details array No

contentFilterIdResult

Name Type Description Required Default
filtered boolean Yes
id string No

contentFilterResultsBase

Informationen zu den Ergebnissen der Inhaltsfilterung.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente. No
error errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Text und Profanität von Drittanbietern, sofern er erkannt wurde und ob er gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente.

Name Type Description Required Default
details array No
filtered boolean Yes

promptFilterResult

Ergebnisse der Inhaltsfilterung für eine einzelne Eingabeaufforderung in der Anforderung.

Name Type Description Required Default
content_filter_results contentFilterPromptResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. No
prompt_index integer No

promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen.

Für diese Komponente sind keine Eigenschaften definiert.

dalleContentFilterResults

Informationen zu den Ergebnissen der Inhaltsfilterung.

Name Type Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Type Description Required Default
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. No
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. No
max_tokens integer Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig lautet die Anzahl der Token, die das Modell zurückgeben kann (4096 – Eingabeaufforderungstoken). Dies ist nicht mit o1-Serienmodellen kompatibel. No 4096
metadata object Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. No 0
stop Zeichenfolge oder Matrix Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. No
store boolean Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. No
stream boolean Wenn festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. No False
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.
Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

createCompletionRequest

Name Type Description Required Default
best_of integer Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.

Bei Verwendung mit n, best_of steuert die Anzahl der Abschlusskandidaten und n gibt an, wie viele zurückgegeben werden sollen. best_of muss größer als nsein.

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
No 1
echo boolean Echo der Eingabeaufforderung zusätzlich zum Abschluss
No False
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.

Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird.
No None
logprobs integer Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn beispielsweise logprobs 5 ist, gibt die API eine Liste der 5 höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob beispielgesteuerte Token zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.

Der Maximalwert für logprobs 5.
No None
max_tokens integer Die maximale Anzahl von Token, die im Abschluss generiert werden können.

Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen.

Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop.
No 1
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
No 0
prompt Zeichenfolge oder Matrix Die Eingabeaufforderungen zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Arrays von Token oder Arrays von Tokenarrays codiert werden sollen.

Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell vom Anfang eines neuen Dokuments generiert.
Yes
seed integer Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Matrix Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. Der zurückgegebene Text enthält nicht die Stoppsequenz.
No
stream boolean Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Beispiel-Python-Code.
No False
suffix string Das Suffix, das nach abschluss des eingefügten Texts kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instruct.
No None
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
No

createCompletionResponse

Stellt eine Abschlussantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dasselbe Shape (im Gegensatz zum Chatendpunkt).

Name Type Description Required Default
choices array Die Liste der Abschlussoptionen, die das Modell für die Eingabeaufforderung generiert hat. Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Abschlusses. Yes
id string Ein eindeutiger Bezeichner für den Abschluss. Yes
model string Das Modell, das für den Abschluss verwendet wird. Yes
object enum Der Objekttyp, der immer "text_completion" ist
Mögliche Werte: text_completion
Yes
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. No
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
No
usage completionUsage Nutzungsstatistiken für die Abschlussanforderung. No

createChatCompletionRequest

Name Type Description Required Default
audio object Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]. No
└─ format enum Gibt das Ausgabeaudioformat an. Muss eine von , , , , wavoder mp3. flacopuspcm16

Mögliche Werte: wav, , mp3flac, , opuspcm16
No
└─ voice enum Gibt den Sprachtyp an. Unterstützte Stimmen sind alloy, , echo, fable, onyx, novaund shimmer.

Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer
No
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt.
No 0
function_call string or chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

none ist der Standardwert, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
No
functions array Veraltet zugunsten von tools.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.
No None
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. No False
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. No
max_tokens integer Die maximale Anzahl von Token, die im Chatabschluss generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt.
No
messages array Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Beispiel-Python-Code. Yes
metadata object Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. No
modalities ChatCompletionModalities Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]
No
n integer Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. No 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
prediction PredictionContent Konfiguration für eine vorhergesagte Ausgabe, die die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort vorab bekannt sind. Dies ist am häufigsten, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu erstellen. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.
No 0
reasoning_effort enum Nur o1-Modelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.

Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Mögliche Werte: low, , mediumhigh
No
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die garantieren, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Matrix Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet.
No
store boolean Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. No
stream boolean Wenn festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Beispiel-Python-Code.
No False
stream_options chatCompletionStreamOptions Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.
No None
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.

Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
tool_choice chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen.
No
user_security_context userSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender für Cloud. No

userSecurityContext

Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender für Cloud.

Name Type Description Required Default
application_name string Der Name der Anwendung. Vertrauliche persönliche Informationen sollten in diesem Feld nicht enthalten sein. No
end_user_id string Dieser Bezeichner ist die Benutzerobjekt-ID von Microsoft Entra (früher Azure Active Directory), die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Vertrauliche persönliche Informationen sollten in diesem Feld nicht enthalten sein. No
end_user_tenant_id string Die Microsoft 365-Mandanten-ID, zu der der Endbenutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung mehrinstanzenfähig ist. No
source_ip string Erfasst die IP-Adresse des ursprünglichen Clients, wobei sowohl IPv4- als auch IPv6-Formate akzeptiert werden. No

chatCompletionFunctions

Name Type Description Required Default
description string Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name string Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Yes
parameters FunctionParameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
No

chatCompletionFunctionCallOption

Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

Name Type Description Required Default
name string Der Name der funktion, die aufgerufen werden soll. Yes

chatCompletionFunctionParameters

Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele und die JSON-Schemareferenz finden Sie in der Dokumentation zum Format.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionRequestMessage

Diese Komponente kann eine der folgenden Sein:

ChatCompletionRequestDeveloperMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren developer Nachrichten ersetzen Nachrichten die vorherigen system Nachrichten.

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt der Entwicklernachricht. Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall developer.
Mögliche Werte: developer
Yes

chatCompletionRequestSystemMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt der Systemnachricht. Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall system.
Mögliche Werte: system
Yes

chatCompletionRequestUserMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt der Benutzernachricht.
Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall user.
Mögliche Werte: user
Yes

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt der Assistentennachricht. Erforderlich, es sei denn tool_calls , oder function_call es wird angegeben.
No
function_call object Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
└─ arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. No
└─ name string Der Name der funktion, die aufgerufen werden soll. No
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
refusal string Die Ablehnungsnachricht des Assistenten. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall assistant.
Mögliche Werte: assistant
Yes
tool_calls chatCompletionMessageToolCalls Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. No

chatCompletionRequestToolMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt der Toolnachricht. Yes
role enum Die Rolle des Autors von Nachrichten in diesem Fall tool.
Mögliche Werte: tool
Yes
tool_call_id string Toolaufruf, auf den diese Nachricht reagiert. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Der Inhalt der Funktionsmeldung. Yes
name string Der Name der funktion, die aufgerufen werden soll. Yes
role enum Die Rolle des Autors von Nachrichten in diesem Fall function.
Mögliche Werte: function
Yes

chatCompletionRequestDeveloperMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestSystemMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestUserMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestAssistantMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestToolMessageContentPart

Diese Komponente kann eine der folgenden Sein:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Der Textinhalt. Yes
type enum Der Typ des Inhaltsteils.
Mögliche Werte: text
Yes

chatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ data string Base64-codierte Audiodaten. No
└─ format enum Das Format der codierten Audiodaten. Unterstützt derzeit "wav" und "mp3".

Mögliche Werte: wav, mp3
No
type enum Der Typ des Inhaltsteils. Immer input_audio.
Mögliche Werte: input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ detail enum Gibt die Detailebene des Bilds an. Weitere Informationen finden Sie im Vision-Leitfaden.
Mögliche Werte: auto, , lowhigh
No
└─ url string Entweder eine URL des Bilds oder die base64-codierten Bilddaten. No
type enum Der Typ des Inhaltsteils.
Mögliche Werte: image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Die vom Modell generierte Ablehnungsmeldung. Yes
type enum Der Typ des Inhaltsteils.
Mögliche Werte: refusal
Yes

azureChatExtensionConfiguration

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

###Discriminator für azureChatExtensionConfiguration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Type Description Required Default
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureChatExtensionType

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Property Value
Description Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Type string
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
parameters azureSearchChatExtensionParameters Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureSearchChatExtensionParameters

Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden.

Name Type Description Required Default
allow_partial_result boolean Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataIntegratedVectorizationSource No
endpoint string Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. Yes
fields_mapping azureSearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. No
filter string Search filter. No
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. No
index_name string Der Name des Indexes, der in der referenzierten Azure Search-Ressource als verfügbar verwendet werden soll. Yes
max_search_queries integer Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. No
query_type azureSearchQueryType Der Typ der Azure Search-Abrufabfrage, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. No
semantic_configuration string Die zusätzliche semantische Konfiguration für die Abfrage. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. No
top_n_documents integer Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

azureSearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
image_vector_fields array Die Namen von Feldern, die Bildvektordaten darstellen. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No

azureSearchQueryType

Der Typ der Azure Search-Abrufabfrage, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Property Value
Description Der Typ der Azure Search-Abrufabfrage, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
Type string
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
parameters azureCosmosDBChatExtensionParameters Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat-Erweiterungen bei Verwendung von Azure Cosmos DB für MongoDB vCore verwendet werden sollen. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureCosmosDBChatExtensionParameters

Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat-Erweiterungen bei Verwendung von Azure Cosmos DB für MongoDB vCore verwendet werden sollen.

Name Type Description Required Default
allow_partial_result boolean Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
authentication onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge. Yes
container_name string Der Name des Azure Cosmos DB-Ressourcencontainers. Yes
database_name string Der Name der MongoDB-vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll. Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource. Yes
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. No
index_name string Der Name des MongoDB vCore-Indexes, der mit Azure Cosmos DB verwendet werden soll. Yes
max_search_queries integer Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. No
top_n_documents integer Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

azureCosmosDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Yes
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. Yes

elasticsearchChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Elasticsearch, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
parameters elasticsearchChatExtensionParameters Parameter, die beim Konfigurieren von Elasticsearch als® Azure OpenAI-Chaterweiterung verwendet werden sollen. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

elasticsearchChatExtensionParameters

Parameter, die beim Konfigurieren von Elasticsearch als® Azure OpenAI-Chaterweiterung verwendet werden sollen.

Name Type Description Required Default
allow_partial_result boolean Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
authentication onYourDataKeyAndKeyIdAuthenticationOptions oder onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataModelIdVectorizationSource No
endpoint string Der Endpunkt von Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten ElasticsearchÂ-Ressource®. No
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. No
index_name string Der Indexname von Elasticsearch®. Yes
max_search_queries integer Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. No
query_type elasticsearchQueryType Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. No
top_n_documents integer Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

elasticsearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten ElasticsearchÂ-Ressource®.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No

elasticsearchQueryType

Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Property Value
Description Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
Type string
Values simple
vector

mongoDBChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Mongo DB, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
parameters mongoDBChatExtensionParameters Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat-Erweiterungen bei Verwendung von Mongo DB verwendet werden sollen. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

mongoDBChatExtensionParameters

Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat-Erweiterungen bei Verwendung von Mongo DB verwendet werden sollen.

Name Type Description Required Default
allow_partial_result boolean Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
app_name string Der Name der Mongo DB-Anwendung. Yes
authentication onYourDataUsernameAndPasswordAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Benutzernamens und eines Kennworts. Yes
collection_name string Der Name der Mongo DB-Sammlung. Yes
database_name string Der Name der Mongo DB-Datenbank. Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Yes
endpoint string Der Name des Mongo DB-Clusterendpunkts. Yes
fields_mapping mongoDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource. Yes
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. No
index_name string Der Name des Mongo DB-Indexes. Yes
max_search_queries integer Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. No
top_n_documents integer Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

mongoDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Yes
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. Yes

pineconeChatExtensionConfiguration

Eine bestimmte Darstellung konfigurierbarer Optionen für Pinecone, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
parameters pineconeChatExtensionParameters Parameter zum Konfigurieren von Azure OpenAI Pinecone-Chaterweiterungen. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

pineconeChatExtensionParameters

Parameter zum Konfigurieren von Azure OpenAI Pinecone-Chaterweiterungen.

Name Type Description Required Default
allow_partial_result boolean Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
authentication onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert. Yes
environment string Der Umgebungsname von Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource. Yes
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. No
index_name string Der Name des Pinecone-Datenbankindex. Yes
max_search_queries integer Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. No
top_n_documents integer Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

pineconeFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Yes
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI Auf Ihren Daten.

Diskriminator für onYourDataAuthenticationOptions

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes

onYourDataContextProperty

Die Kontexteigenschaft.

Property Value
Description Die Kontexteigenschaft.
Type string
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden.

Property Value
Description Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden.
Type string
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.

Name Type Description Required Default
key string Der FÜR die Authentifizierung zu verwendende API-Schlüssel. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes

onYourDataConnectionStringAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge.

Name Type Description Required Default
connection_string string Die für die Authentifizierung zu verwendende Verbindungszeichenfolge. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Elasticsearch-Schlüssel- und Schlüssel-ID-Paars.

Name Type Description Required Default
key string Der Elasticsearch-Schlüssel, der für die Authentifizierung verwendet werden soll. No
key_id string Die Elasticsearch-Schlüssel-ID, die für die Authentifizierung verwendet werden soll. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes

onYourDataEncodedApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines elasticsearch-codierten API-Schlüssels.

Name Type Description Required Default
encoded_api_key string Der elasticsearch-codierte API-Schlüssel, der für die Authentifizierung verwendet werden soll. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes

onYourDataAccessTokenAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung des Zugriffstokens.

Name Type Description Required Default
access_token string Das Zugriffstoken, das für die Authentifizierung verwendet werden soll. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.

Name Type Description Required Default
managed_identity_resource_id string Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Benutzernamens und eines Kennworts.

Name Type Description Required Default
password string The password. für die Authentifizierung zu verwenden. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. Yes
username string Der benutzername, der für die Authentifizierung verwendet werden soll. No

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Type Description Required Default
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. Yes

onYourDataVectorizationSourceType

Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren.

Property Value
Description Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren.
Type string
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Einbettungen basiert.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions No
dimensions integer Die Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. No
endpoint string Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Es sollte im Format von https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der Abfrageparameter der API-Version ist nicht zulässig. No
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. Yes

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert.

Name Type Description Required Default
deployment_name string Gibt den Namen der Modellbereitstellung an, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber in Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch die Vektorsuche auch in privaten Netzwerken ermöglicht wird. No
dimensions integer Die Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. No
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. Yes

onYourDataIntegratedVectorizationSource

Stellt den integrierten Vektorizer dar, der in der Suchressource definiert ist.

Name Type Description Required Default
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. Yes

onYourDataModelIdVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einer Suchdienstmodell-ID basiert. Derzeit nur von Elasticsearch unterstützt.®

Name Type Description Required Default
model_id string Gibt die Modell-ID an, die für die Vektorisierung verwendet werden soll. Diese Modell-ID muss im Suchdienst definiert werden. No
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. Yes

azureChatExtensionsMessageContext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung ausgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist.

Name Type Description Required Default
all_retrieved_documents array Alle abgerufenen Dokumente. No
citations array Das Abrufergebnis der Datenquelle, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. No
intent string Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um an die nächste Aufgabe zu übergeben, um den Kontext zu übernehmen. No

citation

Zitatinformationen für eine Chatabschlussantwortnachricht.

Name Type Description Required Default
chunk_id string Die Block-ID des Zitats. No
content string Der Inhalt des Zitats. Yes
filepath string Der Dateipfad des Zitats. No
rerank_score number Die Rerankbewertung des abgerufenen Dokuments. No
title string Der Titel des Zitats. No
url string Die URL des Zitats. No

retrievedDocument

Das abgerufene Dokument.

Name Type Description Required Default
chunk_id string Die Block-ID des Zitats. No
content string Der Inhalt des Zitats. Yes
data_source_index integer Der Index der Datenquelle. No
filepath string Der Dateipfad des Zitats. No
filter_reason filterReason Der Filtergrund des abgerufenen Dokuments. No
original_search_score number Die ursprüngliche Suchbewertung des abgerufenen Dokuments. No
rerank_score number Die Rerankbewertung des abgerufenen Dokuments. No
search_queries array Die Suchabfragen, die zum Abrufen des Dokuments verwendet werden. No
title string Der Titel des Zitats. No
url string Die URL des Zitats. No

filterReason

Der Filtergrund des abgerufenen Dokuments.

Property Value
Description Der Filtergrund des abgerufenen Dokuments.
Type string
Values score
rerank

chatCompletionMessageToolCall

Name Type Description Required Default
function object Die Funktion, die das Modell aufgerufen hat. Yes
└─ arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. No
└─ name string Der Name der funktion, die aufgerufen werden soll. No
id string Die ID des Toolaufrufs. Yes
type toolCallType Der Typ des Toolaufrufs in diesem Fall function. Yes

toolCallType

Der Typ des Toolaufrufs in diesem Fall function.

Property Value
Description Der Typ des Toolaufrufs in diesem Fall function.
Type string
Values function

chatCompletionRequestMessageTool

Name Type Description Required Default
content string Der Inhalt der Nachricht. No
tool_call_id string Toolaufruf, auf den diese Nachricht reagiert. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
content string Der Inhalt der Nachricht. No
name string Der Inhalt der Nachricht. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall function.
Mögliche Werte: function
No

createChatCompletionResponse

Stellt eine chat-Abschlussantwort dar, die nach Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.

Name Type Description Required Default
choices array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere sein, wenn n größer als 1 ist. Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Yes
id string Ein eindeutiger Bezeichner für den Chatabschluss. Yes
model string Das Modell, das für den Chatabschluss verwendet wird. Yes
object enum Der Objekttyp, der immer chat.completionist.
Mögliche Werte: chat.completion
Yes
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. No
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
No
usage completionUsage Nutzungsstatistiken für die Abschlussanforderung. No

createChatCompletionStreamResponse

Stellt einen gestreamten Teil einer Chat-Abschlussantwort dar, die nach Dem Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.

Name Type Description Required Default
choices array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehr als ein Element enthalten, wenn n größer als 1 ist.
Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Jeder Block hat den gleichen Zeitstempel. Yes
id string Ein eindeutiger Bezeichner für den Chatabschluss. Jeder Block weist die gleiche ID auf. Yes
model string Das Modell, das den Abschluss generiert. Yes
object enum Der Objekttyp, der immer chat.completion.chunkist.
Mögliche Werte: chat.completion.chunk
Yes
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
No

chatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von streamten Modellantworten generiert wurde.

Name Type Description Required Default
content string Der Inhalt der Blocknachricht. No
function_call object Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
└─ arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. No
└─ name string Der Name der funktion, die aufgerufen werden soll. No
refusal string Die vom Modell generierte Ablehnungsmeldung. No
role enum Die Rolle des Autors dieser Nachricht.
Mögliche Werte: system, , user, assistanttool
No
tool_calls array No

chatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. No
└─ name string Der Name der funktion, die aufgerufen werden soll. No
id string Die ID des Toolaufrufs. No
index integer Yes
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
No

chatCompletionStreamOptions

Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.

Name Type Description Required Default
include_usage boolean Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert.
No

chatCompletionChoiceLogProbs

Protokoll-Wahrscheinlichkeitsinformationen für die Auswahl.

Name Type Description Required Default
content array Eine Liste der Nachrichteninhaltstoken mit Protokollwahrscheinlichkeitsinformationen. Yes
refusal array Eine Liste der Nachrichtenverweigerungstoken mit Protokollwahrscheinlichkeitsinformationen. No

chatCompletionTokenLogprob

Name Type Description Required Default
bytes array Eine Liste der ganzzahligen Zahlen, die die UTF-8 Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden, und ihre Bytedarstellungen müssen kombiniert werden, um die richtige Textdarstellung zu generieren. Kann sein null , wenn für das Token keine Bytedarstellung vorhanden ist. Yes
logprob number Die Protokollwahrscheinlichkeit dieses Tokens. Yes
token string The token. Yes
top_logprobs array Liste der höchstwahrscheinlichen Token und deren Protokollwahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen kann es weniger als die Anzahl der angeforderten top_logprobs Rückgaben geben. Yes

chatCompletionResponseMessage

Eine vom Modell generierte Chatabschlussnachricht.

Name Type Description Required Default
audio object Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells. No
└─ data string Base64-codierte Audiobytes, die vom Modell generiert wurden, im in der Anforderung angegebenen Format.
No
└─ expires_at integer Der Unix-Zeitstempel (in Sekunden) für den Fall, dass diese Audioantwort nicht mehr auf dem Server zur Verwendung in Multi-Turn-Unterhaltungen zugänglich ist.
No
└─ id string Eindeutiger Bezeichner für diese Audioantwort. No
└─ transcript string Transkription der vom Modell generierten Audiodaten. No
content string Der Inhalt der Nachricht. Yes
context azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung ausgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist. No
function_call chatCompletionFunctionCall Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
refusal string Die vom Modell generierte Ablehnungsmeldung. Yes
role chatCompletionResponseMessageRole Die Rolle des Autors der Antwortnachricht. Yes
tool_calls array Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. No

chatCompletionResponseMessageRole

Die Rolle des Autors der Antwortnachricht.

Property Value
Description Die Rolle des Autors der Antwortnachricht.
Type string
Values assistant

chatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Diese Komponente kann eine der folgenden Sein:

chatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Type Description Required Default
function object Yes
└─ name string Der Name der funktion, die aufgerufen werden soll. No
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Yes

ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Für diese Komponente sind keine Eigenschaften definiert.

PredictionContent

Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.

Name Type Description Required Default
content Zeichenfolge oder Matrix Der Inhalt, der beim Generieren einer Modellantwort abgeglichen werden soll. Wenn generierte Token mit diesem Inhalt übereinstimmen, kann die gesamte Modellantwort viel schneller zurückgegeben werden. Yes
type enum Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.
Mögliche Werte: content
Yes

chatCompletionMessageToolCalls

Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe.

Für diese Komponente sind keine Eigenschaften definiert.

ChatCompletionModalities

Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionFunctionCall

Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.

Name Type Description Required Default
arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. Yes
name string Der Name der funktion, die aufgerufen werden soll. Yes

completionUsage

Nutzungsstatistiken für die Abschlussanforderung.

Name Type Description Required Default
completion_tokens integer Anzahl der Token im generierten Abschluss. Yes
completion_tokens_details object Aufschlüsselung der in einem Abschluss verwendeten Token. No
└─ accepted_prediction_tokens integer Bei Verwendung von "Vorhergesagte Ausgaben" gibt es die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. No
└─ audio_tokens integer Vom Modell generierte Audioeingabetoken. No
└─ reasoning_tokens integer Vom Modell generierte Token zur Begründung. No
└─ rejected_prediction_tokens integer Bei Verwendung von vorhergesagten Ausgaben wird die Anzahl der Token in der Vorhersage, die nicht im Abschluss angezeigt wurden. Wie aus Gründen versehene Token werden diese Token jedoch weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. No
prompt_tokens integer Anzahl der Token in der Eingabeaufforderung. Yes
prompt_tokens_details object Details der Eingabeaufforderungstoken. No
└─ audio_tokens integer Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. No
└─ cached_tokens integer Die Anzahl der zwischengespeicherten Eingabeaufforderungstoken. No
total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). Yes

chatCompletionTool

Name Type Description Required Default
function FunctionObject Yes
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Yes

FunctionParameters

Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.

Für diese Komponente sind keine Eigenschaften definiert.

FunctionObject

Name Type Description Required Default
description string Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name string Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Yes
parameters FunctionParameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
No
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf "true" festgelegt ist, folgt das Modell dem genauen Schema, das parameters im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. No False

ResponseFormatText

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats: text
Mögliche Werte: text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats: json_object
Mögliche Werte: json_object
Yes

ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseFormatJsonSchema

Name Type Description Required Default
json_schema object Yes
└─ description string Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert. No
└─ name string Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. No
└─ schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. No
└─ strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. No False
type enum Der Typ des zu definierenden Antwortformats: json_schema
Mögliche Werte: json_schema
Yes

chatCompletionChoiceCommon

Name Type Description Required Default
finish_reason string No
index integer No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Die zu übersetzende Audiodatei. Yes
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

audioResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format json war

Name Type Description Required Default
text string Übersetzter oder transkribierter Text. Yes

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json

Name Type Description Required Default
duration number Duration. No
language string Language. No
segments array No
task string Typ der Audioaufgabe. No
text string Übersetzter oder transkribierter Text. Yes
words array No

audioResponseFormat

Definiert das Format der Ausgabe.

Property Value
Description Definiert das Format der Ausgabe.
Type string
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Das zu transkribierende Audiodateiobjekt. Yes
language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. No
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription aufgefüllt werden sollen. response_format muss für die Verwendung von Timestamp-Granularitäten festgelegt verbose_json werden. Entweder oder beide dieser Optionen werden unterstützt: wordoder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. No ['segment']

audioSegment

Transkription oder Übersetzungssegment.

Name Type Description Required Default
avg_logprob number Durchschnittliche Protokollwahrscheinlichkeit. No
compression_ratio number Compression ratio. No
end number Segmentende-Offset. No
id integer Segment identifier. No
no_speech_prob number Wahrscheinlichkeit von "keine Rede". No
seek number Offset des Segments. No
start number Segmentanfangsoffset. No
temperature number Temperature. No
text string Segment text. No
tokens array Token des Texts. No

audioWord

Transkription oder Übersetzungswort.

Name Type Description Required Default
end number Word-Endoffset. No
start number Word Offset starten. No
word string Word No

createSpeechRequest

Speech request.

Name Type Description Required Default
input string Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. Yes
response_format enum Das Format zum Synthetisieren des Audiosignals.
Mögliche Werte: mp3, , opus, aacflac, , , wavpcm
No
speed number Die Geschwindigkeit der synthetisierten Audiodaten. Wählen Sie einen Wert von 0.25 bis zu 4.0. 1.0 ist der Standardwert. No 1.0
voice enum Die Stimme, die für die Sprachsynthese verwendet werden soll.
Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer
Yes

imageQuality

Die Qualität des Bilds, das generiert wird.

Property Value
Description Die Qualität des Bilds, das generiert wird.
Type string
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Property Value
Description Das Format, in dem die generierten Bilder zurückgegeben werden.
Type string
Default url
Values url
b64_json

imagesOutputFormat

Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für Serienmodelle unterstützt.

Property Value
Description Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt.
Type string
Default png
Values png
jpeg

imageSize

Die Größe der generierten Bilder.

Property Value
Description Die Größe der generierten Bilder.
Type string
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

Die Formatvorlage der generierten Bilder. Wird nur für dall-e-3 unterstützt.

Property Value
Description Die Formatvorlage der generierten Bilder. Wird nur für dall-e-3 unterstützt.
Type string
Default vivid
Values vivid
natural

imageBackground

Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt.

Property Value
Description Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt.
Type string
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Type Description Required Default
background imageBackground Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. No auto
n integer Die Anzahl der zu generierenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. No 1
output_compression integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. No 100
output_format imagesOutputFormat Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. No png
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serienmodelle und 4000 Zeichen für dall-e-3 Yes
quality imageQuality Die Qualität des Bilds, das generiert wird. No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Wird nur für dall-e-3 unterstützt. No url
size imageSize Die Größe der generierten Bilder. No auto
style imageStyle Die Formatvorlage der generierten Bilder. Wird nur für dall-e-3 unterstützt. No vivid
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No

imageEditsRequest

Name Type Description Required Default
image Zeichenfolge oder Matrix Die zu bearbeitenden Bilder. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder JPG-Datei sein, die kleiner als 25 MB ist. Yes
mask string Ein zusätzliches Bild, dessen vollständig transparente Bereiche (z. B. Alpha null) angeben, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Muss eine gültige PNG-Datei sein, die kleiner als 4 MB ist und die gleichen Abmessungen wie das Bild aufweist. No
n integer Die Anzahl der zu generierenden Bilder. No 1
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen. Yes
quality imageQuality Die Qualität des Bilds, das generiert wird. No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
size imageSize Die Größe der generierten Bilder. No auto
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No

generateImagesResponse

Name Type Description Required Default
created integer Der Unix-Zeitstempel, als der Vorgang erstellt wurde. Yes
data array Die Ergebnisdaten des Vorgangs, falls erfolgreich Yes
usage imageGenerationsUsage Stellt Tokenverwendungsdetails für Anforderungen zur Bildgenerierung dar. Nur für gpt-image-1-Serienmodelle. No

imageResult

Die Bild-URL oder das codierte Bild bei erfolgreicher Ausführung und andernfalls ein Fehler.

Name Type Description Required Default
b64_json string Das base64-codierte Bild No
content_filter_results dalleContentFilterResults Informationen zu den Ergebnissen der Inhaltsfilterung. No
prompt_filter_results dalleFilterResults Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. No
revised_prompt string Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. No
url string Die Bild-URL. No

imageGenerationsUsage

Stellt Tokenverwendungsdetails für Anforderungen zur Bildgenerierung dar. Nur für gpt-image-1-Serienmodelle.

Name Type Description Required Default
input_tokens integer Die Anzahl der Eingabetoken. No
input_tokens_details object Eine detaillierte Aufschlüsselung der Eingabetoken. No
└─ image_tokens integer Die Anzahl der Bildtoken. No
└─ text_tokens integer Die Anzahl der Texttoken. No
output_tokens integer Die Anzahl der Ausgabetoken. No
total_tokens integer Die Gesamtzahl der verwendeten Token. No

line

Ein Inhaltszeilenobjekt, das aus einer angrenzenden Abfolge von Inhaltselementen besteht, z. B. Wörter und Auswahlzeichen.

Name Type Description Required Default
spans array Ein Array von Bereichen, die erkannte Objekte und die umgebenden Feldinformationen darstellen. Yes
text string Yes

span

Ein Span-Objekt, das ein erkanntes Objekt und seine umgebenden Feldinformationen darstellt.

Name Type Description Required Default
length integer Die Länge der Spannweite in Zeichen, gemessen in Unicode-Codepoints. Yes
offset integer Der Zeichenoffset innerhalb des Texts, in dem die Spanne beginnt. Dieser Offset wird als Position des ersten Zeichens der Spanne definiert, die vom Anfang des Texts als Unicode-Codepunkte gezählt wird. Yes
polygon array Ein Array von Objekten, die Punkte im Polygon darstellen, das das erkannte Objekt einschließt. Yes
text string Der Textinhalt der Spanne, die das erkannte Objekt darstellt. Yes

runCompletionUsage

Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null , wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, usw queued.).

Name Type Description Required Default
completion_tokens integer Die Anzahl der im Lauf der Ausführung verwendeten Abschlusstoken. Yes
prompt_tokens integer Die Anzahl der im Lauf der Ausführung verwendeten Eingabeaufforderungstoken. Yes
total_tokens integer Gesamtzahl der verwendeten Token (Eingabeaufforderung + Abschluss). Yes

runStepCompletionUsage

Verwendungsstatistiken im Zusammenhang mit dem Ausführungsschritt. Dieser Wert wird null angegeben, während der Status des Ausführungsschritts lautet in_progress.

Name Type Description Required Default
completion_tokens integer Die Anzahl der im Lauf des Ausführungsschritts verwendeten Abschlusstoken. Yes
prompt_tokens integer Die Anzahl der im Lauf des Ausführungsschritts verwendeten Eingabeaufforderungstoken. Yes
total_tokens integer Gesamtzahl der verwendeten Token (Eingabeaufforderung + Abschluss). Yes

assistantsApiResponseFormatOption

Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.

Diese Komponente kann eine der folgenden Sein:

assistantsApiResponseFormat

Ein Objekt, das die erwartete Ausgabe des Modells beschreibt. Wenn json_object nur function der Typ tools an die Ausführung übergeben werden darf. Wenn text das Modell Text oder einen beliebigen benötigten Wert zurückgeben kann.

Name Type Description Required Default
type string Muss eine von text oder json_object. No text

type Enum: AssistantsApiResponseFormat

Value Description
text
json_object

assistantObject

Stellt einen assistant Wert dar, der das Modell aufrufen und Tools verwenden kann.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Assistenten. Yes
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen.
Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
Yes
model string ID des zu verwendenden Modells. Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
Yes
object string Der Objekttyp, der immer assistantist. Yes
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, file_search, oder function.
Yes []
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1

object Enum: AssistantObjectType

Value Description
assistant Der Objekttyp, der immer Assistent ist

createAssistantRequest

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen.
No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
model string Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Der an diesen Assistenten angefügte Vektorspeicher. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
└─ vector_stores array Ein Helfer zum Erstellen eines Vektorspeichers mit file_ids und an diesen Assistenten anfügen. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, retrieval, oder function.
No []
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1

modifyAssistantRequest

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32768 Zeichen.
No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
model string No
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Überschreibt die Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Überschreibt den an diesen Assistenten angefügten Vektorspeicher. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, retrieval, oder function.
No []
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1

deleteAssistantResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum: DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

assistantToolsCode

Name Type Description Required Default
type string Der Typ des tools, das definiert wird: code_interpreter Yes

type Enum: assistantToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Type Description Required Default
file_search object Außerkraftsetzungen für das Dateisuchtool. No
└─ max_num_results integer Die maximale Anzahl der Ergebnisse, die das Dateisuchtool ausgeben soll. Der Standardwert ist 20 für gpt-4*-Modelle und 5 für gpt-3.5-Turbo. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen.

Beachten Sie, dass das Dateisuchtool weniger als max_num_results Ergebnisse ausgeben kann.
No
type string Der Typ des tools, das definiert wird: file_search Yes

type Enum: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Type Description Required Default
type string Der Typ des tools, das definiert wird: file_search Yes

type Enum: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Type Description Required Default
function object Die Funktionsdefinition. Yes
└─ description string Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
└─ name string Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. No
└─ parameters chatCompletionFunctionParameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele und die JSON-Schemareferenz finden Sie in der Dokumentation zum Format. No
type string Der Typ des tools, das definiert wird: function Yes

type Enum: assistantToolsFunction

Value Description
function

truncationObject

Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern.

Name Type Description Required Default
last_messages integer Die Anzahl der letzten Nachrichten aus dem Thread beim Erstellen des Kontexts für die Ausführung. No
type string Die für den Thread zu verwendende Abkürzungsstrategie. Der Standardwert ist auto. Wenn dieser Wert auf festgelegt last_messagesist, wird der Thread auf die letzten Nachrichten im Thread abgeschnitten. Bei Festlegung auf auto, werden Nachrichten in der Mitte des Threads gelöscht, um die Kontextlänge des Modells anzupassen. max_prompt_tokens Yes

type Enum: TruncationType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert. auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann. Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen.

Diese Komponente kann eine der folgenden Sein:

assistantsNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes Tool aufruft.

Name Type Description Required Default
function object No
└─ name string Der Name der funktion, die aufgerufen werden soll. No
type string Der Typ des Tools. Wenn der Typ lautet function, muss der Funktionsname festgelegt werden. Yes

type Enum: AssistantsNamedToolChoiceType

Value Description
function
code_interpreter
file_search

runObject

Stellt eine Ausführung dar, die in einem Threads ausgeführt wird.

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der für die Ausführung dieser Ausführung verwendet wird. Yes
cancelled_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Ausführung abgebrochen wurde. Yes
completed_at integer Der Unix-Zeitstempel (in Sekunden) für den Abschluss der Ausführung. Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Laufs. Yes
expires_at integer Der Unix-Zeitstempel (in Sekunden) für den Ablauf der Ausführung. Yes
failed_at integer Der Unix-Zeitstempel (in Sekunden) für den Fehler beim Ausführen. Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
incomplete_details object Details dazu, warum die Ausführung unvollständig ist. null Wenn die Ausführung nicht unvollständig ist. Yes
└─ reason string Der Grund, warum der Lauf unvollständig ist. Dies zeigt an, auf welche bestimmte Tokengrenze im Lauf der Ausführung erreicht wurde. No
instructions string Die Anweisungen, die der Assistent für diese Ausführung verwendet hat. Yes
last_error object Der letzte Fehler, der dieser Ausführung zugeordnet ist. null Wenn keine Fehler vorhanden sind. Yes
└─ code string Einer von server_error oder rate_limit_exceeded. No
└─ message string Eine lesbare Beschreibung des Fehlers. No
max_completion_tokens integer Die maximale Anzahl von Abschlusstoken, die für die Verwendung im Lauf der Ausführung angegeben wurden.
Yes
max_prompt_tokens integer Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet wurden.
Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
Yes
model string Das Modell, das der Assistent für diese Ausführung verwendet hat. Yes
object string Der Objekttyp, der immer thread.runist. Yes
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
required_action object Details zu der aktion, die erforderlich ist, um die Ausführung fortzusetzen. null Wenn keine Aktion erforderlich ist. Yes
└─ submit_tool_outputs object Details zu den für diese Ausführung benötigten Toolausgabeen, um fortzufahren. No
└─ tool_calls array Eine Liste der relevanten Toolaufrufe. No
└─ type enum Für heute ist dies immer submit_tool_outputs.
Mögliche Werte: submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Yes
started_at integer Der Unix-Zeitstempel (in Sekunden) für den Start des Laufs. Yes
status string Der Status der Ausführung, die entweder queued, , in_progress, , requires_action, cancelling, cancelled, , failedoder completedexpired. Yes
temperature number Die für diesen Lauf verwendete Samplingtemperatur. Wenn sie nicht festgelegt ist, wird standardmäßig "1" festgelegt. No
thread_id string Die ID der Threads, die als Teil dieser Ausführung ausgeführt wurden. Yes
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.
Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen.
Yes
tools array Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat. Yes []
top_p number Der kernsampling-Wert, der für diesen Lauf verwendet wird. Wenn sie nicht festgelegt ist, wird standardmäßig "1" festgelegt. No
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. Yes
usage runCompletionUsage Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null , wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, usw queued.). Yes

object Enum: runObjectType

Value Description
thread.run Der Run-Objekttyp, der immer thread.run ist

status Enum: RunObjectStatus

Value Description
queued Der Status der Warteschlange
in_progress Der status in_progress
requires_action Der status required_action
cancelling Der Status "Abbrechen"
cancelled Der Status "Abgebrochen"
failed Fehlerstatus
completed Der status abgeschlossen
expired Der Status "Abgelaufen"

createRunRequest

Name Type Description Required Default
additional_instructions string Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. No
additional_messages array Fügt dem Thread zusätzliche Meldungen hinzu, bevor die Ausführung erstellt wird. No
assistant_id string Die ID des Assistenten, der zum Ausführen dieser Ausführung verwendet werden soll. Yes
instructions string Überschreiben Sie die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. No
max_completion_tokens integer Die maximale Anzahl von Abschlusstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Abschlusstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die anzahl der angegebenen Abschlusstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter.
No
max_prompt_tokens integer Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Eingabeaufforderungstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die Anzahl der angegebenen Eingabeaufforderungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter.
No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
model string Die ID des Modells, das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, setzt er das dem Assistenten zugeordnete Modell außer Kraft. Wenn nicht, wird das dem Assistenten zugeordnete Modell verwendet. No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.
Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen.
No
tools array Überschreiben Sie die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. No

listRunsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

modifyRunRequest

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No

submitToolOutputsRunRequest

Name Type Description Required Default
stream boolean Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt.
No
tool_outputs array Eine Liste der Tools, für die die Ausgaben übermittelt werden. Yes

runToolCallObject

Toolaufrufobjekte

Name Type Description Required Default
function object Die Funktionsdefinition. Yes
└─ arguments string Die Argumente, die das Modell erwartet, dass Sie an die Funktion übergeben werden. No
└─ name string Der Name der Funktion. No
id string Die ID des Toolaufrufs. Auf diese ID muss verwiesen werden, wenn Sie die Toolausgabe mithilfe der Übermittlungstoolausgabe zum Ausführen von Endpunktendpoint übermitteln. Yes
type string Der Typ des Toolaufrufs, für den die Ausgabe erforderlich ist. Für heute ist dies immer function. Yes

type Enum: RunToolCallObjectType

Value Description
function

createThreadAndRunRequest

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der zum Ausführen dieser Ausführung verwendet werden soll. Yes
instructions string Überschreiben Sie die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. No
max_completion_tokens integer Die maximale Anzahl von Abschlusstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Abschlusstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die anzahl der angegebenen Abschlusstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter.
No
max_prompt_tokens integer Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Eingabeaufforderungstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die Anzahl der angegebenen Eingabeaufforderungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter.
No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
model string Die ID der Modelle, die zum Ausführen dieser Ausführung verwendet werden sollen. Wenn hier ein Wert angegeben wird, setzt er das dem Assistenten zugeordnete Modell außer Kraft. Wenn nicht, wird das dem Assistenten zugeordnete Modell verwendet. No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".

Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.

Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt.
No
stream_options chatCompletionStreamOptions Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.
No None
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.
Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen.
No
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein.
No
tools array Überschreiben Sie die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide.
No 1
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. No

threadObject

Stellt einen Thread dar, der Nachrichten enthält.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Threads. Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
Yes
object string Der Objekttyp, der immer threadist. Yes
tool_resources object Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
Yes
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein.
No

object Enum: ThreadObjectType

Value Description
thread Der Typ des Threadobjekts, das immer thread

createThreadRequest

Name Type Description Required Default
messages array Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
tool_resources object Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein.
No
└─ vector_stores array Ein Hilfsprogramm zum Erstellen eines Vektorspeichers mit file_ids und an diesen Thread anfügen. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein.
No

modifyThreadRequest

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
tool_resources object Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└─ file_search object No
└─ vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein.
No

deleteThreadResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum: DeleteThreadResponseObjectState

Value Description
thread.deleted Der Löschthreadantwortobjektstatus, der thread.deleted

listThreadsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageObject

Stellt eine Nachricht in einem Threads dar.

Name Type Description Required Default
assistant_id string Falls zutreffend, die ID des Assistenten, der diese Nachricht erstellt hat. Yes
attachments array Eine Liste der an die Nachricht angefügten Dateien und die Tools, denen sie hinzugefügt wurden. Yes
completed_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem die Nachricht abgeschlossen wurde. Yes
content array Der Inhalt der Nachricht im Array von Text und/oder Bildern. Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Nachricht. Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
incomplete_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Nachricht als unvollständig markiert wurde. Yes
incomplete_details object In einer unvollständigen Nachricht erfahren Sie, warum die Nachricht unvollständig ist. Yes
└─ reason string Der Grund, warum die Nachricht unvollständig ist. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
Yes
object string Der Objekttyp, der immer thread.messageist. Yes
role string Die Entität, die die Nachricht erzeugt hat. Einer von user oder assistant. Yes
run_id string Falls zutreffend, die ID der Ausführung, die der Erstellung dieser Nachricht zugeordnet ist. Yes
status string Der Status der Nachricht, die entweder in_progress, , incompleteoder completed. Yes
thread_id string Die Threads-ID, zu der diese Nachricht gehört. Yes

object Enum: MessageObjectType

Value Description
thread.message Der Nachrichtenobjekttyp, der thread.message

status Enum: MessageObjectStatus

Value Description
in_progress
incomplete
completed

role Enum: MessageObjectRole

Value Description
user
assistant

messageDeltaObject

Stellt ein Nachrichtendelta dar, d. h. alle geänderten Felder einer Nachricht während des Streamings.

Name Type Description Required Default
delta object Das Delta, das die Felder enthält, die sich in der Nachricht geändert haben. Yes
└─ content array Der Inhalt der Nachricht im Array von Text und/oder Bildern. No
└─ role string Die Entität, die die Nachricht erzeugt hat. Einer von user oder assistant. No
id string Der Bezeichner der Nachricht, auf die in API-Endpunkten verwiesen werden kann. Yes
object string Der Objekttyp, der immer thread.message.deltaist. Yes

object Enum: MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Type Description Required Default
attachments array Eine Liste der Dateien, die an die Nachricht angefügt sind, und die Tools, denen sie hinzugefügt werden sollen. No
content string Der Inhalt der Nachricht. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
role string Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte umfassen:
- user: Gibt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wird und in den meisten Fällen verwendet werden soll, um vom Benutzer generierte Nachrichten darzustellen.
- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.
Yes

role Enum: CreateMessageRequestRole

Value Description
user
assistant

modifyMessageRequest

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No

deleteMessageResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum: DeleteMessageResponseObject

Value Description
thread.message.deleted Der Status des Antwortobjekts "Nachricht löschen"

listMessagesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Type Description Required Default
image_file object Yes
└─ file_id string Die Datei-ID des Bilds im Nachrichteninhalt. No
type string Immer image_file. Yes

type Enum: MessageContentImageFileObjectType

Value Description
image_file Der Dateityp des Nachrichteninhaltsbilds

messageContentTextObject

Der Textinhalt, der Teil einer Nachricht ist.

Name Type Description Required Default
text object Yes
└─ annotations array No
└─ value string Die Daten, aus denen der Text besteht. No
type string Immer text. Yes

type Enum: messageContentTextObjectType

Value Description
text Der Nachrichteninhaltstext-Objekttyp

messageContentTextAnnotationsFileCitationObject

Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool "Abruf" zum Durchsuchen von Dateien verwendet.

Name Type Description Required Default
end_index integer Yes
file_citation object Yes
└─ file_id string Die ID der spezifischen Datei, von der das Zitat stammt. No
start_index integer Yes
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. Yes
type string Immer file_citation. Yes

type Enum: FileCitationObjectType

Value Description
file_citation Der Datei-Zitatobjekttyp

messageContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das code_interpreter Tool zum Generieren einer Datei verwendet hat.

Name Type Description Required Default
end_index integer Yes
file_path object Yes
└─ file_id string Die ID der datei, die generiert wurde. No
start_index integer Yes
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. Yes
type string Immer file_path. Yes

type Enum: FilePathObjectType

Value Description
file_path Der Dateipfad-Objekttyp

messageDeltaContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Type Description Required Default
image_file object No
└─ file_id string Die Datei-ID des Bilds im Nachrichteninhalt. No
index integer Der Index des Inhaltsteils in der Nachricht. Yes
type string Immer image_file. Yes

type Enum: MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

Der Textinhalt, der Teil einer Nachricht ist.

Name Type Description Required Default
index integer Der Index des Inhaltsteils in der Nachricht. Yes
text object No
└─ annotations array No
└─ value string Die Daten, aus denen der Text besteht. No
type string Immer text. Yes

type Enum: MessageDeltaContentTextObjectType

Value Description
text

messageDeltaContentTextAnnotationsFileCitationObject

Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool "file_search" zum Durchsuchen von Dateien verwendet.

Name Type Description Required Default
end_index integer No
file_citation object No
└─ file_id string Die ID der spezifischen Datei, von der das Zitat stammt. No
└─ quote string Das spezifische Anführungszeichen in der Datei. No
index integer Der Index der Anmerkung im Textinhaltsteil. Yes
start_index integer No
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. No
type string Immer file_citation. Yes

type Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das code_interpreter Tool zum Generieren einer Datei verwendet hat.

Name Type Description Required Default
end_index integer No
file_path object No
└─ file_id string Die ID der datei, die generiert wurde. No
index integer Der Index der Anmerkung im Textinhaltsteil. Yes
start_index integer No
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. No
type string Immer file_path. Yes

type Enum: MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Stellt einen Schritt zur Ausführung einer Ausführung dar.

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der dem Ausführungsschritt zugeordnet ist. Yes
cancelled_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Ausführungsschritt abgebrochen wurde. Yes
completed_at integer Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Ausführungsschritts. Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Ausführungsschritts. Yes
expired_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Ausführungsschritt abgelaufen ist. Ein Schritt gilt als abgelaufen, wenn die übergeordnete Ausführung abgelaufen ist. Yes
failed_at integer Der Unix-Zeitstempel (in Sekunden) für den Fehler des Ausführungsschritts. Yes
id string Der Bezeichner des Ausführungsschritts, auf den in API-Endpunkten verwiesen werden kann. Yes
last_error object Der letzte Fehler, der diesem Ausführungsschritt zugeordnet ist. null Wenn keine Fehler vorhanden sind. Yes
└─ code string Einer von server_error oder rate_limit_exceeded. No
└─ message string Eine lesbare Beschreibung des Fehlers. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
Yes
object string Der Objekttyp, der immer assistant.run.stepist. Yes
run_id string Die ID der Ausführung, zu der dieser Ausführungsschritt gehört. Yes
status string Der Status der Ausführung, die entweder , , in_progress, , cancelled, oder failedcompleted.expired Yes
step_details runStepDetailsMessageCreationObject oder runStepDetailsToolCallsObject Die Details des Ausführungsschritts. Yes
thread_id string Die ID der ausgeführten Threads. Yes
type string Der Typ des Ausführungsschritts, der entweder message_creation oder tool_calls. Yes

object Enum: RunStepObjectType

Value Description
assistant.run.step Der Objekttyp, der immer assistant.run.step

type Enum: RunStepObjectType

Value Description
message_creation Der message_creation Ausführungsschritt
tool_calls Der tool_calls Ausführen-Schritt

status Enum: RunStepObjectStatus

Value Description
in_progress Der In_progress Ausführungsstatus
cancelled Der Status der abgebrochenen Ausführung
failed Der Status der abgebrochenen Ausführung
completed Der Status der abgebrochenen Ausführung
expired Der Status der abgebrochenen Ausführung

runStepDeltaObject

Stellt ein Ausführungsschrittdelta dar, d. h. alle geänderten Felder in einem Ausführungsschritt während des Streamings.

Name Type Description Required Default
delta object Das Delta mit den Feldern, die sich im Ausführungsschritt geändert haben. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject oder runStepDeltaStepDetailsToolCallsObject Die Details des Ausführungsschritts. No
id string Der Bezeichner des Ausführungsschritts, auf den in API-Endpunkten verwiesen werden kann. Yes
object string Der Objekttyp, der immer thread.run.step.deltaist. Yes

object Enum: RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

runStepDetailsMessageCreationObject

Details zur Erstellung der Nachricht durch den Ausführungsschritt.

Name Type Description Required Default
message_creation object Yes
└─ message_id string Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. No
type string Immer message_creation. Yes

type Enum: RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Details zur Erstellung der Nachricht durch den Ausführungsschritt.

Name Type Description Required Default
message_creation object No
└─ message_id string Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. No
type string Immer message_creation. Yes

type Enum: RunStepDeltaStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Details des Toolaufrufs.

Name Type Description Required Default
tool_calls array Ein Array von Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Arten von Tools zugeordnet werden: code_interpreter, retrieval oder function.
Yes
type string Immer tool_calls. Yes

type Enum: RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Details des Toolaufrufs.

Name Type Description Required Default
tool_calls array Ein Array von Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Arten von Tools zugeordnet werden: code_interpreter, file_search oder function.
No
type string Immer tool_calls. Yes

type Enum: RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Details des Codedolmetscher-Tools, an dem der Ausführungsschritt beteiligt war.

Name Type Description Required Default
code_interpreter object Die Definition des Codedolmetschertools. Yes
└─ input string Die Eingabe für den Codedolmetscher-Toolaufruf. No
└─ outputs array Die Ausgaben aus dem Code-Interpreter-Toolaufruf. Der Codedolmetscher kann ein oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bildern (image). Jede dieser Objekte wird durch einen anderen Objekttyp dargestellt. No
id string Die ID des Toolaufrufs. Yes
type string Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein code_interpreter . Yes

type Enum: RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Details des Codedolmetscher-Tools, an dem der Ausführungsschritt beteiligt war.

Name Type Description Required Default
code_interpreter object Die Definition des Codedolmetschertools. No
└─ input string Die Eingabe für den Codedolmetscher-Toolaufruf. No
└─ outputs array Die Ausgaben aus dem Code-Interpreter-Toolaufruf. Der Codedolmetscher kann ein oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bildern (image). Jede dieser Objekte wird durch einen anderen Objekttyp dargestellt. No
id string Die ID des Toolaufrufs. No
index integer Der Index des Toolaufrufs im Tool ruft Array auf. Yes
type string Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein code_interpreter . Yes

type Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Textausgabe des Codedolmetscher-Toolaufrufs als Teil eines Ausführungsschritts.

Name Type Description Required Default
logs string Die Textausgabe aus dem Codedolmetscher-Toolaufruf. Yes
type string Immer logs. Yes

type Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Textausgabe des Codedolmetscher-Toolaufrufs als Teil eines Ausführungsschritts.

Name Type Description Required Default
index integer Der Index der Ausgabe im Ausgabearray. Yes
logs string Die Textausgabe aus dem Codedolmetscher-Toolaufruf. No
type string Immer logs. Yes

type Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object Yes
└─ file_id string Die Datei-ID des Bilds. No
type string Immer image. Yes

type Enum: RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object No
└─ file_id string Die Datei-ID des Bilds. No
index integer Der Index der Ausgabe im Ausgabearray. Yes
type string Immer image. Yes

type Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Description
image

runStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Vorerst wird dies immer ein leeres Objekt sein. Yes
└─ results array Die Ergebnisse der Dateisuche. No
id string Die ID des Toolaufrufobjekts. Yes
type string Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein file_search . Yes

type Enum: RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Eine Ergebnisinstanz der Dateisuche.

Name Type Description Required Default
content array Der Inhalt des gefundenen Ergebnisses. Der Inhalt wird nur einbezogen, wenn er über den Include-Abfrageparameter angefordert wird. No
file_id string Die ID der Datei, in der das Ergebnis gefunden wurde. Yes
file_name string Der Name der Datei, in der das Ergebnis gefunden wurde. Yes
score number Die Ergebnisbewertung. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Vorerst wird dies immer ein leeres Objekt sein. Yes
id string Die ID des Toolaufrufobjekts. No
index integer Der Index des Toolaufrufs im Tool ruft Array auf. Yes
type string Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein retrieval . Yes

type Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Die Definition der funktion, die aufgerufen wurde. Yes
└─ arguments string Die Argumente, die an die Funktion übergeben werden. No
└─ name string Der Name der Funktion. No
└─ output string Die Ausgabe der Funktion. Dies geschieht null , wenn die Ausgaben noch nicht übermittelt wurden. No
id string Die ID des Toolaufrufobjekts. Yes
type string Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein function . Yes

type Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Die Definition der funktion, die aufgerufen wurde. No
└─ arguments string Die Argumente, die an die Funktion übergeben werden. No
└─ name string Der Name der Funktion. No
└─ output string Die Ausgabe der Funktion. Dies geschieht null , wenn die Ausgaben noch nicht übermittelt wurden. No
id string Die ID des Toolaufrufobjekts. No
index integer Der Index des Toolaufrufs im Tool ruft Array auf. Yes
type string Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein function . Yes

type Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

vectorStoreExpirationAfter

Die Ablaufrichtlinie für einen Vektorspeicher.

Name Type Description Required Default
anchor string Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at. Yes
days integer Die Anzahl der Tage nach ablaufen der Verankerungszeit des Vektorspeichers. Yes

anchor Enum: VectorStoreExpirationAfterAnchor

Value Description
last_active_at Der Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird.

vectorStoreObject

Ein Vektorspeicher ist eine Sammlung von verarbeiteten Dateien, die file_search vom Tool verwendet werden können.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Vektorspeichers. Yes
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
expires_at integer Der Unix-Zeitstempel (in Sekunden) für den Ablauf des Vektorspeichers. No
file_counts object Yes
└─ cancelled integer Die Anzahl der Dateien, die abgebrochen wurden. No
└─ completed integer Die Anzahl der Dateien, die erfolgreich verarbeitet wurden. No
└─ failed integer Die Anzahl der Dateien, die nicht verarbeitet werden konnten. No
└─ in_progress integer Die Anzahl der Dateien, die derzeit verarbeitet werden. No
└─ total integer Die Gesamtanzahl der Dateien. No
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
last_active_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
Yes
name string Der Name des Vektorspeichers. Yes
object enum Der Objekttyp, der immer vector_storeist.
Mögliche Werte: vector_store
Yes
status string Der Status des Vektorspeichers, der entweder expired, , in_progressoder completed. Der Status gibt completed an, dass der Vektorspeicher einsatzbereit ist. Yes
usage_bytes integer Die Gesamtzahl der Bytes, die von den Dateien im Vektorspeicher verwendet werden. Yes

status Enum: VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. Gilt nur, wenn file_ids es nicht leer ist. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
file_ids array Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
name string Der Name des Vektorspeichers. No

updateVectorStoreRequest

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein.
No
name string Der Name des Vektorspeichers. No

listVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum: DeleteVectorStoreResponseObject

Value Description
vector_store.deleted Der Vektorspeicher-Antwortobjektstatus

vectorStoreFileObject

Eine Liste von Dateien, die an einen Vektorspeicher angefügt sind.

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. Gilt nur, wenn file_ids es nicht leer ist. No
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Vektorspeicherdatei. Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
last_error object Der letzte Fehler, der dieser Vektorspeicherdatei zugeordnet ist. null Wenn keine Fehler vorhanden sind. Yes
└─ code string Einer von server_error oder oder invalid_fileunsupported_file . No
└─ message string Eine lesbare Beschreibung des Fehlers. No
object string Der Objekttyp, der immer vector_store.fileist. Yes
status string Der Status der Vektorspeicherdatei, die entweder in_progress, , completedcancelledoder failed. Der Status completed gibt an, dass die Vektorspeicherdatei einsatzbereit ist. Yes
usage_bytes integer Die Gesamtauslastung des Vektorspeichers in Byte. Beachten Sie, dass sich dies möglicherweise von der ursprünglichen Dateigröße unterscheidet. Yes
vector_store_id string Die ID des Vektorspeichers, an den die Datei angefügt ist. Yes

object Enum: VectorStoreFileObjectType

Value Description
vector_store.file

status Enum: VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Dies wird zurückgegeben, wenn die Blockierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei indiziert wurde, bevor das chunking_strategy Konzept in der API eingeführt wurde.

Name Type Description Required Default
type string Immer other. Yes

type Enum: OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type string Immer static. Yes

type Enum: StaticChunkingStrategyResponseParamType

Value Description
static

staticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Die Anzahl der Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.

Beachten Sie, dass die Überlappung nicht die Hälfte von max_chunk_size_tokens.
Yes
max_chunk_size_tokens integer Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Minimalwert ist 100 und der Maximalwert ist 4096. Yes

autoChunkingStrategyRequestParam

Die Standardstrategie. Diese Strategie verwendet derzeit eine max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400.

Name Type Description Required Default
type enum Immer auto.
Mögliche Werte: auto
Yes

staticChunkingStrategyRequestParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type enum Immer static.
Mögliche Werte: static
Yes

chunkingStrategyRequestParam

Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet.

Diese Komponente kann eine der folgenden Sein:

createVectorStoreFileRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. No
file_id string Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. Yes

listVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum: DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Ein Batch von Dateien, die an einen Vektorspeicher angefügt sind.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für die Erstellung des Batches für Vektorspeicherdateien. Yes
file_counts object Yes
└─ cancelled integer Die Anzahl der Dateien, die abgebrochen wurden. No
└─ completed integer Die Anzahl der Dateien, die verarbeitet wurden. No
└─ failed integer Die Anzahl der Dateien, die nicht verarbeitet werden konnten. No
└─ in_progress integer Die Anzahl der Dateien, die derzeit verarbeitet werden. No
└─ total integer Die Gesamtanzahl der Dateien. No
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
object string Der Objekttyp, der immer vector_store.file_batchist. Yes
status string Der Status des Vektorspeicherdateien-Batches, der entweder in_progress, , oder completedcancelledfailed. Yes
vector_store_id string Die ID des Vektorspeichers, an den die Datei angefügt ist. Yes

object Enum: VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

status Enum: VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. No
file_ids array Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. Yes

assistantStreamEvent

Stellt ein Ereignis dar, das beim Streamen einer Ausführung ausgegeben wird.

Jedes Ereignis in einem Datenstrom mit server gesendeten Ereignissen weist eine event Eigenschaft auf data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Wir geben Ereignisse aus, wenn ein neues Objekt erstellt, zu einem neuen Zustand wechselt oder in Teilen (Deltas) gestreamt wird. Beispielsweise wird ausgegeben thread.run.created , wenn eine neue Ausführung erstellt wird, thread.run.completed wenn eine Ausführung abgeschlossen ist usw. Wenn ein Assistent eine Nachricht während einer Ausführung erstellt, wird ein thread.message.created eventEreignis, viele thread.message.in_progressthread.message.delta Ereignisse und schließlich ein thread.message.completed Ereignis ausgegeben.

Wir können im Laufe der Zeit zusätzliche Ereignisse hinzufügen, daher empfehlen wir, unbekannte Ereignisse ordnungsgemäß in Ihrem Code zu behandeln.

Diese Komponente kann eine der folgenden Sein:

threadStreamEvent

Diese Komponente kann eine der folgenden Sein:

thread.created

Tritt auf, wenn ein neuer Thread erstellt wird.

Name Type Description Required Default
data threadObject Stellt einen Thread dar, der Nachrichten enthält. Yes
event string Yes

Data: threadObject

Ereignisum: ThreadStreamEventEnum

Value Description
thread.created Das erstellte Threadereignis

runStreamEvent

Diese Komponente kann eine der folgenden Sein:

thread.run.created

Tritt auf, wenn eine neue Ausführung erstellt wird.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Enumeration des Ereignisses: RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Tritt auf, wenn eine Ausführung zu einem queued Status wechselt.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignisum: RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Tritt auf, wenn eine Ausführung zu einem in_progress Status wechselt.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Enumeration des Ereignisses: RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Tritt auf, wenn eine Ausführung zu einem requires_action Status wechselt.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enumeration: RunStreamEventRequiresAction

Value Description
thread.run.requires_action

thread.run.completed

Tritt auf, wenn eine Ausführung abgeschlossen ist.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Enumeration des Ereignisses: RunStreamEventCompleted

Value Description
thread.run.completed

thread.run.failed

Tritt auf, wenn eine Ausführung fehlschlägt.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Enumeration des Ereignisses: RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Tritt auf, wenn eine Ausführung zu einem cancelling Status wechselt.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enumeration: RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Tritt auf, wenn eine Ausführung abgebrochen wird.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enumeration: RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Tritt auf, wenn eine Ausführung abläuft.

Name Type Description Required Default
data runObject Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. Yes
event string Yes

Data: runObject

Enumeration des Ereignisses: RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Diese Komponente kann eine der folgenden Sein:

thread.run.step.created

Tritt auf, wenn ein Ausführungsschritt erstellt wird.

Name Type Description Required Default
data runStepObject Stellt einen Schritt zur Ausführung einer Ausführung dar.
Yes
event string Yes

Data: runStepObject

Enumeration des Ereignisses: RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Tritt auf, wenn ein Ausführungsschritt in einen in_progress Zustand verschoben wird.

Name Type Description Required Default
data runStepObject Stellt einen Schritt zur Ausführung einer Ausführung dar.
Yes
event string Yes

Data: runStepObject

Ereignis-Enumeration: RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Tritt auf, wenn Teile eines Ausführungsschritts gestreamt werden.

Name Type Description Required Default
data runStepDeltaObject Stellt ein Ausführungsschrittdelta dar, d. h. alle geänderten Felder in einem Ausführungsschritt während des Streamings.
Yes
event string Yes

Data: runStepDeltaObject

Ereignis-Enumeration: RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Tritt auf, wenn ein Ausführungsschritt abgeschlossen ist.

Name Type Description Required Default
data runStepObject Stellt einen Schritt zur Ausführung einer Ausführung dar.
Yes
event string Yes

Data: runStepObject

Enumeration des Ereignisses: RunStepStreamEventCompleted

Value Description
thread.run.step.completed

thread.run.step.failed

Tritt auf, wenn ein Ausführungsschritt fehlschlägt.

Name Type Description Required Default
data runStepObject Stellt einen Schritt zur Ausführung einer Ausführung dar.
Yes
event string Yes

Data: runStepObject

Enumeration des Ereignisses: RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Tritt auf, wenn ein Ausführungsschritt abgebrochen wird.

Name Type Description Required Default
data runStepObject Stellt einen Schritt zur Ausführung einer Ausführung dar.
Yes
event string Yes

Data: runStepObject

Ereignis-Enumeration: RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Tritt auf, wenn ein Ausführungsschritt abläuft.

Name Type Description Required Default
data runStepObject Stellt einen Schritt zur Ausführung einer Ausführung dar.
Yes
event string Yes

Data: runStepObject

Enumeration des Ereignisses: RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Diese Komponente kann eine der folgenden Sein:

thread.message.created

Tritt auf, wenn eine Nachricht erstellt wird.

Name Type Description Required Default
data messageObject Stellt eine Nachricht in einem Threads dar. Yes
event string Yes

Data: messageObject

Ereignis-Enumeration: MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Tritt auf, wenn eine Nachricht in einen in_progress Zustand verschoben wird.

Name Type Description Required Default
data messageObject Stellt eine Nachricht in einem Threads dar. Yes
event string Yes

Data: messageObject

Enumeration des Ereignisses: MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Tritt auf, wenn Teile einer Nachricht gestreamt werden.

Name Type Description Required Default
data messageDeltaObject Stellt ein Nachrichtendelta dar, d. h. alle geänderten Felder einer Nachricht während des Streamings.
Yes
event string Yes

Data: messageDeltaObject

Ereignis-Enumeration: MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Tritt auf, wenn eine Nachricht abgeschlossen ist.

Name Type Description Required Default
data messageObject Stellt eine Nachricht in einem Threads dar. Yes
event string Yes

Data: messageObject

Enumeration des Ereignisses: MessageStreamEventCompleted

Value Description
thread.message.completed

thread.message.incomplete

Tritt auf, wenn eine Nachricht endet, bevor sie abgeschlossen ist.

Name Type Description Required Default
data messageObject Stellt eine Nachricht in einem Threads dar. Yes
event string Yes

Data: messageObject

Enumeration des Ereignisses: MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Diese Komponente kann eine der folgenden Sein:

Click

Eine Klickaktion.

Name Type Description Required Default
button enum Gibt an, welche Maustaste während des Klickens gedrückt wurde. Einer von left, right, wheel, , backoder forward.

Mögliche Werte: left, , rightwheel, , backforward
Yes
type enum Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer auf .click

Mögliche Werte: click
Yes
x integer Die x-Koordinate, an der der Klick aufgetreten ist.
Yes
y integer Die y-Koordinate, an der der Klick aufgetreten ist.
Yes

CodeInterpreterFileOutput

Die Ausgabe eines Codedolmetscher-Toolaufrufs, bei dem es sich um eine Datei handelt.

Name Type Description Required Default
files array Yes
type enum Der Typ der Codedolmetscherdateiausgabe. Immer files.

Mögliche Werte: files
Yes

CodeInterpreterTextOutput

Die Ausgabe eines Codedolmetschertoolaufrufs, der Text ist.

Name Type Description Required Default
logs string Die Protokolle des Codedolmetscher-Toolaufrufs.
Yes
type enum Der Typ der Textausgabe des Codedolmetschers. Immer logs.

Mögliche Werte: logs
Yes

CodeInterpreterTool

Ein Tool, das Code ausführt.

Name Type Description Required Default
file_ids array Die IDs der Dateien, auf denen der Code ausgeführt werden soll.
Yes
type enum Der Typ des Codedolmetschertools. Immer code_interpreter.

Mögliche Werte: code_interpreter
Yes

CodeInterpreterToolCall

Ein Toolaufruf zum Ausführen von Code.

Name Type Description Required Default
code string Der auszuführende Code.
Yes
id string Die eindeutige ID des Codedolmetscher-Toolaufrufs.
Yes
results array Die Ergebnisse des Codedolmetscher-Toolaufrufs.
Yes
status enum Der Status des Codedolmetscher-Toolaufrufs.

Mögliche Werte: in_progress, , interpretingcompleted
Yes
type enum Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.

Mögliche Werte: code_interpreter_call
Yes

CodeInterpreterToolOutput

Diese Komponente kann eine der folgenden Sein:

ComparisonFilter

Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.

Name Type Description Required Default
key string Der Schlüssel, der mit dem Wert verglichen werden soll. Yes
type enum Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte
- eq: entspricht
- ne: ungleich
- gt: größer als
- gte: größer oder gleich
- lt: kleiner als
- lte: kleiner oder gleich

Mögliche Werte: eq, , ne, gtgte, , , ltlte
Yes
value Zeichenfolge oder Zahl oder boolescher Wert Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. Yes

CompoundFilter

Kombinieren mehrerer Filter mit and oder or.

Name Type Description Required Default
filters array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Yes
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Yes

ComputerAction

Diese Komponente kann eine der folgenden Sein:

ComputerScreenshotImage

Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.

Name Type Description Required Default
file_id string Der Bezeichner einer hochgeladenen Datei, die den Screenshot enthält. No
image_url string Die URL des Screenshotbilds. No
type enum Gibt den Ereignistyp an. Für einen Computerfoto ist diese Eigenschaft immer auf computer_screenshot.

Mögliche Werte: computer_screenshot
Yes

ComputerTool

Ein Tool, das einen virtuellen Computer steuert.

Name Type Description Required Default
display_height number Die Höhe der Computeranzeige.
Yes
display_width number Die Breite der Computeranzeige.
Yes
environment enum Der Typ der zu steuernden Computerumgebung.

Mögliche Werte: mac, , windows, ubuntubrowser
Yes
type enum Der Typ des Computerverwendungstools. Immer computer_use_preview.

Mögliche Werte: computer-use-preview
Yes

ComputerToolCall

Ein Toolaufruf an einen Computer, der das Tool verwendet.

Name Type Description Required Default
action ComputerAction Yes
call_id string Ein Bezeichner, der beim Antworten auf den Toolaufruf mit Ausgabe verwendet wird.
Yes
id string Die eindeutige ID des Computeraufrufs. Yes
pending_safety_checks array Die ausstehenden Sicherheitsprüfungen für den Computeranruf.
Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
Yes
type enum Der Typ des Computeraufrufs. Immer computer_call.
Mögliche Werte: computer_call
Yes

ComputerToolCallOutput

Die Ausgabe eines Computertoolaufrufs.

Name Type Description Required Default
acknowledged_safety_checks array Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden.
No
call_id string Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat.
Yes
id string Die ID der Ausgabe des Computertools.
No
output ComputerScreenshotImage Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Eingabeelemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Computertoolaufrufausgabe. Immer computer_call_output.

Mögliche Werte: computer_call_output
Yes

ComputerToolCallOutputResource

Name Type Description Required Default
acknowledged_safety_checks array Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden.
No
call_id string Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat.
Yes
id string Die eindeutige ID der Ausgabe des Computeraufruftools.
Yes
output ComputerScreenshotImage Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Eingabeelemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Computertoolaufrufausgabe. Immer computer_call_output.

Mögliche Werte: computer_call_output
Yes

ComputerToolCallSafetyCheck

Eine ausstehende Sicherheitsüberprüfung für den Computeranruf.

Name Type Description Required Default
code string Der Typ der ausstehenden Sicherheitsüberprüfung. Yes
id string Die ID der ausstehenden Sicherheitsüberprüfung. Yes
message string Details zur ausstehenden Sicherheitsüberprüfung. Yes

Content

Mehr modaler Eingabe- und Ausgabeinhalt.

Diese Komponente kann eine der folgenden Sein:

Coordinate

Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.

Name Type Description Required Default
x integer The x-coordinate.
Yes
y integer The y-coordinate.
Yes

CreateModelResponseProperties

Name Type Description Required Default
metadata Metadata Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
model string Modell, das zum Generieren der Antworten verwendet wird. No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

createResponse

Name Type Description Required Default
include array {"$ref": "#/components/schemas/includable/description"} No
input Zeichenfolge oder Matrix Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Yes
instructions string Fügt eine Systemnachricht (oder entwickler) als erstes Element im Kontext des Modells ein.

Bei Verwendung mit previous_response_iddieser Antwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken.
No
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf.
No True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Begründungsmodelle. No
store boolean Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll.
No True
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. No False
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Learn more:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Durch das Konfigurieren werden { "type": "json_schema" } strukturierte Ausgaben aktiviert, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools
No
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Größe des Kontextfensters ab.
Antwort auf das Kontextfenster durch Ablegen von Eingabeelementen in der Mitte der Unterhaltung.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

DoubleClick

Eine Doppelklickaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf .double_click

Mögliche Werte: double_click
Yes
x integer Die x-Koordinate, an der der Doppelklick aufgetreten ist.
Yes
y integer Die y-Koordinate, an der der Doppelklick aufgetreten ist.
Yes

Drag

Eine Ziehaktion.

Name Type Description Required Default
path array Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array von Objekten angezeigt, z. B.[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
type enum Gibt den Ereignistyp an. Bei einer Ziehaktion ist diese Eigenschaft immer auf .drag

Mögliche Werte: drag
Yes

EasyInputMessage

Eine Meldungseingabe für das Modell mit einer Rolle, die die folgende Hierarchie angibt. Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Type Description Required Default
content string oder InputMessageContentList Text-, Bild- oder Audioeingabe für das Modell, mit dem eine Antwort generiert wird.
Kann auch frühere Assistentenantworten enthalten.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder developer.

Mögliche Werte: user, , assistant, systemdeveloper
Yes
type enum Der Typ der Nachrichteneingabe. Immer message.

Mögliche Werte: message
No

FileCitation

Ein Zitat für eine Datei.

Name Type Description Required Default
file_id string Die ID der Datei.
Yes
index integer Der Index der Datei in der Liste der Dateien.
Yes
type enum Der Typ des Dateizitats. Immer file_citation.

Mögliche Werte: file_citation
Yes

FilePath

Ein Pfad zu einer Datei.

Name Type Description Required Default
file_id string Die ID der Datei.
Yes
index integer Der Index der Datei in der Liste der Dateien.
Yes
type enum Der Typ des Dateipfads. Immer file_path.

Mögliche Werte: file_path
Yes

FileSearchRanker

Der Rangfolger, der für die Dateisuche verwendet werden soll. Wenn nicht angegeben, wird der auto Rangierer verwendet.

Property Value
Description Der Rangfolger, der für die Dateisuche verwendet werden soll. Wenn nicht angegeben, wird der auto Rangierer verwendet.
Type string
Values auto
default_2024_08_21

FileSearchTool

Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet werden soll. No
max_num_results integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen.
No
ranking_options object Bewertungsoptionen für die Suche. No
└─ ranker enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
No
└─ score_threshold number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1.
Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben.
No 0
type enum Der Typ des Dateisuchtools. Immer file_search.

Mögliche Werte: file_search
Yes
vector_store_ids array Die IDs der zu durchsuchenden Vektorspeicher.
Yes

FileSearchToolCall

Die Ergebnisse eines Dateisuchtoolaufrufs.

Name Type Description Required Default
id string Die eindeutige ID des Aufrufs des Dateisuchtools.
Yes
queries array Die Zum Suchen nach Dateien verwendeten Abfragen.
Yes
results array Die Ergebnisse des Aufrufs des Dateisuchtools.
No
status enum Der Status des Dateisuchtoolaufrufs. Einer von in_progress, , searchingoder incompletefailed ,

Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Yes
type enum Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.

Mögliche Werte: file_search_call
Yes

FunctionTool

Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.

Name Type Description Required Default
description string Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll.
No
name string Der Name der funktion, die aufgerufen werden soll.
Yes
parameters object Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt.
Yes
strict boolean Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standard true.
Yes
type enum Der Typ des Funktionstools. Immer function.

Mögliche Werte: function
Yes

FunctionToolCall

Ein Toolaufruf zum Ausführen einer Funktion.

Name Type Description Required Default
arguments string Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen.
Yes
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs.
Yes
id string Die eindeutige ID des Funktionstoolaufrufs.
Yes
name string Der Name der auszuführenden Funktion.
Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ des Funktionstoolaufrufs. Immer function_call.

Mögliche Werte: function_call
Yes

FunctionToolCallOutput

Die Ausgabe eines Funktionstoolaufrufs.

Name Type Description Required Default
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs.
Yes
id string Die eindeutige ID der Ausgabe des Funktionstoolaufrufs. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird.
No
output string Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs.
Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Funktionstoolaufrufausgabe. Immer function_call_output.

Mögliche Werte: function_call_output
Yes

FunctionToolCallOutputResource

Name Type Description Required Default
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs.
Yes
id string Die eindeutige ID der Ausgabe des Funktionsaufruftools.
Yes
output string Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs.
Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Funktionstoolaufrufausgabe. Immer function_call_output.

Mögliche Werte: function_call_output
Yes

includable

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:

  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.
Property Value
Description Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.
Type string
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Eine Audioeingabe für das Modell.

Name Type Description Required Default
data string Base64-codierte Audiodaten.
Yes
format enum Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.

Mögliche Werte: mp3, wav
Yes
type enum Der Typ des Eingabeelements. Immer input_audio.

Mögliche Werte: input_audio
Yes

InputContent

Diese Komponente kann eine der folgenden Sein:

InputFile

Eine Dateieingabe für das Modell.

Name Type Description Required Default
file_data string Der Inhalt der Datei, die an das Modell gesendet werden soll.
No
file_id string Die ID der Datei, die an das Modell gesendet werden soll.
No
filename string Der Name der Datei, die an das Modell gesendet werden soll.
No
type enum Der Typ des Eingabeelements. Immer input_file.

Mögliche Werte: input_file
Yes

InputImage

Eine Bildeingabe für das Modell.

Name Type Description Required Default
detail enum Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer von high, low, oder auto. Standardwert ist .auto

Mögliche Werte: high, , lowauto
Yes
file_id string Die ID der Datei, die an das Modell gesendet werden soll.
No
image_url string Die URL des Bilds, das an das Modell gesendet werden soll. Ein vollqualifiziertes URL- oder base64-codiertes Bild in einer Daten-URL.
No
type enum Der Typ des Eingabeelements. Immer input_image.

Mögliche Werte: input_image
Yes

InputItem

Diese Komponente kann eine der folgenden Sein:

InputMessage

Eine Meldungseingabe für das Modell mit einer Rolle, die die folgende Hierarchie angibt. Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden.

Name Type Description Required Default
content InputMessageContentList Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält
types.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, system, oder developer.

Mögliche Werte: user, , systemdeveloper
Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Nachrichteneingabe. Immer auf message.

Mögliche Werte: message
No

InputMessageContentList

Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhaltstypen enthält.

Für diese Komponente sind keine Eigenschaften definiert.

InputMessageResource

Name Type Description Required Default
content InputMessageContentList Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält
types.
Yes
id string Die eindeutige ID der Nachrichteneingabe.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, system, oder developer.

Mögliche Werte: user, , systemdeveloper
Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Nachrichteneingabe. Immer auf message.

Mögliche Werte: message
No

InputText

Eine Texteingabe für das Modell.

Name Type Description Required Default
text string Die Texteingabe für das Modell.
Yes
type enum Der Typ des Eingabeelements. Immer input_text.

Mögliche Werte: input_text
Yes

Item

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diese Komponente kann eine der folgenden Sein:

ItemReference

Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.

Name Type Description Required Default
id string Die ID des zu referenzierenden Elements.
Yes
type enum Der Typ des zu referenzierenden Elements. Immer item_reference.

Mögliche Werte: item_reference
Yes

ItemResource

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diese Komponente kann eine der folgenden Sein:

KeyPress

Eine Sammlung von Keypressen, die das Modell durchführen möchte.

Name Type Description Required Default
keys array Die Kombination von Tasten, die das Modell anfordert, zu drücken. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen.
Yes
type enum Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress.

Mögliche Werte: keypress
Yes

Metadata

Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

Für diese Komponente sind keine Eigenschaften definiert.

ModelResponseProperties

Name Type Description Required Default
metadata Metadata Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
model string Modell, das zum Generieren der Antworten verwendet wird. No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

Move

Eine Mausbewegungsaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Bei einer Verschiebungsaktion ist diese Eigenschaft immer auf .move

Mögliche Werte: move
Yes
x integer Die x-Koordinate, zu der verschoben werden soll.
Yes
y integer Die y-Koordinate, zu der verschoben werden soll.
Yes

OutputAudio

Eine Audioausgabe aus dem Modell.

Name Type Description Required Default
data string Base64-codierte Audiodaten aus dem Modell.
Yes
transcript string Die Transkription der Audiodaten aus dem Modell.
Yes
type enum Der Typ des Ausgabeaudios. Immer output_audio.

Mögliche Werte: output_audio
Yes

OutputContent

Diese Komponente kann eine der folgenden Sein:

OutputItem

Name Type Description Required Default
action ComputerAction Yes
arguments string Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen.
Yes
call_id string Ein Bezeichner, der beim Antworten auf den Toolaufruf mit Ausgabe verwendet wird.
Yes
content array Textinhalt wird mit Gründen versehen.
Yes
id string Der eindeutige Bezeichner des Grundinhalts.
Yes
name string Der Name der auszuführenden Funktion.
Yes
pending_safety_checks array Die ausstehenden Sicherheitsprüfungen für den Computeranruf.
Yes
queries array Die Zum Suchen nach Dateien verwendeten Abfragen.
Yes
results array Die Ergebnisse des Aufrufs des Dateisuchtools.
No
role enum Die Rolle der Ausgabemeldung. Immer assistant.

Mögliche Werte: assistant
Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
Yes
type enum Der Typ des Objekts. Immer reasoning.

Mögliche Werte: reasoning
Yes

OutputMessage

Eine Ausgabemeldung aus dem Modell.

Name Type Description Required Default
content array Der Inhalt der Ausgabenachricht.
Yes
id string Die eindeutige ID der Ausgabenachricht.
Yes
role enum Die Rolle der Ausgabemeldung. Immer assistant.

Mögliche Werte: assistant
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Eingabeelemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
Yes
type enum Der Typ der Ausgabemeldung. Immer message.

Mögliche Werte: message
Yes

OutputText

Eine Textausgabe aus dem Modell.

Name Type Description Required Default
annotations array Die Anmerkungen der Textausgabe.
Yes
text string Die Textausgabe aus dem Modell.
Yes
type enum Der Typ des Ausgabetexts. Immer output_text.

Mögliche Werte: output_text
Yes

RealtimeSessionCreateRequest

Konfiguration des Echtzeitsitzungsobjekts.

Name Type Description Required Default
input_audio_format enum Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Samplerate, einem einzelnen Kanal (Mono) und einer Kleinen-End-Byte-Reihenfolge sein.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Konfiguration für die Rauschunterdrückung von Eingaben. Dies kann so festgelegt werden, dass null sie deaktiviert wird.
Die Rauschreduzierung filtert audio, die dem Eingabeaudiopuffer hinzugefügt wurden, bevor sie an VAD und das Modell gesendet wird.
Durch die Filterung des Audiosignals können VAD verbessert und die Erkennungsgenauigkeit verbessert werden (falsch positive Ergebnisse reduziert) und die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudio verbessert wird.
No
└─ type enum Art der Rauschreduzierung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription, standardmäßig deaktiviert und kann so festgelegt werden, dass null das Deaktivieren einmal aktiviert ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Die Transkription wird asynchron über den Transkriptionsendpunkt ausgeführt und sollte als Anleitung für Eingabeaudioinhalte behandelt werden, anstatt genau das, was das Modell gehört hat. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst.
No
└─ language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ model string Das Modell, das für die Transkription verwendet werden soll, sind gpt-4o-transcribeaktuelle Optionen , , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15und whisper-1.
No
└─ prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments.
Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.
Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
No
instructions string Die Standardmäßigen Systemanweisungen (d. h. Systemmeldung) werden modellierten Aufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und über Audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Die Anweisungen sind nicht garantiert, auf das Modell zu folgen, aber sie bieten Anleitungen für das Modell für das gewünschte Verhalten.

Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist.
No
max_response_output_tokens ganze Zahl oder Zeichenfolge Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Stellen Sie eine ganze Zahl zwischen 1 und 4096 bereit, inf um Ausgabetoken oder für die maximal verfügbaren Token für ein bestimmtes Modell einzuschränken. Standardwert ist .inf
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
model string Der Name der Bereitstellung, die für diese Sitzung verwendet wird.
No
output_audio_format enum Das Format der Ausgabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
Für pcm16, Ausgabeaudio wird mit einer Rate von 24 kHz abgesampt.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
temperature number Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Für Audiomodelle wird eine Temperatur von 0,8 dringend empfohlen, um eine optimale Leistung zu erzielen.
No 0.8
tool_choice string Wie das Modell Tools auswäht. Optionen sind auto, none, requiredoder geben Sie eine Funktion an.
No auto
tools array Tools (Funktionen), die für das Modell verfügbar sind. No
turn_detection object Konfiguration für turn detection, ether Server VAD oder Semantic VAD. Dies kann auf null das Deaktivieren festgelegt werden, in diesem Fall muss der Client die Modellantwort manuell auslösen.
Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
Semantischer VAD ist fortgeschrittener und verwendet ein Turn Detection-Modell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer gesprochen hat, und legt dann dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit fest. Wenn z. B. die Audiospur des Benutzers deaktiviert uhhmist, bewertet das Modell eine niedrige Wahrscheinlichkeit für das Ende der Drehung und wartet länger, bis der Benutzer weiter spricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben.
No
└─ create_response boolean Gibt an, ob beim Auftreten eines VAD-Stoppereignisses automatisch eine Antwort generiert werden soll.
No True
└─ eagerness enum Wird nur für semantic_vad den Modus verwendet. Die Eifer des Modells, zu reagieren. low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren. auto ist der Standardwert und entspricht mediumdem .

Mögliche Werte: low, , medium, highauto
No
└─ interrupt_response boolean Gibt an, ob beim Auftreten eines VAD-Startereignisses automatisch eine fortlaufende Antwort mit der Ausgabe der Standardunterhaltung (d. h. conversation von auto) unterbrochen werden soll.
No True
└─ prefix_padding_ms integer Wird nur für server_vad den Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms.
No
└─ silence_duration_ms integer Wird nur für server_vad den Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└─ threshold number Wird nur für server_vad den Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└─ type enum Typ der Turnerkennung.

Mögliche Werte: server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Eine neue Realtime-Sitzungskonfiguration mit einem kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute.

Name Type Description Required Default
client_secret object Kurzlebiger Schlüssel, der von der API zurückgegeben wird. Yes
└─ expires_at integer Zeitstempel für den Zeitpunkt, zu dem das Token abläuft. Derzeit laufen alle Token nach einer Minute ab.
No
└─ value string Kurzlebiger Schlüssel, der in Clientumgebungen verwendet werden kann, um Verbindungen mit der Realtime-API zu authentifizieren. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte.
No
input_audio_format string Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription, standardmäßig deaktiviert und kann so festgelegt werden, dass null das Deaktivieren einmal aktiviert ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Transkription wird asynchron über Flüster ausgeführt und sollte nicht als grobe Anleitung behandelt werden, als die darstellung, die vom Modell verstanden wird.
No
└─ model string Das Modell, das für die Transkription verwendet werden soll, whisper-1 ist das einzige derzeit unterstützte Modell.
No
instructions string Die Standardmäßigen Systemanweisungen (d. h. Systemmeldung) werden modellierten Aufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Die Anweisungen sind nicht garantiert, auf das Modell zu folgen, aber sie bieten Anleitungen für das Modell für das gewünschte Verhalten.
Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist.
No
max_response_output_tokens ganze Zahl oder Zeichenfolge Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Stellen Sie eine ganze Zahl zwischen 1 und 4096 bereit, inf um Ausgabetoken oder für die maximal verfügbaren Token für ein bestimmtes Modell einzuschränken. Standardwert ist .inf
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
output_audio_format string Das Format der Ausgabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
No
temperature number Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Der Standardwert ist 0,8.
No
tool_choice string Wie das Modell Tools auswäht. Optionen sind auto, none, requiredoder geben Sie eine Funktion an.
No
tools array Tools (Funktionen), die für das Modell verfügbar sind. No
turn_detection object Konfiguration für die Turnerkennung. Kann so eingestellt werden, dass null sie deaktiviert wird. Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
No
└─ prefix_padding_ms integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms.
No
└─ silence_duration_ms integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└─ threshold number Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└─ type string Der Typ der Turnerkennung wird derzeit nur server_vad unterstützt.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Sitzungsobjektkonfiguration in Echtzeit.

Name Type Description Required Default
include array Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Samplerate, einem einzelnen Kanal (Mono) und einer Kleinen-End-Byte-Reihenfolge sein.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Konfiguration für die Rauschunterdrückung von Eingaben. Dies kann so festgelegt werden, dass null sie deaktiviert wird.
Die Rauschreduzierung filtert audio, die dem Eingabeaudiopuffer hinzugefügt wurden, bevor sie an VAD und das Modell gesendet wird.
Durch die Filterung des Audiosignals können VAD verbessert und die Erkennungsgenauigkeit verbessert werden (falsch positive Ergebnisse reduziert) und die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudio verbessert wird.
No
└─ type enum Art der Rauschreduzierung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst.
No
└─ language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ model enum Das Modell, das für die Transkription verwendet werden soll, sind gpt-4o-transcribeaktuelle Optionen , , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15whisper-1.

Mögliche Werte: gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└─ prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments.
Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.
Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
turn_detection object Konfiguration für turn detection, ether Server VAD oder Semantic VAD. Dies kann auf null das Deaktivieren festgelegt werden, in diesem Fall muss der Client die Modellantwort manuell auslösen.
Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
Semantischer VAD ist fortgeschrittener und verwendet ein Turn Detection-Modell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer gesprochen hat, und legt dann dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit fest. Wenn z. B. die Audiospur des Benutzers deaktiviert uhhmist, bewertet das Modell eine niedrige Wahrscheinlichkeit für das Ende der Drehung und wartet länger, bis der Benutzer weiter spricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben.
No
└─ create_response boolean Gibt an, ob beim Auftreten eines VAD-Stoppereignisses automatisch eine Antwort generiert werden soll. Für Transkriptionssitzungen nicht verfügbar.
No True
└─ eagerness enum Wird nur für semantic_vad den Modus verwendet. Die Eifer des Modells, zu reagieren. low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren. auto ist der Standardwert und entspricht mediumdem .

Mögliche Werte: low, , medium, highauto
No
└─ interrupt_response boolean Gibt an, ob beim Auftreten eines VAD-Startereignisses automatisch eine fortlaufende Antwort mit der Ausgabe der Standardunterhaltung (d. h. conversation von auto) unterbrochen werden soll. Für Transkriptionssitzungen nicht verfügbar.
No True
└─ prefix_padding_ms integer Wird nur für server_vad den Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms.
No
└─ silence_duration_ms integer Wird nur für server_vad den Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└─ threshold number Wird nur für server_vad den Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└─ type enum Typ der Turnerkennung.

Mögliche Werte: server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Eine neue Realtime-Transkriptionssitzungskonfiguration.

Wenn eine Sitzung über die REST-API auf dem Server erstellt wird, enthält das Sitzungsobjekt auch einen kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute. Diese Eigenschaft ist nicht vorhanden, wenn eine Sitzung über die WebSocket-API aktualisiert wird.

Name Type Description Required Default
client_secret object Kurzlebiger Schlüssel, der von der API zurückgegeben wird. Nur vorhanden, wenn die Sitzung über die REST-API auf dem Server erstellt wird.
Yes
└─ expires_at integer Zeitstempel für den Zeitpunkt, zu dem das Token abläuft. Derzeit laufen alle Token nach einer Minute ab.
No
└─ value string Kurzlebiger Schlüssel, der in Clientumgebungen verwendet werden kann, um Verbindungen mit der Realtime-API zu authentifizieren. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte.
No
input_audio_format string Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.
No
input_audio_transcription object Konfiguration des Transkriptionsmodells.
No
└─ language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ model enum Das Modell, das für die Transkription verwendet werden soll. Kann sein gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15oder whisper-1.

Mögliche Werte: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└─ prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen.
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
turn_detection object Konfiguration für die Turnerkennung. Kann so eingestellt werden, dass null sie deaktiviert wird. Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
No
└─ prefix_padding_ms integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms.
No
└─ silence_duration_ms integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└─ threshold number Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└─ type string Der Typ der Turnerkennung wird derzeit nur server_vad unterstützt.
No

Reasoning

Konfigurationsoptionen für Begründungsmodelle.

Name Type Description Required Default
effort ReasoningEffort Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Yes medium
summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von concise oder detailed.

Mögliche Werte: concise, detailed
No

ReasoningItem

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird.

Name Type Description Required Default
content array Textinhalt wird mit Gründen versehen.
Yes
id string Der eindeutige Bezeichner des Grundinhalts.
Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ des Objekts. Immer reasoning.

Mögliche Werte: reasoning
Yes

Refusal

Eine Ablehnung des Modells.

Name Type Description Required Default
refusal string Die Erklärung der Weigerung aus dem Modell.
Yes
type enum Die Art der Ablehnung. Immer refusal.

Mögliche Werte: refusal
Yes

response

Name Type Description Required Default
created_at number Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort.
Yes
error ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.
Yes
id string Eindeutiger Bezeichner für diese Antwort.
Yes
incomplete_details object Details dazu, warum die Antwort unvollständig ist.
Yes
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
instructions string Fügt eine Systemnachricht (oder entwickler) als erstes Element im Kontext des Modells ein.

Bei Verwendung mit previous_response_iddieser Antwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Yes
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Unterhaltungsstatus.
No
metadata Metadata Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
model string Modell, das zum Generieren der Antworten verwendet wird. Yes
object enum Der Objekttyp dieser Ressource - immer auf .response

Mögliche Werte: response
Yes
output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Yes
output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf.
Yes True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Begründungsmodelle.
No
status enum Der Status der Antwortgenerierung. Einer von completed, failed, , in_progressoder incomplete.

Mögliche Werte: completed, , failed, in_progressincomplete
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
Yes 1
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Learn more:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Durch das Konfigurieren werden { "type": "json_schema" } strukturierte Ausgaben aktiviert, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
Yes
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools
Yes
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
Yes 1
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No
usage ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.
No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

ResponseAudioDeltaEvent

Wird ausgegeben, wenn eine partielle Audioantwort vorhanden ist.

Name Type Description Required Default
delta string Ein Teil der Base64-codierten Antwort-Audiobytes.
Yes
type enum Der Typ des Ereignisses. Immer response.audio.delta.

Mögliche Werte: response.audio.delta
Yes

ResponseAudioDoneEvent

Wird ausgegeben, wenn die Audioantwort abgeschlossen ist.

Name Type Description Required Default
type enum Der Typ des Ereignisses. Immer response.audio.done.

Mögliche Werte: response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Wird ausgegeben, wenn eine partielle Transkription von Audio vorhanden ist.

Name Type Description Required Default
delta string Die partielle Transkription der Audioantwort.
Yes
type enum Der Typ des Ereignisses. Immer response.audio.transcript.delta.

Mögliche Werte: response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Wird ausgegeben, wenn die vollständige Audiotranskription abgeschlossen ist.

Name Type Description Required Default
type enum Der Typ des Ereignisses. Immer response.audio.transcript.done.

Mögliche Werte: response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Wird ausgegeben, wenn ein partieller Codeausschnitt vom Codedolmetscher hinzugefügt wird.

Name Type Description Required Default
delta string Der partielle Codeausschnitt, der vom Codedolmetscher hinzugefügt wird.
Yes
output_index integer Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird.
Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call.code.delta.

Mögliche Werte: response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Wird ausgegeben, wenn die Codeausschnittausgabe vom Codedolmetscher abgeschlossen wird.

Name Type Description Required Default
code string Die endgültige Codeausschnittausgabe des Codedolmetschers.
Yes
output_index integer Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird.
Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call.code.done.

Mögliche Werte: response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Wird ausgegeben, wenn der Codedolmetscheraufruf abgeschlossen ist.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf zum Ausführen von Code.
Yes
output_index integer Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird.
Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call.completed.

Mögliche Werte: response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf zum Ausführen von Code.
Yes
output_index integer Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird.
Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call.in_progress.

Mögliche Werte: response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf zum Ausführen von Code.
Yes
output_index integer Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird.
Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call.interpreting.

Mögliche Werte: response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.

Name Type Description Required Default
response response Yes
type enum Der Typ des Ereignisses. Immer response.completed.

Mögliche Werte: response.completed
Yes

ResponseContentPartAddedEvent

Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.

Name Type Description Required Default
content_index integer Der Index des hinzugefügten Inhaltsteils.
Yes
item_id string Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde.
Yes
part OutputContent Yes
type enum Der Typ des Ereignisses. Immer response.content_part.added.

Mögliche Werte: response.content_part.added
Yes

ResponseContentPartDoneEvent

Wird ausgegeben, wenn ein Inhaltsteil abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, der abgeschlossen ist.
Yes
item_id string Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde.
Yes
part OutputContent Yes
type enum Der Typ des Ereignisses. Immer response.content_part.done.

Mögliche Werte: response.content_part.done
Yes

ResponseCreatedEvent

Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.

Name Type Description Required Default
response response Yes
type enum Der Typ des Ereignisses. Immer response.created.

Mögliche Werte: response.created
Yes

ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Name Type Description Required Default
code ResponseErrorCode Der Fehlercode für die Antwort.
Yes
message string Eine lesbare Beschreibung des Fehlers.
Yes

ResponseErrorCode

Der Fehlercode für die Antwort.

Property Value
Description Der Fehlercode für die Antwort.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Wird ausgegeben, wenn ein Fehler auftritt.

Name Type Description Required Default
code string Der Fehlercode.
Yes
message string Die Fehlermeldung.
Yes
param string Der Fehlerparameter.
Yes
type enum Der Typ des Ereignisses. Immer error.

Mögliche Werte: error
Yes

ResponseFailedEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.

Name Type Description Required Default
response response Yes
type enum Der Typ des Ereignisses. Immer response.failed.

Mögliche Werte: response.failed
Yes

ResponseFileSearchCallCompletedEvent

Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird.
Yes
output_index integer Der Index des Ausgabeelements, das der Dateisuchaufruf initiiert wird.
Yes
type enum Der Typ des Ereignisses. Immer response.file_search_call.completed.

Mögliche Werte: response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird.
Yes
output_index integer Der Index des Ausgabeelements, das der Dateisuchaufruf initiiert wird.
Yes
type enum Der Typ des Ereignisses. Immer response.file_search_call.in_progress.

Mögliche Werte: response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Wird ausgegeben, wenn eine Dateisuche zurzeit durchsucht wird.

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird.
Yes
output_index integer Der Index des Ausgabeelements, nach dem der Dateisuchaufruf durchsucht wird.
Yes
type enum Der Typ des Ereignisses. Immer response.file_search_call.searching.

Mögliche Werte: response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein partielles Funktionsaufrufargumentdelta vorhanden ist.

Name Type Description Required Default
delta string Die hinzugefügten Funktionsaufrufargumente.
Yes
item_id string Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden.
Yes
output_index integer Der Index des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden.
Yes
type enum Der Typ des Ereignisses. Immer response.function_call_arguments.delta.

Mögliche Werte: response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Wird ausgegeben, wenn Funktionsaufrufargumente abgeschlossen werden.

Name Type Description Required Default
arguments string Die Funktionsaufrufargumente. Yes
item_id string Die ID des Elements. Yes
output_index integer Der Index des Ausgabeelements. Yes
type enum
Mögliche Werte: response.function_call_arguments.done
Yes

ResponseInProgressEvent

Wird ausgegeben, wenn die Antwort ausgeführt wird.

Name Type Description Required Default
response response Yes
type enum Der Typ des Ereignisses. Immer response.in_progress.

Mögliche Werte: response.in_progress
Yes

ResponseIncompleteEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort als unvollständig abgeschlossen ist.

Name Type Description Required Default
response response Yes
type enum Der Typ des Ereignisses. Immer response.incomplete.

Mögliche Werte: response.incomplete
Yes

responseItemList

Eine Liste der Antwortelemente.

Name Type Description Required Default
data array Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. Yes
first_id string Die ID des ersten Elements in der Liste. Yes
has_more boolean Gibt an, ob weitere Elemente verfügbar sind. Yes
last_id string Die ID des letzten Elements in der Liste. Yes
object enum Der Typ des zurückgegebenen Objekts muss sein list.
Mögliche Werte: list
Yes

ResponseModalities

Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]

Für diese Komponente sind keine Eigenschaften definiert.

ResponseModalitiesTextOnly

Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Diese API unterstützt bald andere Ausgabemodalitäten, einschließlich Audio und Bilder.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseOutputItemAddedEvent

Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.

Name Type Description Required Default
item OutputItem Yes
output_index integer Der Index des Ausgabeelements, das hinzugefügt wurde.
Yes
type enum Der Typ des Ereignisses. Immer response.output_item.added.

Mögliche Werte: response.output_item.added
Yes

ResponseOutputItemDoneEvent

Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.

Name Type Description Required Default
item OutputItem Yes
output_index integer Der Index des Ausgabeelements, das als erledigt markiert wurde.
Yes
type enum Der Typ des Ereignisses. Immer response.output_item.done.

Mögliche Werte: response.output_item.done
Yes

ResponseProperties

Name Type Description Required Default
instructions string Fügt eine Systemnachricht (oder entwickler) als erstes Element im Kontext des Modells ein.

Bei Verwendung mit previous_response_iddieser Antwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Unterhaltungsstatus.
No
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Begründungsmodelle.
No
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Learn more:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Durch das Konfigurieren werden { "type": "json_schema" } strukturierte Ausgaben aktiviert, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools
No
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

ResponseRefusalDeltaEvent

Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird.
Yes
delta string Der Verweigerungstext, der hinzugefügt wird.
Yes
item_id string Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird.
Yes
output_index integer Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird.
Yes
type enum Der Typ des Ereignisses. Immer response.refusal.delta.

Mögliche Werte: response.refusal.delta
Yes

ResponseRefusalDoneEvent

Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, den der Ablehnungstext abgeschlossen hat.
Yes
item_id string Die ID des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist.
Yes
output_index integer Der Index des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist.
Yes
refusal string Der Verweigerungstext, der abgeschlossen ist.
Yes
type enum Der Typ des Ereignisses. Immer response.refusal.done.

Mögliche Werte: response.refusal.done
Yes

responseStreamEvent

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Der Index der hinzugefügten Anmerkung.
Yes
arguments string Die Funktionsaufrufargumente. Yes
code string Der Fehlercode.
Yes
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf zum Ausführen von Code.
Yes
content_index integer Der Index des Inhaltsteils, den der Textinhalt abgeschlossen hat.
Yes
delta string Das Textdelta, das hinzugefügt wurde.
Yes
item OutputItem Das Ausgabeelement, das als erledigt markiert wurde.
Yes
item_id string Die ID des Ausgabeelements, das der Textinhalt abgeschlossen ist.
Yes
message string Die Fehlermeldung.
Yes
output_index integer Der Index des Ausgabeelements, für das der Textinhalt abgeschlossen ist.
Yes
param string Der Fehlerparameter.
Yes
part OutputContent Der Inhaltsteil, der abgeschlossen ist.
Yes
refusal string Der Verweigerungstext, der abgeschlossen ist.
Yes
response response Die Antwort, die unvollständig war.
Yes
text string Der textinhalt, der abgeschlossen ist.
Yes
type enum Der Typ des Ereignisses. Immer response.output_text.done.

Mögliche Werte: response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Wird ausgegeben, wenn eine Textanmerkung hinzugefügt wird.

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Der Index der hinzugefügten Anmerkung.
Yes
content_index integer Der Index des Inhaltsteils, dem die Textanmerkung hinzugefügt wurde.
Yes
item_id string Die ID des Ausgabeelements, dem die Textanmerkung hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, dem die Textanmerkung hinzugefügt wurde.
Yes
type enum Der Typ des Ereignisses. Immer response.output_text.annotation.added.

Mögliche Werte: response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde.
Yes
delta string Das Textdelta, das hinzugefügt wurde.
Yes
item_id string Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde.
Yes
type enum Der Typ des Ereignisses. Immer response.output_text.delta.

Mögliche Werte: response.output_text.delta
Yes

ResponseTextDoneEvent

Wird ausgegeben, wenn Der Textinhalt abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, den der Textinhalt abgeschlossen hat.
Yes
item_id string Die ID des Ausgabeelements, das der Textinhalt abgeschlossen ist.
Yes
output_index integer Der Index des Ausgabeelements, für das der Textinhalt abgeschlossen ist.
Yes
text string Der textinhalt, der abgeschlossen ist.
Yes
type enum Der Typ des Ereignisses. Immer response.output_text.done.

Mögliche Werte: response.output_text.done
Yes

ResponseUsage

Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.

Name Type Description Required Default
input_tokens integer Die Anzahl der Eingabetoken. Yes
output_tokens integer Die Anzahl der Ausgabetoken. Yes
output_tokens_details object Eine detaillierte Aufschlüsselung der Ausgabetoken. Yes
└─ reasoning_tokens integer Die Anzahl der Gründe für Token. No
total_tokens integer Die Gesamtzahl der verwendeten Token. Yes

Screenshot

Screenshotaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf .screenshot

Mögliche Werte: screenshot
Yes

Scroll

Eine Bildlaufaktion.

Name Type Description Required Default
scroll_x integer Der horizontale Bildlaufabstand.
Yes
scroll_y integer Der vertikale Bildlaufabstand.
Yes
type enum Gibt den Ereignistyp an. Bei einer Bildlaufaktion ist diese Eigenschaft immer auf .scroll

Mögliche Werte: scroll
Yes
x integer Die x-Koordinate, an der der Bildlauf aufgetreten ist.
Yes
y integer Die y-Koordinate, an der der Bildlauf aufgetreten ist.
Yes

StopConfiguration

Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. Der zurückgegebene Text enthält nicht die Stoppsequenz.

Diese Komponente kann eine der folgenden Sein:

TextResponseFormatConfiguration

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Diese Komponente kann eine der folgenden Sein:

TextResponseFormatJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu strukturierten Ausgaben.

Name Type Description Required Default
description string Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert.
No
name string Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64.
No
schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Yes
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true.
No False
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Mögliche Werte: json_schema
Yes

Tool

Diese Komponente kann eine der folgenden Sein:

ToolChoiceFunction

Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Type Description Required Default
name string Der Name der funktion, die aufgerufen werden soll. Yes
type enum Bei Funktionsaufrufen ist der Typ immer function.
Mögliche Werte: function
Yes

ToolChoiceOptions

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.

required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.

Property Value
Description Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.

required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
Type string
Values none
auto
required

ToolChoiceTypes

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.

Name Type Description Required Default
type enum Der Typ des gehosteten Tools, den das Modell verwenden soll. Zulässige Werte sind:
- file_search
- computer_use_preview

Mögliche Werte: file_search, computer_use_preview
Yes

Type

Eine Aktion, die in Text eingegeben werden soll.

Name Type Description Required Default
text string Der einzugebende Text.
Yes
type enum Gibt den Ereignistyp an. Bei einer Typaktion ist diese Eigenschaft immer auf .type

Mögliche Werte: type
Yes

UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes VectorStoreFileAttributes Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Yes

UrlCitation

Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.

Name Type Description Required Default
end_index integer Der Index des letzten Zeichens des URL-Zitats in der Nachricht.
Yes
start_index integer Der Index des ersten Zeichens des URL-Zitats in der Nachricht.
Yes
title string Der Titel der Webressource.
Yes
type enum Der Typ des URL-Zitats. Immer url_citation.

Mögliche Werte: url_citation
Yes
url string Die URL der Webressource.
Yes

VectorStoreFileAttributes

Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.

Für diese Komponente sind keine Eigenschaften definiert.

VectorStoreFileContentResponse

Stellt den analysierten Inhalt einer Vektorspeicherdatei dar.

Name Type Description Required Default
data array Analysierter Inhalt der Datei. Yes
has_more boolean Gibt an, ob mehr Inhaltsseiten abgerufen werden sollen. Yes
next_page string Das Token für die nächste Seite, falls vorhanden. Yes
object enum Der Objekttyp, der immer vector_store.file_content.page
Mögliche Werte: vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet werden soll. No
max_num_results integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen. No 10
query Zeichenfolge oder Matrix Eine Abfragezeichenfolge für eine Suche Yes
ranking_options object Bewertungsoptionen für die Suche. No
└─ ranker enum Mögliche Werte: auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. No False

VectorStoreSearchResultContentObject

Name Type Description Required Default
text string Der von der Suche zurückgegebene Textinhalt. Yes
type enum Der Inhaltstyp.
Mögliche Werte: text
Yes

VectorStoreSearchResultItem

Name Type Description Required Default
attributes VectorStoreFileAttributes Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Yes
content array Inhaltsblöcke aus der Datei. Yes
file_id string Die ID der Vektorspeicherdatei. Yes
filename string Der Name der Vektorspeicherdatei. Yes
score number Die Ähnlichkeitsbewertung für das Ergebnis. Yes

VectorStoreSearchResultsPage

Name Type Description Required Default
data array Die Liste der Suchergebniselemente. Yes
has_more boolean Gibt an, ob weitere Ergebnisse abgerufen werden sollen. Yes
next_page string Das Token für die nächste Seite, falls vorhanden. Yes
object enum Der Objekttyp, der immer vector_store.search_results.page
Mögliche Werte: vector_store.search_results.page
Yes
search_query array Yes

VoiceIdsShared

Für diese Komponente sind keine Eigenschaften definiert.

Wait

Eine Warteaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf .wait

Mögliche Werte: wait
Yes

ReasoningEffort

Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

Property Value
Description Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Type string
Default medium
Values low
medium
high

errorEvent

Tritt auf, wenn ein Fehler auftritt. Dies kann aufgrund eines internen Serverfehlers oder eines Timeouts auftreten.

Name Type Description Required Default
data error Yes
event string Yes

event Enum: ErrorEventEnum

Value Description
error

doneEvent

Tritt auf, wenn ein Datenstrom endet.

Name Type Description Required Default
data string Yes
event string Yes

event Enum: DoneEventEnum

Value Description
done

data Enum: DoneEventDataEnum

Value Description
[DONE]

Next steps

Erfahren Sie mehr über Modelle und feinabstimmungen mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, die Azure OpenAI unterstützen.