Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel enthält Details zu den Ableitungs-REST-API-Endpunkten für Azure OpenAI.
API specs
Das Verwalten und Interagieren mit Azure OpenAI-Modellen und -Ressourcen ist auf drei primäre API-Oberflächen aufgeteilt:
- Control plane
- Datenebene – Erstellung
- Datenebene – Ableitung
Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API verfügt über einen eigenen eindeutigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA)-API-Versionen. Vorschauversionen folgen derzeit einem monatlichen Rhythmus.
Important
Es gibt jetzt eine neue Vorschau-Ableitungs-API. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.
| API | Neueste Vorschauversion | Neueste GA-Version | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | Die Steuerungsebenen-API wird für Vorgänge wie das Erstellen von Ressourcen, modellbasierte Bereitstellung und andere Ressourcenverwaltungsaufgaben auf höherer Ebene verwendet. Die Steuerungsebene steuert auch, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist. |
| Data plane | v1 preview |
v1 |
Spec files | Die Datenebenen-API steuert Ableitungs- und Erstellungsvorgänge. |
Authentication
Azure OpenAI bietet zwei Methoden für die Authentifizierung. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.
API-Schlüsselauthentifizierung: Für diesen Authentifizierungstyp müssen alle API-Anforderungen den API-Schlüssel im
api-keyHTTP-Header enthalten. Die Schnellstartanleitung enthält Anleitungen zum Tätigen von Anrufen mit diesem Authentifizierungstyp.Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mithilfe eines Microsoft Entra-Tokens authentifizieren. Authentifizierungstoken sind in einer Anforderung als
AuthorizationHeader enthalten. Das bereitgestellte Token muss z. BBearer. vorangestelltBearer YOUR_AUTH_TOKENsein. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.
REST-API-Versionsverwaltung
Die Dienst-APIs werden mithilfe des api-version Abfrageparameters versionsgesteuert. Alle Versionen folgen der Datumsstruktur JJJJ-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Datenebenen-Ableitung
Der Rest des Artikels behandelt die 2025-04-01-preview Vorschauversion der Azure OpenAI-Datenebenen-Ableitungsspezifikation.
Wenn Sie nach Dokumentationen zur neuesten GA-API-Version suchen, lesen Sie die neueste GA-Datenebenen-Ableitungs-API.
Fertigstellungen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.Bei Verwendung mit n, best_of steuert die Anzahl der Abschlusskandidaten und n gibt an, wie viele zurückzugebende Ã-â'“ best_of größer sein muss als n.Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop. |
No | 1 |
| echo | boolean | Echo der Eingabeaufforderung zusätzlich zum Abschluss | No | False |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. | No | 0 |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird die Verzerrung zu den logits hinzugefügt, die vom Modell vor dem Sampling generiert werden. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird. |
No | None |
| logprobs | integer | Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn beispielsweise logprobs 5 ist, gibt die API eine Liste der 5 höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob Beispieltoken zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.Der Maximalwert für logprobs 5. |
No | None |
| max_tokens | integer | Die maximale Anzahl von Token, die im Abschluss generiert werden können. Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
No | 16 |
| n | integer | Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen. Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop. |
No | 1 |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. | No | 0 |
| prompt | Zeichenfolge oder Matrix | Die Aufforderung zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Arrays von Tokenarrays codiert werden. Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell von Beginn eines neuen Dokuments generiert. |
Yes | |
| seed | integer | Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | Zeichenfolge oder Matrix | Bis zu vier Sequenzen, in denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz. | No | |
| stream | boolean | Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird.
Beispiel-Python-Code. |
No | False |
| suffix | string | Das Suffix, das nach abschluss des eingefügten Texts kommt. Dieser Parameter wird nur für gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch gestalten. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antworten: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Einbettungen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden kann.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Die Bereitstellungs-ID des Modells, das bereitgestellt wurde. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No | |
| encoding_format | string | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64. Standardwert ist .float |
No | |
| input | Zeichenfolge oder Matrix | Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Um mehrere Eingaben in eine einzelne Anforderung einzubetten, übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays. Die Eingabe darf die maximalen Eingabetoken für das Modell (8.192 Token für text-embedding-ada-002), keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. |
Yes | |
| input_type | string | Eingabetyp der zu verwendenden Einbettungssuche | No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Gibt die Einbettungen für eine bestimmte Eingabeaufforderung zurück.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chatabschluss – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Erstellt einen Abschluss für die Chatnachricht
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]. |
No | |
| └─ format | enum | Gibt das Ausgabeaudioformat an. Muss eine von , , , , wavoder mp3. flacopuspcm16 Mögliche Werte: wav, , mp3flac, , opuspcm16 |
No | |
| └─ voice | enum | Gibt den Sprachtyp an. Unterstützte Stimmen sind alloy, , echo, fable, onyx, novaund shimmer.Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer |
No | |
| data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. |
No | 0 |
| function_call | string or chatCompletionFunctionCallOption | Veraltet zugunsten von tool_choice.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.none ist der Standardwert, wenn keine Funktionen vorhanden sind.
auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
No | |
| functions | array | Veraltet zugunsten von tools.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird die Verzerrung zu den logits hinzugefügt, die vom Modell vor dem Sampling generiert werden. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. |
No | None |
| logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. |
No | False |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. | No | |
| max_tokens | integer | Die maximale Anzahl von Token, die im Chatabschluss generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt. |
No | |
| messages | array | Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Beispiel-Python-Code. | Yes | |
| metadata | object | Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. | No | |
| modalities | ChatCompletionModalities | Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:["text", "audio"] |
No | |
| n | integer | Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Sie werden basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt. Halten Sie sich n an die 1 Minimierung der Kosten. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| prediction | PredictionContent | Konfiguration für eine vorhergesagte Ausgabe, die die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort vorab bekannt sind. Dies ist am häufigsten, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu erstellen. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
No | 0 |
| reasoning_effort | enum |
Nur o1-Modelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.Mögliche Werte: low, , mediumhigh |
No | |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.Einstellung zum { "type": "json_schema", "json_schema": {...} } Aktivieren von strukturierten Ausgaben, die garantieren, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | Zeichenfolge oder Matrix | Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. |
No | |
| store | boolean | Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. | No | |
| stream | boolean | Wenn festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird.
Beispiel-Python-Code. |
No | False |
| stream_options | chatCompletionStreamOptions | Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true. |
No | None |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch gestalten. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
No | |
| tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.
logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. |
No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. |
No | |
| user_security_context | userSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender für Cloud. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt einen Abschluss basierend auf Azure Search-Daten und vom System zugewiesener verwalteter Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt einen Abschluss basierend auf Azure Search-Bildvektordaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt einen Abschluss basierend auf Azure Search-Vektordaten, früherer Assistant-Nachricht und vom Benutzer zugewiesener verwalteter Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt einen Abschluss für die bereitgestellte Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt einen Abschluss für die bereitgestellte Mongo DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt einen Abschluss für die bereitgestellte Elasticsearch.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt einen Abschluss für die bereitgestellte Pinecone-Ressource.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptionen - Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transkribiert Audio in die Eingabesprache.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | ID des zu verwendenden Modells. Die Optionen sind gpt-4o-transcribe: , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, , whisper-1und gpt-4o-transcribe-diarize. |
Yes | |
| file | string | Das zu transkribierende Audiodateiobjekt. | Yes | |
| language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. | No | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
| timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription aufgefüllt werden sollen.
response_format muss für die Verwendung von Timestamp-Granularitäten festgelegt verbose_json werden. Entweder oder beide dieser Optionen werden unterstützt: wordoder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. |
No | ['segment'] |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Transkribierter Text im Ausgabeformat (wenn response_format einer von text, vtt oder srt). |
Examples
Example
Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Übersetzungen - Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transkribiert und übersetzt Eingabeaudio in englischen Text.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Die zu übersetzende Audiodatei. | Yes | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Transkribierter Text im Ausgabeformat (wenn response_format einer von Text, vtt oder srt war). |
Examples
Example
Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Sprache – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Generiert Audio aus dem Eingabetext.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. | Yes | |
| response_format | enum | Das Format zum Synthetisieren des Audiosignals. Mögliche Werte: mp3, , opus, aacflac, , , wavpcm |
No | |
| speed | number | Die Geschwindigkeit der synthetisierten Audiodaten. Wählen Sie einen Wert von 0.25 bis zu 4.0.
1.0 ist der Standardwert. |
No | 1.0 |
| voice | enum | Die Stimme, die für die Sprachsynthese verwendet werden soll. Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Synthetisiert Audio aus dem bereitgestellten Text.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Antworten: Statuscode: 200
{
"body": "101010101"
}
Bildgenerationen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Generiert einen Batch von Bildern aus einer Textbeschriftung in einer bestimmten Bereitstellung des Imagegenerierungsmodells.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. | No | auto |
| n | integer | Die Anzahl der zu generierenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. | No | 1 |
| output_compression | integer | Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. | No | 100 |
| output_format | imagesOutputFormat | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. | No | png |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serie und 4000 Zeichen für dall-e-3 | Yes | |
| partial_images | integer | Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streamingantworten verwendet, die Teilbilder zurückgeben. Der Wert muss zwischen 0 und 3 sein. Bei Festlegung auf 0 ist die Antwort ein einzelnes Bild, das in einem Streamingereignis gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die vollständige Anzahl von Teilbildern generiert wird, wenn das vollständige Bild schneller generiert wird. | 0 | |
| stream | boolean | Bearbeiten Sie das Bild im Streamingmodus. | no | false |
| quality | imageQuality | Die Qualität des Bilds, das generiert wird. | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.Mögliche Werte: url, b64_json. |
No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| style | imageStyle | Die Formatvorlage der generierten Bilder. Wird nur für dall-e-3 unterstützt. | No | vivid |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Fehler.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Erstellt Bilder mit einer Eingabeaufforderung.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antworten: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Bildgenerationen - Bearbeiten
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Bearbeitet ein Bild aus einer Textbeschriftung in einer bestimmten Gpt-image-1-Modellbereitstellung
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | Zeichenfolge oder Matrix | Die zu bearbeitenden Bilder. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder JPG-Datei sein, die kleiner als 50 MB ist. | Yes | |
| input_fidelity | string | Steuern Sie, wie viel Aufwand das Modell ausüben wird, um dem Stil und den Features, insbesondere Gesichtsmerkmalen, von Eingabebildern zu entsprechen. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. Unterstützt high und low. |
no |
low. |
| mask | string | Ein zusätzliches Bild, dessen vollständig transparente Bereiche (z. B. Alpha null) angeben, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Muss eine gültige PNG-Datei sein, die kleiner als 4 MB ist und die gleichen Abmessungen wie das Bild aufweist. | No | |
| n | integer | Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. | No | 1 |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen. | Yes | |
| quality | imageQuality | Die Qualität des Bilds, das generiert wird. | No | auto |
| partial_images | Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streamingantworten verwendet, die Teilbilder zurückgeben. Der Wert muss zwischen 0 und 3 sein. Bei Festlegung auf 0 ist die Antwort ein einzelnes Bild, das in einem Streamingereignis gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die vollständige Anzahl von Teilbildern generiert wird, wenn das vollständige Bild schneller generiert wird. | |||
| stream | boolean | Bearbeiten Sie das Bild im Streamingmodus. | no | false |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Fehler.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Liste – Assistenten
Note
Die Assistenten-API ist veraltet und wird am 26. August 2026 eingestellt. Verwenden Sie den allgemein verfügbaren Microsoft Foundry Agents-Dienst. Folgen Sie dem Migrationshandbuch , um Ihre Workloads zu aktualisieren. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Gibt eine Liste der Assistenten zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Gibt eine Liste der Assistenten zurück.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Erstellen – Assistent
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| model | string | Yes | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der an diesen Assistenten angefügte Vektorspeicher. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| └─ vector_stores | array | Ein Helfer zum Erstellen eines Vektorspeichers mit file_ids und an diesen Assistenten anfügen. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, retrieval, oder function. |
No | [] |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Antworten: Statuscode: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Abrufen – Assistent
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Ruft einen Assistenten ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des abzurufenden Assistenten. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Ruft einen Assistenten ab.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modify - Assistent
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Ändert einen Assistenten.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des zu ändernden Assistenten. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32768 Zeichen. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| model | string | No | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Überschreibt die Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Überschreibt den an diesen Assistenten angefügten Vektorspeicher. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, retrieval, oder function. |
No | [] |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Ändert einen Assistenten.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Antworten: Statuscode: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Löschen – Assistent
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Löschen sie einen Assistenten.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des zu löschenden Assistenten. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Löscht einen Assistenten.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Create - Thread
Note
Die Assistenten-API ist veraltet und wird am 26. August 2026 eingestellt. Verwenden Sie den allgemein verfügbaren Microsoft Foundry Agents-Dienst. Folgen Sie dem Migrationshandbuch , um Ihre Workloads zu aktualisieren. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Erstellen Sie einen Thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein. |
No | |
| └─ vector_stores | array | Ein Hilfsprogramm zum Erstellen eines Vektorspeichers mit file_ids und an diesen Thread anfügen. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Erstellt einen Thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Get - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Ruft einen Thread ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des abzurufenden Threads. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Ruft einen Thread ab.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modify - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Ändert einen Thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des zu ändernden Threads. Nur die metadata Kann geändert werden. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Ändert einen Thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Delete - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Löschen sie einen Thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des zu löschenden Threads. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Löscht einen Thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Liste – Nachrichten
Note
Die Assistenten-API ist veraltet und wird am 26. August 2026 eingestellt. Verwenden Sie den allgemein verfügbaren Microsoft Foundry Agents-Dienst. Folgen Sie dem Migrationshandbuch , um Ihre Workloads zu aktualisieren. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Gibt eine Liste von Nachrichten für einen bestimmten Thread zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu der die Nachrichten gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| run_id | query | No | string | Filtern Sie Nachrichten nach der Ausführungs-ID, die sie generiert hat. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Erstellen – Nachricht
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Erstellen Sie eine Nachricht.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, für die eine Nachricht erstellt werden soll. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Eine Liste der Dateien, die an die Nachricht angefügt sind, und die Tools, denen sie hinzugefügt werden sollen. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| role | string | Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte umfassen: - user: Gibt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wird und in den meisten Fällen verwendet werden soll, um vom Benutzer generierte Nachrichten darzustellen.- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen. |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Erstellen Sie eine Nachricht.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Antworten: Statuscode: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Abrufen – Nachricht
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Abrufen einer Nachricht.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu denen diese Nachricht gehört. |
| message_id | path | Yes | string | Die ID der abzurufenden Nachricht. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Abrufen einer Nachricht.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Ändern – Nachricht
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Ändert eine Nachricht.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem diese Nachricht gehört. |
| message_id | path | Yes | string | Die ID der zu ändernden Nachricht. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Ändern einer Nachricht.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Erstellen – Thread und Ausführen
Note
Die Assistenten-API ist veraltet und wird am 26. August 2026 eingestellt. Verwenden Sie den allgemein verfügbaren Microsoft Foundry Agents-Dienst. Folgen Sie dem Migrationshandbuch , um Ihre Workloads zu aktualisieren. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Erstellen Sie einen Thread, und führen Sie ihn in einer Anforderung aus.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der zum Ausführen dieser Ausführung verwendet werden soll. | Yes | |
| instructions | string | Überschreiben Sie die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Abschlusstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Abschlusstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die anzahl der angegebenen Abschlusstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Eingabeaufforderungstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die Anzahl der angegebenen Eingabeaufforderungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| model | string | Die ID der Modelle, die zum Ausführen dieser Ausführung verwendet werden sollen. Wenn hier ein Wert angegeben wird, setzt er das dem Assistenten zugeordnete Modell außer Kraft. Wenn nicht, wird das dem Assistenten zugeordnete Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt. |
No | |
| stream_options | chatCompletionStreamOptions | Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true. |
No | None |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| tools | array | Überschreiben Sie die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Erstellen Sie einen Thread, und führen Sie ihn in einer Anforderung aus.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
List - Runs
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Gibt eine Liste von Läufen zurück, die zu einem Thread gehören.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem die Ausführung gehört. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Gibt eine Liste von Läufen zurück, die zu einem Thread gehören.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Erstellen – Ausführen
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Erstellen Sie eine Ausführung.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des auszuführenden Threads. |
| include[] | query | No | array | Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert das Abrufen des Dateisuchergebnisinhalts. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. | No | |
| additional_messages | array | Fügt dem Thread zusätzliche Meldungen hinzu, bevor die Ausführung erstellt wird. | No | |
| assistant_id | string | Die ID des Assistenten, der zum Ausführen dieser Ausführung verwendet werden soll. | Yes | |
| instructions | string | Überschreiben Sie die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Abschlusstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Abschlusstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die anzahl der angegebenen Abschlusstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Eingabeaufforderungstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die Anzahl der angegebenen Eingabeaufforderungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| model | string | Die ID des Modells, das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, setzt er das dem Assistenten zugeordnete Modell außer Kraft. Wenn nicht, wird das dem Assistenten zugeordnete Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen. |
No | |
| tools | array | Überschreiben Sie die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Erstellen Sie eine Ausführung.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Get – Ausführen
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Ruft eine Ausführung ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der ausgeführten Threads. |
| run_id | path | Yes | string | Die ID der abzurufenden Ausführung. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Ruft eine Ausführung ab.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modify - Ausführen
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Ändert eine Ausführung.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der ausgeführten Threads. |
| run_id | path | Yes | string | Die ID der auszuführenden Ausführung, die geändert werden soll. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Ändert eine Ausführung.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Submit - Toolausgabe zur Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Wenn eine Ausführung das status: "requires_action" Ergebnis hat und required_action.type ist submit_tool_outputs, kann dieser Endpunkt verwendet werden, um die Ausgaben des Tools zu übermitteln, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzigen Anforderung übermittelt werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu denen diese Ausführung gehört. |
| run_id | path | Yes | string | Die ID der Ausführung, für die die Toolausgabeübermittlung erforderlich ist. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt. |
No | |
| tool_outputs | array | Eine Liste der Tools, für die die Ausgaben übermittelt werden. | Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Wenn eine Ausführung das status: "requires_action" Ergebnis hat und required_action.type ist submit_tool_outputs, kann dieser Endpunkt verwendet werden, um die Ausgaben des Tools zu übermitteln, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzigen Anforderung übermittelt werden.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Abbrechen – Ausführen
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Bricht eine Ausführung ab, die lautet in_progress.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem diese Ausführung gehört. |
| run_id | path | Yes | string | Die ID der Ausführung, die abgebrochen werden soll. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Bricht eine Ausführung ab, die lautet in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Liste – Ausführen von Schritten
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Gibt eine Liste der Ausführungsschritte zurück, die zu einer Ausführung gehören.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem die Ausführungs- und Ausführungsschritte gehören. |
| run_id | path | Yes | string | Die ID der Ausführung der Ausführungsschritte gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert das Abrufen des Dateisuchergebnisinhalts. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Gibt eine Liste der Ausführungsschritte zurück, die zu einer Ausführung gehören.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Get - Run Step
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Ruft einen Ausführungsschritt ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem der Ausführungs- und Ausführungsschritt gehört. |
| run_id | path | Yes | string | Die ID der Ausführung, zu der der Ausführungsschritt gehört. |
| step_id | path | Yes | string | Die ID des auszuführenden Schritts zum Abrufen. |
| include[] | query | No | array | Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert das Abrufen des Dateisuchergebnisinhalts. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Ruft einen Ausführungsschritt ab.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Liste – Vektorspeicher
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Gibt eine Liste von Vektorspeichern zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Gibt eine Liste von Vektorspeichern zurück.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Erstellen – Vektorspeicher
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Erstellen Sie einen Vektorspeicher.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. Gilt nur, wenn file_ids es nicht leer ist. |
No | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| file_ids | array | Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Erstellt einen Vektorspeicher.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Abrufen – Vektorspeicher
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Ruft einen Vektorspeicher ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des abzurufenden Vektorspeichers. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Ruft einen Vektorspeicher ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modify – Vektorspeicher
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Ändert einen Vektorspeicher.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des zu ändernden Vektorspeichers. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Ändert einen Vektorspeicher.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Löschen – Vektorspeicher
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Löschen eines Vektorspeichers.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des zu löschenden Vektorspeichers. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Löscht einen Vektorspeicher.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Liste – Vektorspeicherdateien
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Gibt eine Liste von Vektorspeicherdateien zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | query | No | string Mögliche Werte: in_progress, , completed, failedcancelled |
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Gibt eine Liste von Vektorspeicherdateien zurück.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create – Vector Store-Datei
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, für den eine Datei erstellt werden soll. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. |
No | |
| file_id | string | Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Antworten: Statuscode: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Abrufen – Vector Store-Datei
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Ruft eine Vektorspeicherdatei ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der abgerufenen Datei. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Ruft eine Vektorspeicherdatei ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Löschen – Vektorspeicherdatei
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den Löschdateiendpunkt.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der zu löschenden Datei. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den Löschdateiendpunkt.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Aktualisieren von Attributen in einer Vektorspeicherdatei.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der Datei zum Aktualisieren von Attributen. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Abrufen von Vektorspeicherdateiinhalten
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Rufen Sie den analysierten Inhalt einer Vektorspeicherdatei ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers. |
| file_id | path | Yes | string | Die ID der Datei im Vektorspeicher. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Suchvektorspeicher
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Suchen Sie einen Vektorspeicher nach relevanten Blöcken basierend auf einem Abfrage- und Dateiattributefilter.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des zu durchsuchenden Vektorspeichers. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet werden soll. | No | |
| max_num_results | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen. | No | 10 |
| query | Zeichenfolge oder Matrix | Eine Abfragezeichenfolge für eine Suche | Yes | |
| ranking_options | object | Bewertungsoptionen für die Suche. | No | |
| └─ ranker | enum | Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. | No | False |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Create – Vector Store-Dateibatch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Erstellen Sie einen Vektorspeicherdateibatch.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. |
No | |
| file_ids | array | Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Erstellen Sie einen Vektorspeicherdateibatch.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Antworten: Statuscode: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Abrufen – Vector Store-Dateibatch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Ruft einen Vektorspeicherdateibatch ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des abgerufenen Dateibatches. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Ruft einen Vektorspeicherdateibatch ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Abbrechen – Vector Store-Dateibatch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Abbrechen eines Vektorspeicherdateibatches. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des zu abbrechenden Dateibatches. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Abbrechen eines Vektorspeicherdateibatches. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Liste – Vector Store-Dateibatchdateien
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Gibt eine Liste der Vektorspeicherdateien in einem Batch zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| batch_id | path | Yes | string | Die ID des Dateibatches, zu dem die Dateien gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | query | No | string Mögliche Werte: in_progress, , completed, failedcancelled |
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Gibt eine Liste von Vektorspeicherdateien zurück.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Erstellen: Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API. Kann mit denselben Sitzungsparametern wie das session.update Clientereignis konfiguriert werden.
Er antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein verwendbares ephemeres API-Token enthält, das zum Authentifizieren von Browserclients für die Realtime-API verwendet werden kann.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Samplerate, einem einzelnen Kanal (Mono) und einer Kleinen-End-Byte-Reihenfolge sein.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration für die Rauschunterdrückung von Eingaben. Dies kann so festgelegt werden, dass null sie deaktiviert wird.Die Rauschreduzierung filtert audio, die dem Eingabeaudiopuffer hinzugefügt wurden, bevor sie an VAD und das Modell gesendet wird. Durch die Filterung des Audiosignals können VAD verbessert und die Erkennungsgenauigkeit verbessert werden (falsch positive Ergebnisse reduziert) und die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudio verbessert wird. |
No | |
| └─ type | enum | Art der Rauschreduzierung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription, standardmäßig deaktiviert und kann so festgelegt werden, dass null das Deaktivieren einmal aktiviert ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Die Transkription wird asynchron über den Transkriptionsendpunkt ausgeführt und sollte als Anleitung für Eingabeaudioinhalte behandelt werden, anstatt genau das, was das Modell gehört hat. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst. |
No | |
| └─ language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ model | string | Das Modell, das für die Transkription verwendet werden soll, sind gpt-4o-transcribeaktuelle Optionen , , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15whisper-1. |
No | |
| └─ prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
No | |
| instructions | string | Die Standardmäßigen Systemanweisungen (d. h. Systemmeldung) werden modellierten Aufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und über Audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Die Anweisungen sind nicht garantiert, auf das Modell zu folgen, aber sie bieten Anleitungen für das Modell für das gewünschte Verhalten. Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist. |
No | |
| max_response_output_tokens | ganze Zahl oder Zeichenfolge | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Stellen Sie eine ganze Zahl zwischen 1 und 4096 bereit, inf um Ausgabetoken oder für die maximal verfügbaren Token für ein bestimmtes Modell einzuschränken. Standardwert ist .inf |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| model | string | Der Name der Bereitstellung, die für diese Sitzung verwendet wird. |
No | |
| output_audio_format | enum | Das Format der Ausgabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.Für pcm16, Ausgabeaudio wird mit einer Rate von 24 kHz abgesampt.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Für Audiomodelle wird eine Temperatur von 0,8 dringend empfohlen, um eine optimale Leistung zu erzielen. |
No | 0.8 |
| tool_choice | string | Wie das Modell Tools auswäht. Optionen sind auto, none, requiredoder geben Sie eine Funktion an. |
No | auto |
| tools | array | Tools (Funktionen), die für das Modell verfügbar sind. | No | |
| turn_detection | object | Konfiguration für turn detection, ether Server VAD oder Semantic VAD. Dies kann auf null das Deaktivieren festgelegt werden, in diesem Fall muss der Client die Modellantwort manuell auslösen.Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. Semantischer VAD ist fortgeschrittener und verwendet ein Turn Detection-Modell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer gesprochen hat, und legt dann dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit fest. Wenn z. B. die Audiospur des Benutzers deaktiviert uhhmist, bewertet das Modell eine niedrige Wahrscheinlichkeit für das Ende der Drehung und wartet länger, bis der Benutzer weiter spricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └─ create_response | boolean | Gibt an, ob beim Auftreten eines VAD-Stoppereignisses automatisch eine Antwort generiert werden soll. |
No | True |
| └─ eagerness | enum | Wird nur für semantic_vad den Modus verwendet. Die Eifer des Modells, zu reagieren.
low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren.
auto ist der Standardwert und entspricht mediumdem .Mögliche Werte: low, , medium, highauto |
No | |
| └─ interrupt_response | boolean | Gibt an, ob beim Auftreten eines VAD-Startereignisses automatisch eine fortlaufende Antwort mit der Ausgabe der Standardunterhaltung (d. h. conversation von auto) unterbrochen werden soll. |
No | True |
| └─ prefix_padding_ms | integer | Wird nur für server_vad den Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms. |
No | |
| └─ silence_duration_ms | integer | Wird nur für server_vad den Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └─ threshold | number | Wird nur für server_vad den Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └─ type | enum | Typ der Turnerkennung. Mögliche Werte: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Statuscode: 200
Beschreibung: Die Sitzung wurde erfolgreich erstellt.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Erstellen: Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API speziell für Echtzeittranskriptionen.
Kann mit denselben Sitzungsparametern wie das transcription_session.update Clientereignis konfiguriert werden.
Er antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein verwendbares ephemeres API-Token enthält, das zum Authentifizieren von Browserclients für die Realtime-API verwendet werden kann.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Samplerate, einem einzelnen Kanal (Mono) und einer Kleinen-End-Byte-Reihenfolge sein.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration für die Rauschunterdrückung von Eingaben. Dies kann so festgelegt werden, dass null sie deaktiviert wird.Die Rauschreduzierung filtert audio, die dem Eingabeaudiopuffer hinzugefügt wurden, bevor sie an VAD und das Modell gesendet wird. Durch die Filterung des Audiosignals können VAD verbessert und die Erkennungsgenauigkeit verbessert werden (falsch positive Ergebnisse reduziert) und die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudio verbessert wird. |
No | |
| └─ type | enum | Art der Rauschreduzierung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst. |
No | |
| └─ language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ model | enum | Das Modell, das für die Transkription verwendet werden soll, sind gpt-4o-transcribeaktuelle Optionen , , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15und whisper-1.Mögliche Werte: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └─ prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| turn_detection | object | Konfiguration für turn detection, ether Server VAD oder Semantic VAD. Dies kann auf null das Deaktivieren festgelegt werden, in diesem Fall muss der Client die Modellantwort manuell auslösen.Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. Semantischer VAD ist fortgeschrittener und verwendet ein Turn Detection-Modell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer gesprochen hat, und legt dann dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit fest. Wenn z. B. die Audiospur des Benutzers deaktiviert uhhmist, bewertet das Modell eine niedrige Wahrscheinlichkeit für das Ende der Drehung und wartet länger, bis der Benutzer weiter spricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └─ create_response | boolean | Gibt an, ob beim Auftreten eines VAD-Stoppereignisses automatisch eine Antwort generiert werden soll. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └─ eagerness | enum | Wird nur für semantic_vad den Modus verwendet. Die Eifer des Modells, zu reagieren.
low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren.
auto ist der Standardwert und entspricht mediumdem .Mögliche Werte: low, , medium, highauto |
No | |
| └─ interrupt_response | boolean | Gibt an, ob beim Auftreten eines VAD-Startereignisses automatisch eine fortlaufende Antwort mit der Ausgabe der Standardunterhaltung (d. h. conversation von auto) unterbrochen werden soll. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └─ prefix_padding_ms | integer | Wird nur für server_vad den Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms. |
No | |
| └─ silence_duration_ms | integer | Wird nur für server_vad den Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └─ threshold | number | Wird nur für server_vad den Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └─ type | enum | Typ der Turnerkennung. Mögliche Werte: server_vad, semantic_vad |
No |
Responses
Statuscode: 200
Beschreibung: Die Sitzung wurde erfolgreich erstellt.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Erstellt eine Modellantwort.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | Zeichenfolge oder Matrix | Model inputs | Yes | |
| instructions | string | Fügt eine Systemnachricht (oder entwickler) als erstes Element im Kontext des Modells ein. Bei Verwendung mit previous_response_iddieser Antwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Unterhaltungsstatus. |
No | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. |
No | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Erfahren Sie mehr über den Unterhaltungsstatus. |
No | |
| reasoning | Reasoning | Konfigurationsoptionen für Begründungsmodelle. | No | |
| store | boolean | Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. |
No | True |
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Weitere Informationen finden Sie im Abschnitt "Streaming" weiter unten. |
No | False |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Learn more: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Durch das Konfigurieren werden { "type": "json_schema" } strukturierte Ausgaben aktiviert, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Erweiterung der model's capabilities |
No | |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Antwort-API – Eingabeelemente
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Ruft eine Modellantwort mit der angegebenen ID ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der abzurufenden Antwort. |
| include | query | No | array | Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen. Weitere Informationen finden Sie im Obigen Parameter für die include Erstellung von Antworten. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Löscht eine Modellantwort mit der angegebenen ID.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der zu löschenden Antwort. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
Statuscode: 404
Beschreibung: Nicht gefunden
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Antwort-API – Antwortelementliste
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der Antwort, für die Eingabeelemente abgerufen werden sollen. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Die Reihenfolge, in der die Eingabeelemente zurückgegeben werden sollen. Der Standardwert ist asc.- asc: Gibt die Eingabeelemente in aufsteigender Reihenfolge zurück.- desc: Gibt die Eingabeelemente in absteigender Reihenfolge zurück. |
| after | query | No | string | Eine Element-ID zum Auflisten von Elementen, die in der Paginierung verwendet werden. |
| before | query | No | string | Eine Element-ID zum Auflisten von Elementen vor, die in der Paginierung verwendet werden. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen des Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Innerer Fehler mit zusätzlichen Details. | No | |
| param | string | No | ||
| type | string | No |
innerError
Innerer Fehler mit zusätzlichen Details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt. | No | |
| content_filter_results | contentFilterPromptResults | Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. | No |
innerErrorCode
Fehlercodes für das innere Fehlerobjekt.
| Property | Value |
|---|---|
| Description | Fehlercodes für das innere Fehlerobjekt. |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Innerer Fehler mit zusätzlichen Details. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Innerer Fehler mit zusätzlichen Details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt. | No | |
| content_filter_results | dalleFilterResults | Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. | No | |
| revised_prompt | string | Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. | No |
contentFilterCompletionTextSpan
Beschreibt eine Spanne innerhalb des generierten Abschlusstexts. Offset 0 ist der erste UTF32-Codepunkt des Abschlusstexts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld ist immer gleich completion_start_offset für leere Spannen. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. | Yes | |
| completion_start_offset | integer | Offset des UTF32-Codepunkts, der die Spanne beginnt. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| └─ URL | string | No | ||
| └─ license | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Informationen zu den Ergebnissen der Inhaltsfilterung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Text und Profanität von Drittanbietern, sofern er erkannt wurde und ob er gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Ergebnisse der Inhaltsfilterung für eine einzelne Eingabeaufforderung in der Anforderung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. | No | |
| prompt_index | integer | No |
promptFilterResults
Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen.
Für diese Komponente sind keine Eigenschaften definiert.
dalleContentFilterResults
Informationen zu den Ergebnissen der Inhaltsfilterung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit detailierten Inhaltsfilter-IDs für die gefilterten Segmente. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. | No | 0 |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. | No | |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. | No | |
| max_tokens | integer | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig lautet die Anzahl der Token, die das Modell zurückgeben kann (4096 – Eingabeaufforderungstoken). Dies ist nicht mit o1-Serienmodellen kompatibel. | No | 4096 |
| metadata | object | Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. | No | 0 |
| stop | Zeichenfolge oder Matrix | Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. | No | |
| store | boolean | Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. | No | |
| stream | boolean | Wenn festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. |
No | False |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Generiert best_of serverseitige Fertigstellungen und gibt die "beste" zurück (die mit der höchsten Protokollwahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.Bei Verwendung mit n, best_of steuert die Anzahl der Abschlusskandidaten und n gibt an, wie viele zurückgegeben werden sollen.
best_of muss größer als nsein.Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop. |
No | 1 |
| echo | boolean | Echo der Eingabeaufforderung zusätzlich zum Abschluss |
No | False |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. |
No | 0 |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. Als Beispiel können Sie übergeben {"50256": -100} , um zu verhindern, dass das <|endoftext|-> Token generiert wird. |
No | None |
| logprobs | integer | Schließen Sie die Protokollwahrscheinlichkeiten für die logprobs höchstwahrscheinlichen Ausgabetoken sowie die ausgewählten Token ein. Wenn beispielsweise logprobs 5 ist, gibt die API eine Liste der 5 höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob beispielgesteuerte Token zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.Der Maximalwert für logprobs 5. |
No | None |
| max_tokens | integer | Die maximale Anzahl von Token, die im Abschluss generiert werden können. Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
No | 16 |
| n | integer | Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen. Hinweis: Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie sorgfältig, und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop. |
No | 1 |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
No | 0 |
| prompt | Zeichenfolge oder Matrix | Die Eingabeaufforderungen zum Generieren von Abschlussen, die als Zeichenfolge, Array von Zeichenfolgen, Arrays von Token oder Arrays von Tokenarrays codiert werden sollen. Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während der Schulung sieht. Wenn also keine Eingabeaufforderung angegeben wird, wird das Modell vom Anfang eines neuen Dokuments generiert. |
Yes | |
| seed | integer | Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | Zeichenfolge oder Matrix | Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. Der zurückgegebene Text enthält nicht die Stoppsequenz. |
No | |
| stream | boolean | Gibt an, ob der Teilfortschritt wieder gestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird.
Beispiel-Python-Code. |
No | False |
| suffix | string | Das Suffix, das nach abschluss des eingefügten Texts kommt. Dieser Parameter wird nur für gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. |
No |
createCompletionResponse
Stellt eine Abschlussantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dasselbe Shape (im Gegensatz zum Chatendpunkt).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Die Liste der Abschlussoptionen, die das Modell für die Eingabeaufforderung generiert hat. | Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Abschlusses. | Yes | |
| id | string | Ein eindeutiger Bezeichner für den Abschluss. | Yes | |
| model | string | Das Modell, das für den Abschluss verwendet wird. | Yes | |
| object | enum | Der Objekttyp, der immer "text_completion" ist Mögliche Werte: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. | No | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können. |
No | |
| usage | completionUsage | Nutzungsstatistiken für die Abschlussanforderung. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]. |
No | |
| └─ format | enum | Gibt das Ausgabeaudioformat an. Muss eine von , , , , wavoder mp3. flacopuspcm16 Mögliche Werte: wav, , mp3flac, , opuspcm16 |
No | |
| └─ voice | enum | Gibt den Sprachtyp an. Unterstützte Stimmen sind alloy, , echo, fable, onyx, novaund shimmer.Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer |
No | |
| data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. |
No | 0 |
| function_call | string or chatCompletionFunctionCallOption | Veraltet zugunsten von tool_choice.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Funktion auswählen kann.Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.none ist der Standardwert, wenn keine Funktionen vorhanden sind.
auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
No | |
| functions | array | Veraltet zugunsten von tools.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. |
No | None |
| logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. |
No | False |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. | No | |
| max_tokens | integer | Die maximale Anzahl von Token, die im Chatabschluss generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token ist durch die Kontextlänge des Modells begrenzt. |
No | |
| messages | array | Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Beispiel-Python-Code. | Yes | |
| metadata | object | Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. | No | |
| modalities | ChatCompletionModalities | Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:["text", "audio"] |
No | |
| n | integer | Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| prediction | PredictionContent | Konfiguration für eine vorhergesagte Ausgabe, die die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort vorab bekannt sind. Dies ist am häufigsten, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu erstellen. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
No | 0 |
| reasoning_effort | enum |
Nur o1-Modelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.Mögliche Werte: low, , mediumhigh |
No | |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen neuer als gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die garantieren, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, der garantiert, dass die Nachricht, die das Modell generiert, gültig JSON ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | Zeichenfolge oder Matrix | Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. |
No | |
| store | boolean | Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. | No | |
| stream | boolean | Wenn festgelegt, werden Teilnachrichtendelta gesendet, z. B. in ChatGPT. Token werden als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird.
Beispiel-Python-Code. |
No | False |
| stream_options | chatCompletionStreamOptions | Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true. |
No | None |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
No | |
| tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.
logprobs muss festgelegt werden, true wenn dieser Parameter verwendet wird. |
No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. |
No | |
| user_security_context | userSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender für Cloud. | No |
userSecurityContext
Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender für Cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Der Name der Anwendung. Vertrauliche persönliche Informationen sollten in diesem Feld nicht enthalten sein. | No | |
| end_user_id | string | Dieser Bezeichner ist die Benutzerobjekt-ID von Microsoft Entra (früher Azure Active Directory), die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Vertrauliche persönliche Informationen sollten in diesem Feld nicht enthalten sein. | No | |
| end_user_tenant_id | string | Die Microsoft 365-Mandanten-ID, zu der der Endbenutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung mehrinstanzenfähig ist. | No | |
| source_ip | string | Erfasst die IP-Adresse des ursprünglichen Clients, wobei sowohl IPv4- als auch IPv6-Formate akzeptiert werden. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | Yes | |
| parameters | FunctionParameters | Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format. Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert. |
No |
chatCompletionFunctionCallOption
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der funktion, die aufgerufen werden soll. | Yes |
chatCompletionFunctionParameters
Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele und die JSON-Schemareferenz finden Sie in der Dokumentation zum Format.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionRequestMessage
Diese Komponente kann eine der folgenden Sein:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von nachrichten, die vom Benutzer gesendet wurden.
Bei o1-Modellen und neueren developer Nachrichten ersetzen Nachrichten die vorherigen system Nachrichten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Der Inhalt der Entwicklernachricht. | Yes | |
| name | string | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall developer.Mögliche Werte: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Der Inhalt der Systemnachricht. | Yes | |
| name | string | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall system.Mögliche Werte: system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Der Inhalt der Benutzernachricht. |
Yes | |
| name | string | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall user.Mögliche Werte: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Der Inhalt der Assistentennachricht. Erforderlich, es sei denn tool_calls , oder function_call es wird angegeben. |
No | |
| function_call | object | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| └─ arguments | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. | No | |
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| name | string | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| refusal | string | Die Ablehnungsnachricht des Assistenten. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall assistant.Mögliche Werte: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Der Inhalt der Toolnachricht. | Yes | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall tool.Mögliche Werte: tool |
Yes | |
| tool_call_id | string | Toolaufruf, auf den diese Nachricht reagiert. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Funktionsmeldung. | Yes | |
| name | string | Der Name der funktion, die aufgerufen werden soll. | Yes | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall function.Mögliche Werte: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestSystemMessageContentPart
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestUserMessageContentPart
Diese Komponente kann eine der folgenden Sein:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestToolMessageContentPart
Diese Komponente kann eine der folgenden Sein:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der Textinhalt. | Yes | |
| type | enum | Der Typ des Inhaltsteils. Mögliche Werte: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Base64-codierte Audiodaten. | No | |
| └─ format | enum | Das Format der codierten Audiodaten. Unterstützt derzeit "wav" und "mp3". Mögliche Werte: wav, mp3 |
No | |
| type | enum | Der Typ des Inhaltsteils. Immer input_audio.Mögliche Werte: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Gibt die Detailebene des Bilds an. Weitere Informationen finden Sie im Vision-Leitfaden. Mögliche Werte: auto, , lowhigh |
No | |
| └─ url | string | Entweder eine URL des Bilds oder die base64-codierten Bilddaten. | No | |
| type | enum | Der Typ des Inhaltsteils. Mögliche Werte: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Die vom Modell generierte Ablehnungsmeldung. | Yes | |
| type | enum | Der Typ des Inhaltsteils. Mögliche Werte: refusal |
Yes |
azureChatExtensionConfiguration
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
###Discriminator für azureChatExtensionConfiguration
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureChatExtensionType
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
| Property | Value |
|---|---|
| Description | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureSearchChatExtensionParameters
Parameter für Azure Search, wenn sie als Azure OpenAI-Chaterweiterung verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataIntegratedVectorizationSource | No | ||
| endpoint | string | Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. | No | |
| filter | string | Search filter. | No | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. |
No | |
| index_name | string | Der Name des Indexes, der in der referenzierten Azure Search-Ressource als verfügbar verwendet werden soll. | Yes | |
| max_search_queries | integer | Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. | No | |
| query_type | azureSearchQueryType | Der Typ der Azure Search-Abrufabfrage, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. | No | |
| semantic_configuration | string | Die zusätzliche semantische Konfiguration für die Abfrage. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. | No | |
| top_n_documents | integer | Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
azureSearchIndexFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | No | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| image_vector_fields | array | Die Namen von Feldern, die Bildvektordaten darstellen. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | No |
azureSearchQueryType
Der Typ der Azure Search-Abrufabfrage, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Property | Value |
|---|---|
| Description | Der Typ der Azure Search-Abrufabfrage, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Eine bestimmte Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat-Erweiterungen bei Verwendung von Azure Cosmos DB für MongoDB vCore verwendet werden sollen. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureCosmosDBChatExtensionParameters
Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat-Erweiterungen bei Verwendung von Azure Cosmos DB für MongoDB vCore verwendet werden sollen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge. | Yes | |
| container_name | string | Der Name des Azure Cosmos DB-Ressourcencontainers. | Yes | |
| database_name | string | Der Name der MongoDB-vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource. | Yes | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. |
No | |
| index_name | string | Der Name des MongoDB vCore-Indexes, der mit Azure Cosmos DB verwendet werden soll. | Yes | |
| max_search_queries | integer | Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. | No | |
| top_n_documents | integer | Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
azureCosmosDBFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Yes | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | Yes |
elasticsearchChatExtensionConfiguration
Eine bestimmte Darstellung konfigurierbarer Optionen für Elasticsearch, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parameter, die beim Konfigurieren von Elasticsearch als® Azure OpenAI-Chaterweiterung verwendet werden sollen. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
elasticsearchChatExtensionParameters
Parameter, die beim Konfigurieren von Elasticsearch als® Azure OpenAI-Chaterweiterung verwendet werden sollen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| authentication | onYourDataKeyAndKeyIdAuthenticationOptions oder onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataModelIdVectorizationSource | No | ||
| endpoint | string | Der Endpunkt von Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten ElasticsearchÂ-Ressource®. | No | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. |
No | |
| index_name | string | Der Indexname von Elasticsearch®. | Yes | |
| max_search_queries | integer | Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. | No | |
| query_type | elasticsearchQueryType | Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. | No | |
| top_n_documents | integer | Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
elasticsearchIndexFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten ElasticsearchÂ-Ressource®.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | No | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | No |
elasticsearchQueryType
Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Property | Value |
|---|---|
| Description | Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Eine bestimmte Darstellung konfigurierbarer Optionen für Mongo DB, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat-Erweiterungen bei Verwendung von Mongo DB verwendet werden sollen. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
mongoDBChatExtensionParameters
Parameter, die beim Konfigurieren von Azure OpenAI On Your Data Chat-Erweiterungen bei Verwendung von Mongo DB verwendet werden sollen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| app_name | string | Der Name der Mongo DB-Anwendung. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Benutzernamens und eines Kennworts. | Yes | |
| collection_name | string | Der Name der Mongo DB-Sammlung. | Yes | |
| database_name | string | Der Name der Mongo DB-Datenbank. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Yes | ||
| endpoint | string | Der Name des Mongo DB-Clusterendpunkts. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource. | Yes | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. |
No | |
| index_name | string | Der Name des Mongo DB-Indexes. | Yes | |
| max_search_queries | integer | Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. | No | |
| top_n_documents | integer | Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
mongoDBFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Yes | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | Yes |
pineconeChatExtensionConfiguration
Eine bestimmte Darstellung konfigurierbarer Optionen für Pinecone, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parameter zum Konfigurieren von Azure OpenAI Pinecone-Chaterweiterungen. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
pineconeChatExtensionParameters
Parameter zum Konfigurieren von Azure OpenAI Pinecone-Chaterweiterungen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn "true" angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Wenn sie nicht angegeben oder als "false" angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert. | Yes | |
| environment | string | Der Umgebungsname von Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource. | Yes | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, lautet citations der Standardwert und intent. |
No | |
| index_name | string | Der Name des Pinecone-Datenbankindex. | Yes | |
| max_search_queries | integer | Die maximale Anzahl von umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn nicht angegeben, entscheidet das System über die Anzahl der zu sendenden Abfragen. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber niedrigerer Rückruf der Antwort. | No | |
| top_n_documents | integer | Die konfigurierte oberste Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
pineconeFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Yes | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No |
onYourDataAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI Auf Ihren Daten.
Diskriminator für onYourDataAuthenticationOptions
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes |
onYourDataContextProperty
Die Kontexteigenschaft.
| Property | Value |
|---|---|
| Description | Die Kontexteigenschaft. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden.
| Property | Value |
|---|---|
| Description | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der FÜR die Authentifizierung zu verwendende API-Schlüssel. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes |
onYourDataConnectionStringAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | Die für die Authentifizierung zu verwendende Verbindungszeichenfolge. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Elasticsearch-Schlüssel- und Schlüssel-ID-Paars.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der Elasticsearch-Schlüssel, der für die Authentifizierung verwendet werden soll. | No | |
| key_id | string | Die Elasticsearch-Schlüssel-ID, die für die Authentifizierung verwendet werden soll. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines elasticsearch-codierten API-Schlüssels.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Der elasticsearch-codierte API-Schlüssel, der für die Authentifizierung verwendet werden soll. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes |
onYourDataAccessTokenAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung des Zugriffstokens.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Das Zugriffstoken, das für die Authentifizierung verwendet werden soll. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Benutzernamens und eines Kennworts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | The password. für die Authentifizierung zu verwenden. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI auf Ihren Daten unterstützt werden. | Yes | |
| username | string | Der benutzername, der für die Authentifizierung verwendet werden soll. | No |
onYourDataVectorizationSource
Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. | Yes |
onYourDataVectorizationSourceType
Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren.
| Property | Value |
|---|---|
| Description | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Einbettungen basiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | Die Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No | |
| endpoint | string | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Es sollte im Format von https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der Abfrageparameter der API-Version ist nicht zulässig. |
No | |
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. | Yes |
onYourDataDeploymentNameVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Gibt den Namen der Modellbereitstellung an, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber in Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch die Vektorsuche auch in privaten Netzwerken ermöglicht wird. | No | |
| dimensions | integer | Die Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No | |
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. | Yes |
onYourDataIntegratedVectorizationSource
Stellt den integrierten Vektorizer dar, der in der Suchressource definiert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. | Yes |
onYourDataModelIdVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einer Suchdienstmodell-ID basiert. Derzeit nur von Elasticsearch unterstützt.®
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Gibt die Modell-ID an, die für die Vektorisierung verwendet werden soll. Diese Modell-ID muss im Suchdienst definiert werden. | No | |
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. | Yes |
azureChatExtensionsMessageContext
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung ausgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Alle abgerufenen Dokumente. | No | |
| citations | array | Das Abrufergebnis der Datenquelle, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. | No | |
| intent | string | Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um an die nächste Aufgabe zu übergeben, um den Kontext zu übernehmen. | No |
citation
Zitatinformationen für eine Chatabschlussantwortnachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | Die Block-ID des Zitats. | No | |
| content | string | Der Inhalt des Zitats. | Yes | |
| filepath | string | Der Dateipfad des Zitats. | No | |
| rerank_score | number | Die Rerankbewertung des abgerufenen Dokuments. | No | |
| title | string | Der Titel des Zitats. | No | |
| url | string | Die URL des Zitats. | No |
retrievedDocument
Das abgerufene Dokument.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | Die Block-ID des Zitats. | No | |
| content | string | Der Inhalt des Zitats. | Yes | |
| data_source_index | integer | Der Index der Datenquelle. | No | |
| filepath | string | Der Dateipfad des Zitats. | No | |
| filter_reason | filterReason | Der Filtergrund des abgerufenen Dokuments. | No | |
| original_search_score | number | Die ursprüngliche Suchbewertung des abgerufenen Dokuments. | No | |
| rerank_score | number | Die Rerankbewertung des abgerufenen Dokuments. | No | |
| search_queries | array | Die Suchabfragen, die zum Abrufen des Dokuments verwendet werden. | No | |
| title | string | Der Titel des Zitats. | No | |
| url | string | Die URL des Zitats. | No |
filterReason
Der Filtergrund des abgerufenen Dokuments.
| Property | Value |
|---|---|
| Description | Der Filtergrund des abgerufenen Dokuments. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktion, die das Modell aufgerufen hat. | Yes | |
| └─ arguments | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. | No | |
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| id | string | Die ID des Toolaufrufs. | Yes | |
| type | toolCallType | Der Typ des Toolaufrufs in diesem Fall function. |
Yes |
toolCallType
Der Typ des Toolaufrufs in diesem Fall function.
| Property | Value |
|---|---|
| Description | Der Typ des Toolaufrufs in diesem Fall function. |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Nachricht. | No | |
| tool_call_id | string | Toolaufruf, auf den diese Nachricht reagiert. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Nachricht. | No | |
| name | string | Der Inhalt der Nachricht. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall function.Mögliche Werte: function |
No |
createChatCompletionResponse
Stellt eine chat-Abschlussantwort dar, die nach Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere sein, wenn n größer als 1 ist. |
Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. | Yes | |
| id | string | Ein eindeutiger Bezeichner für den Chatabschluss. | Yes | |
| model | string | Das Modell, das für den Chatabschluss verwendet wird. | Yes | |
| object | enum | Der Objekttyp, der immer chat.completionist.Mögliche Werte: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Eingabeaufforderungen in der Anforderung. In einer Streaminganforderung können Ergebnisse für unterschiedliche Eingabeaufforderungen zu unterschiedlichen Zeiten oder in unterschiedlichen Bestellungen eingehen. | No | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können. |
No | |
| usage | completionUsage | Nutzungsstatistiken für die Abschlussanforderung. | No |
createChatCompletionStreamResponse
Stellt einen gestreamten Teil einer Chat-Abschlussantwort dar, die nach Dem Modell zurückgegeben wird, basierend auf der bereitgestellten Eingabe.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehr als ein Element enthalten, wenn n größer als 1 ist. |
Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Jeder Block hat den gleichen Zeitstempel. | Yes | |
| id | string | Ein eindeutiger Bezeichner für den Chatabschluss. Jeder Block weist die gleiche ID auf. | Yes | |
| model | string | Das Modell, das den Abschluss generiert. | Yes | |
| object | enum | Der Objekttyp, der immer chat.completion.chunkist.Mögliche Werte: chat.completion.chunk |
Yes | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können. |
No |
chatCompletionStreamResponseDelta
Ein Chat-Vervollständigungsdelta, das von streamten Modellantworten generiert wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Blocknachricht. | No | |
| function_call | object | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| └─ arguments | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. | No | |
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| refusal | string | Die vom Modell generierte Ablehnungsmeldung. | No | |
| role | enum | Die Rolle des Autors dieser Nachricht. Mögliche Werte: system, , user, assistanttool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. | No | |
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| id | string | Die ID des Toolaufrufs. | No | |
| index | integer | Yes | ||
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
No |
chatCompletionStreamOptions
Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert. |
No |
chatCompletionChoiceLogProbs
Protokoll-Wahrscheinlichkeitsinformationen für die Auswahl.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Eine Liste der Nachrichteninhaltstoken mit Protokollwahrscheinlichkeitsinformationen. | Yes | |
| refusal | array | Eine Liste der Nachrichtenverweigerungstoken mit Protokollwahrscheinlichkeitsinformationen. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Eine Liste der ganzzahligen Zahlen, die die UTF-8 Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden, und ihre Bytedarstellungen müssen kombiniert werden, um die richtige Textdarstellung zu generieren. Kann sein null , wenn für das Token keine Bytedarstellung vorhanden ist. |
Yes | |
| logprob | number | Die Protokollwahrscheinlichkeit dieses Tokens. | Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Liste der höchstwahrscheinlichen Token und deren Protokollwahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen kann es weniger als die Anzahl der angeforderten top_logprobs Rückgaben geben. |
Yes |
chatCompletionResponseMessage
Eine vom Modell generierte Chatabschlussnachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells. | No | |
| └─ data | string | Base64-codierte Audiobytes, die vom Modell generiert wurden, im in der Anforderung angegebenen Format. |
No | |
| └─ expires_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Fall, dass diese Audioantwort nicht mehr auf dem Server zur Verwendung in Multi-Turn-Unterhaltungen zugänglich ist. |
No | |
| └─ id | string | Eindeutiger Bezeichner für diese Audioantwort. | No | |
| └─ transcript | string | Transkription der vom Modell generierten Audiodaten. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| context | azureChatExtensionsMessageContext | Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung ausgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist. | No | |
| function_call | chatCompletionFunctionCall | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| refusal | string | Die vom Modell generierte Ablehnungsmeldung. | Yes | |
| role | chatCompletionResponseMessageRole | Die Rolle des Autors der Antwortnachricht. | Yes | |
| tool_calls | array | Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. | No |
chatCompletionResponseMessageRole
Die Rolle des Autors der Antwortnachricht.
| Property | Value |
|---|---|
| Description | Die Rolle des Autors der Antwortnachricht. |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Diese Komponente kann eine der folgenden Sein:
chatCompletionNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Yes |
ParallelToolCalls
Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.
Für diese Komponente sind keine Eigenschaften definiert.
PredictionContent
Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Der Inhalt, der beim Generieren einer Modellantwort abgeglichen werden soll. Wenn generierte Token mit diesem Inhalt übereinstimmen, kann die gesamte Modellantwort viel schneller zurückgegeben werden. | Yes | |
| type | enum | Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.Mögliche Werte: content |
Yes |
chatCompletionMessageToolCalls
Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe.
Für diese Komponente sind keine Eigenschaften definiert.
ChatCompletionModalities
Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:
["text", "audio"]
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionFunctionCall
Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. | Yes | |
| name | string | Der Name der funktion, die aufgerufen werden soll. | Yes |
completionUsage
Nutzungsstatistiken für die Abschlussanforderung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Anzahl der Token im generierten Abschluss. | Yes | |
| completion_tokens_details | object | Aufschlüsselung der in einem Abschluss verwendeten Token. | No | |
| └─ accepted_prediction_tokens | integer | Bei Verwendung von "Vorhergesagte Ausgaben" gibt es die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. | No | |
| └─ audio_tokens | integer | Vom Modell generierte Audioeingabetoken. | No | |
| └─ reasoning_tokens | integer | Vom Modell generierte Token zur Begründung. | No | |
| └─ rejected_prediction_tokens | integer | Bei Verwendung von vorhergesagten Ausgaben wird die Anzahl der Token in der Vorhersage, die nicht im Abschluss angezeigt wurden. Wie aus Gründen versehene Token werden diese Token jedoch weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. | No | |
| prompt_tokens | integer | Anzahl der Token in der Eingabeaufforderung. | Yes | |
| prompt_tokens_details | object | Details der Eingabeaufforderungstoken. | No | |
| └─ audio_tokens | integer | Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. | No | |
| └─ cached_tokens | integer | Die Anzahl der zwischengespeicherten Eingabeaufforderungstoken. | No | |
| total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Yes |
FunctionParameters
Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format.
Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
Für diese Komponente sind keine Eigenschaften definiert.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | Yes | |
| parameters | FunctionParameters | Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
In der Anleitung finden Sie Beispiele und die JSON-Schemareferenz für Dokumentationen zum Format. Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert. |
No | |
| strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf "true" festgelegt ist, folgt das Modell dem genauen Schema, das parameters im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats: textMögliche Werte: text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats: json_objectMögliche Werte: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └─ description | string | Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert. | No | |
| └─ name | string | Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. | No | |
| └─ strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. |
No | False |
| type | enum | Der Typ des zu definierenden Antwortformats: json_schemaMögliche Werte: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Die zu übersetzende Audiodatei. | Yes | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
audioResponse
Übersetzungs- oder Transkriptionsantwort, wenn response_format json war
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Übersetzter oder transkribierter Text. | Yes |
audioVerboseResponse
Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Typ der Audioaufgabe. | No | |
| text | string | Übersetzter oder transkribierter Text. | Yes | |
| words | array | No |
audioResponseFormat
Definiert das Format der Ausgabe.
| Property | Value |
|---|---|
| Description | Definiert das Format der Ausgabe. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Das zu transkribierende Audiodateiobjekt. | Yes | |
| language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. | No | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
| timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription aufgefüllt werden sollen.
response_format muss für die Verwendung von Timestamp-Granularitäten festgelegt verbose_json werden. Entweder oder beide dieser Optionen werden unterstützt: wordoder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. |
No | ['segment'] |
audioSegment
Transkription oder Übersetzungssegment.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Durchschnittliche Protokollwahrscheinlichkeit. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Segmentende-Offset. | No | |
| id | integer | Segment identifier. | No | |
| no_speech_prob | number | Wahrscheinlichkeit von "keine Rede". | No | |
| seek | number | Offset des Segments. | No | |
| start | number | Segmentanfangsoffset. | No | |
| temperature | number | Temperature. | No | |
| text | string | Segment text. | No | |
| tokens | array | Token des Texts. | No |
audioWord
Transkription oder Übersetzungswort.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Word-Endoffset. | No | |
| start | number | Word Offset starten. | No | |
| word | string | Word | No |
createSpeechRequest
Speech request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. | Yes | |
| response_format | enum | Das Format zum Synthetisieren des Audiosignals. Mögliche Werte: mp3, , opus, aacflac, , , wavpcm |
No | |
| speed | number | Die Geschwindigkeit der synthetisierten Audiodaten. Wählen Sie einen Wert von 0.25 bis zu 4.0.
1.0 ist der Standardwert. |
No | 1.0 |
| voice | enum | Die Stimme, die für die Sprachsynthese verwendet werden soll. Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer |
Yes |
imageQuality
Die Qualität des Bilds, das generiert wird.
| Property | Value |
|---|---|
| Description | Die Qualität des Bilds, das generiert wird. |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
Das Format, in dem die generierten Bilder zurückgegeben werden.
| Property | Value |
|---|---|
| Description | Das Format, in dem die generierten Bilder zurückgegeben werden. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für Serienmodelle unterstützt.
| Property | Value |
|---|---|
| Description | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
Die Größe der generierten Bilder.
| Property | Value |
|---|---|
| Description | Die Größe der generierten Bilder. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
Die Formatvorlage der generierten Bilder. Wird nur für dall-e-3 unterstützt.
| Property | Value |
|---|---|
| Description | Die Formatvorlage der generierten Bilder. Wird nur für dall-e-3 unterstützt. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt.
| Property | Value |
|---|---|
| Description | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. | No | auto |
| n | integer | Die Anzahl der zu generierenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. | No | 1 |
| output_compression | integer | Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. | No | 100 |
| output_format | imagesOutputFormat | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. | No | png |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serienmodelle und 4000 Zeichen für dall-e-3 | Yes | |
| quality | imageQuality | Die Qualität des Bilds, das generiert wird. | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. Wird nur für dall-e-3 unterstützt. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| style | imageStyle | Die Formatvorlage der generierten Bilder. Wird nur für dall-e-3 unterstützt. | No | vivid |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | Zeichenfolge oder Matrix | Die zu bearbeitenden Bilder. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder JPG-Datei sein, die kleiner als 25 MB ist. | Yes | |
| mask | string | Ein zusätzliches Bild, dessen vollständig transparente Bereiche (z. B. Alpha null) angeben, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Muss eine gültige PNG-Datei sein, die kleiner als 4 MB ist und die gleichen Abmessungen wie das Bild aufweist. | No | |
| n | integer | Die Anzahl der zu generierenden Bilder. | No | 1 |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen. | Yes | |
| quality | imageQuality | Die Qualität des Bilds, das generiert wird. | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Der Unix-Zeitstempel, als der Vorgang erstellt wurde. | Yes | |
| data | array | Die Ergebnisdaten des Vorgangs, falls erfolgreich | Yes | |
| usage | imageGenerationsUsage | Stellt Tokenverwendungsdetails für Anforderungen zur Bildgenerierung dar. Nur für gpt-image-1-Serienmodelle. | No |
imageResult
Die Bild-URL oder das codierte Bild bei erfolgreicher Ausführung und andernfalls ein Fehler.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | Das base64-codierte Bild | No | |
| content_filter_results | dalleContentFilterResults | Informationen zu den Ergebnissen der Inhaltsfilterung. | No | |
| prompt_filter_results | dalleFilterResults | Informationen über die Inhaltsfilterkategorie (Hass, Sexuelle, Gewalt, self_harm), sofern sie erkannt wurde, sowie die Schweregrad (very_low, niedrig, mittel, hochskaliert, die die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurde oder nicht. Informationen zu Jailbreak-Inhalten und Profanität, wenn sie erkannt wurde und ob sie gefiltert wurde oder nicht. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. | No | |
| revised_prompt | string | Die Aufforderung, die zum Generieren des Bilds verwendet wurde, wenn eine Überarbeitung der Eingabeaufforderung vorhanden war. | No | |
| url | string | Die Bild-URL. | No |
imageGenerationsUsage
Stellt Tokenverwendungsdetails für Anforderungen zur Bildgenerierung dar. Nur für gpt-image-1-Serienmodelle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | No | |
| input_tokens_details | object | Eine detaillierte Aufschlüsselung der Eingabetoken. | No | |
| └─ image_tokens | integer | Die Anzahl der Bildtoken. | No | |
| └─ text_tokens | integer | Die Anzahl der Texttoken. | No | |
| output_tokens | integer | Die Anzahl der Ausgabetoken. | No | |
| total_tokens | integer | Die Gesamtzahl der verwendeten Token. | No |
line
Ein Inhaltszeilenobjekt, das aus einer angrenzenden Abfolge von Inhaltselementen besteht, z. B. Wörter und Auswahlzeichen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Ein Array von Bereichen, die erkannte Objekte und die umgebenden Feldinformationen darstellen. | Yes | |
| text | string | Yes |
span
Ein Span-Objekt, das ein erkanntes Objekt und seine umgebenden Feldinformationen darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | Die Länge der Spannweite in Zeichen, gemessen in Unicode-Codepoints. | Yes | |
| offset | integer | Der Zeichenoffset innerhalb des Texts, in dem die Spanne beginnt. Dieser Offset wird als Position des ersten Zeichens der Spanne definiert, die vom Anfang des Texts als Unicode-Codepunkte gezählt wird. | Yes | |
| polygon | array | Ein Array von Objekten, die Punkte im Polygon darstellen, das das erkannte Objekt einschließt. | Yes | |
| text | string | Der Textinhalt der Spanne, die das erkannte Objekt darstellt. | Yes |
runCompletionUsage
Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null , wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, usw queued.).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Die Anzahl der im Lauf der Ausführung verwendeten Abschlusstoken. | Yes | |
| prompt_tokens | integer | Die Anzahl der im Lauf der Ausführung verwendeten Eingabeaufforderungstoken. | Yes | |
| total_tokens | integer | Gesamtzahl der verwendeten Token (Eingabeaufforderung + Abschluss). | Yes |
runStepCompletionUsage
Verwendungsstatistiken im Zusammenhang mit dem Ausführungsschritt. Dieser Wert wird null angegeben, während der Status des Ausführungsschritts lautet in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Die Anzahl der im Lauf des Ausführungsschritts verwendeten Abschlusstoken. | Yes | |
| prompt_tokens | integer | Die Anzahl der im Lauf des Ausführungsschritts verwendeten Eingabeaufforderungstoken. | Yes | |
| total_tokens | integer | Gesamtzahl der verwendeten Token (Eingabeaufforderung + Abschluss). | Yes |
assistantsApiResponseFormatOption
Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".
Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.
Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Diese Komponente kann eine der folgenden Sein:
assistantsApiResponseFormat
Ein Objekt, das die erwartete Ausgabe des Modells beschreibt. Wenn json_object nur function der Typ tools an die Ausführung übergeben werden darf. Wenn text das Modell Text oder einen beliebigen benötigten Wert zurückgeben kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Muss eine von text oder json_object. |
No | text |
type Enum: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Stellt einen assistant Wert dar, der das Modell aufrufen und Tools verwenden kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Assistenten. | Yes | |
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen. |
Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
Yes | |
| model | string | ID des zu verwendenden Modells. | Yes | |
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
Yes | |
| object | string | Der Objekttyp, der immer assistantist. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, file_search, oder function. |
Yes | [] |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
object Enum: AssistantObjectType
| Value | Description |
|---|---|
| assistant | Der Objekttyp, der immer Assistent ist |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| model | string | Yes | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der an diesen Assistenten angefügte Vektorspeicher. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| └─ vector_stores | array | Ein Helfer zum Erstellen eines Vektorspeichers mit file_ids und an diesen Assistenten anfügen. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, retrieval, oder function. |
No | [] |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32768 Zeichen. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| model | string | No | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Überschreibt die Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Überschreibt den an diesen Assistenten angefügten Vektorspeicher. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Pro Assistent können maximal 128 Tools vorhanden sein. Tools können typen code_interpreter, retrieval, oder function. |
No | [] |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Der Typ des tools, das definiert wird: code_interpreter |
Yes |
type Enum: assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Außerkraftsetzungen für das Dateisuchtool. | No | |
| └─ max_num_results | integer | Die maximale Anzahl der Ergebnisse, die das Dateisuchtool ausgeben soll. Der Standardwert ist 20 für gpt-4*-Modelle und 5 für gpt-3.5-Turbo. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen. Beachten Sie, dass das Dateisuchtool weniger als max_num_results Ergebnisse ausgeben kann. |
No | |
| type | string | Der Typ des tools, das definiert wird: file_search |
Yes |
type Enum: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Der Typ des tools, das definiert wird: file_search |
Yes |
type Enum: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktionsdefinition. | Yes | |
| └─ description | string | Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele und die JSON-Schemareferenz finden Sie in der Dokumentation zum Format. | No | |
| type | string | Der Typ des tools, das definiert wird: function |
Yes |
type Enum: assistantToolsFunction
| Value | Description |
|---|---|
| function |
truncationObject
Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | Die Anzahl der letzten Nachrichten aus dem Thread beim Erstellen des Kontexts für die Ausführung. | No | |
| type | string | Die für den Thread zu verwendende Abkürzungsstrategie. Der Standardwert ist auto. Wenn dieser Wert auf festgelegt last_messagesist, wird der Thread auf die letzten Nachrichten im Thread abgeschnitten. Bei Festlegung auf auto, werden Nachrichten in der Mitte des Threads gelöscht, um die Kontextlänge des Modells anzupassen. max_prompt_tokens |
Yes |
type Enum: TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.
Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen.
Diese Komponente kann eine der folgenden Sein:
assistantsNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes Tool aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| type | string | Der Typ des Tools. Wenn der Typ lautet function, muss der Funktionsname festgelegt werden. |
Yes |
type Enum: AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Stellt eine Ausführung dar, die in einem Threads ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der für die Ausführung dieser Ausführung verwendet wird. | Yes | |
| cancelled_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Ausführung abgebrochen wurde. | Yes | |
| completed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Abschluss der Ausführung. | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Laufs. | Yes | |
| expires_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Ablauf der Ausführung. | Yes | |
| failed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Fehler beim Ausführen. | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| incomplete_details | object | Details dazu, warum die Ausführung unvollständig ist.
null Wenn die Ausführung nicht unvollständig ist. |
Yes | |
| └─ reason | string | Der Grund, warum der Lauf unvollständig ist. Dies zeigt an, auf welche bestimmte Tokengrenze im Lauf der Ausführung erreicht wurde. | No | |
| instructions | string | Die Anweisungen, die der Assistent für diese Ausführung verwendet hat. | Yes | |
| last_error | object | Der letzte Fehler, der dieser Ausführung zugeordnet ist.
null Wenn keine Fehler vorhanden sind. |
Yes | |
| └─ code | string | Einer von server_error oder rate_limit_exceeded. |
No | |
| └─ message | string | Eine lesbare Beschreibung des Fehlers. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Abschlusstoken, die für die Verwendung im Lauf der Ausführung angegeben wurden. |
Yes | |
| max_prompt_tokens | integer | Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet wurden. |
Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
Yes | |
| model | string | Das Modell, das der Assistent für diese Ausführung verwendet hat. | Yes | |
| object | string | Der Objekttyp, der immer thread.runist. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| required_action | object | Details zu der aktion, die erforderlich ist, um die Ausführung fortzusetzen.
null Wenn keine Aktion erforderlich ist. |
Yes | |
| └─ submit_tool_outputs | object | Details zu den für diese Ausführung benötigten Toolausgabeen, um fortzufahren. | No | |
| └─ tool_calls | array | Eine Liste der relevanten Toolaufrufe. | No | |
| └─ type | enum | Für heute ist dies immer submit_tool_outputs.Mögliche Werte: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Yes | |
| started_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Start des Laufs. | Yes | |
| status | string | Der Status der Ausführung, die entweder queued, , in_progress, , requires_action, cancelling, cancelled, , failedoder completedexpired. |
Yes | |
| temperature | number | Die für diesen Lauf verwendete Samplingtemperatur. Wenn sie nicht festgelegt ist, wird standardmäßig "1" festgelegt. | No | |
| thread_id | string | Die ID der Threads, die als Teil dieser Ausführung ausgeführt wurden. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen. |
Yes | |
| tools | array | Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat. | Yes | [] |
| top_p | number | Der kernsampling-Wert, der für diesen Lauf verwendet wird. Wenn sie nicht festgelegt ist, wird standardmäßig "1" festgelegt. | No | |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. | Yes | |
| usage | runCompletionUsage | Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null , wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, usw queued.). |
Yes |
object Enum: runObjectType
| Value | Description |
|---|---|
| thread.run | Der Run-Objekttyp, der immer thread.run ist |
status Enum: RunObjectStatus
| Value | Description |
|---|---|
| queued | Der Status der Warteschlange |
| in_progress | Der status in_progress |
| requires_action | Der status required_action |
| cancelling | Der Status "Abbrechen" |
| cancelled | Der Status "Abgebrochen" |
| failed | Fehlerstatus |
| completed | Der status abgeschlossen |
| expired | Der Status "Abgelaufen" |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. | No | |
| additional_messages | array | Fügt dem Thread zusätzliche Meldungen hinzu, bevor die Ausführung erstellt wird. | No | |
| assistant_id | string | Die ID des Assistenten, der zum Ausführen dieser Ausführung verwendet werden soll. | Yes | |
| instructions | string | Überschreiben Sie die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Abschlusstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Abschlusstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die anzahl der angegebenen Abschlusstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Eingabeaufforderungstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die Anzahl der angegebenen Eingabeaufforderungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| model | string | Die ID des Modells, das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, setzt er das dem Assistenten zugeordnete Modell außer Kraft. Wenn nicht, wird das dem Assistenten zugeordnete Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen. |
No | |
| tools | array | Überschreiben Sie die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt. |
No | |
| tool_outputs | array | Eine Liste der Tools, für die die Ausgaben übermittelt werden. | Yes |
runToolCallObject
Toolaufrufobjekte
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktionsdefinition. | Yes | |
| └─ arguments | string | Die Argumente, die das Modell erwartet, dass Sie an die Funktion übergeben werden. | No | |
| └─ name | string | Der Name der Funktion. | No | |
| id | string | Die ID des Toolaufrufs. Auf diese ID muss verwiesen werden, wenn Sie die Toolausgabe mithilfe der Übermittlungstoolausgabe zum Ausführen von Endpunktendpoint übermitteln. | Yes | |
| type | string | Der Typ des Toolaufrufs, für den die Ausgabe erforderlich ist. Für heute ist dies immer function. |
Yes |
type Enum: RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der zum Ausführen dieser Ausführung verwendet werden soll. | Yes | |
| instructions | string | Überschreiben Sie die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Abschlusstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Abschlusstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die anzahl der angegebenen Abschlusstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl von Eingabeaufforderungstoken, die im Lauf der Ausführung verwendet werden können. Die Ausführung bemüht sich am besten, nur die Anzahl der angegebenen Eingabeaufforderungstoken über mehrere Wendungen der Ausführung zu verwenden. Wenn die Ausführung die Anzahl der angegebenen Eingabeaufforderungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie incomplete_details unter. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| model | string | Die ID der Modelle, die zum Ausführen dieser Ausführung verwendet werden sollen. Wenn hier ein Wert angegeben wird, setzt er das dem Assistenten zugeordnete Modell außer Kraft. Wenn nicht, wird das dem Assistenten zugeordnete Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Handbuch "Strukturierte Ausgaben".Einstellung zum { "type": "json_object" } Aktivieren des JSON-Modus, wodurch sichergestellt wird, dass die nachricht, die das Modell generiert, gültiger JSON-Code ist.Wichtig: Bei Verwendung des JSON-Modus müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Ohne diesen Vorgang generiert das Modell möglicherweise einen unbedingten Leerzeichenstrom, bis die Generation den Tokengrenzwert erreicht, was zu einer lang andauernden und scheinbar "hängenden" Anforderung führt. Beachten Sie außerdem, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was angibt, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Wenn true, gibt einen Datenstrom von Ereignissen, die während der Ausführung als servergesendete Ereignisse auftreten, beendet, wenn die Ausführung einen Terminalstatus mit einer data: [DONE] Nachricht eingibt. |
No | |
| stream_options | chatCompletionStreamOptions | Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true. |
No | None |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann.Wenn Sie ein bestimmtes Tool angeben, z {"type": "file_search"} . B. oder {"type": "function", "function": {"name": "my_function"}} erzwingt das Modell, dieses Tool aufzurufen. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. Es kann maximal 1 Vektorspeicher an den Assistenten angefügt sein. |
No | |
| tools | array | Überschreiben Sie die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Laufzeit zu ändern. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, diese oder Temperatur zu ändern, aber nicht beide. |
No | 1 |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie dies, um das anfängliche Kontextfenster der Ausführung zu steuern. | No |
threadObject
Stellt einen Thread dar, der Nachrichten enthält.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Threads. | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
Yes | |
| object | string | Der Objekttyp, der immer threadist. |
Yes | |
| tool_resources | object | Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
Yes | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein. |
No |
object Enum: ThreadObjectType
| Value | Description |
|---|---|
| thread | Der Typ des Threadobjekts, das immer thread |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein. |
No | |
| └─ vector_stores | array | Ein Hilfsprogramm zum Erstellen eines Vektorspeichers mit file_ids und an diesen Thread anfügen. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die den Tools des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. Der Thread kann maximal 1 Vektorspeicher zugeordnet sein. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | Der Löschthreadantwortobjektstatus, der thread.deleted |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Stellt eine Nachricht in einem Threads dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Falls zutreffend, die ID des Assistenten, der diese Nachricht erstellt hat. | Yes | |
| attachments | array | Eine Liste der an die Nachricht angefügten Dateien und die Tools, denen sie hinzugefügt wurden. | Yes | |
| completed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem die Nachricht abgeschlossen wurde. | Yes | |
| content | array | Der Inhalt der Nachricht im Array von Text und/oder Bildern. | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Nachricht. | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| incomplete_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Nachricht als unvollständig markiert wurde. | Yes | |
| incomplete_details | object | In einer unvollständigen Nachricht erfahren Sie, warum die Nachricht unvollständig ist. | Yes | |
| └─ reason | string | Der Grund, warum die Nachricht unvollständig ist. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
Yes | |
| object | string | Der Objekttyp, der immer thread.messageist. |
Yes | |
| role | string | Die Entität, die die Nachricht erzeugt hat. Einer von user oder assistant. |
Yes | |
| run_id | string | Falls zutreffend, die ID der Ausführung, die der Erstellung dieser Nachricht zugeordnet ist. | Yes | |
| status | string | Der Status der Nachricht, die entweder in_progress, , incompleteoder completed. |
Yes | |
| thread_id | string | Die Threads-ID, zu der diese Nachricht gehört. | Yes |
object Enum: MessageObjectType
| Value | Description |
|---|---|
| thread.message | Der Nachrichtenobjekttyp, der thread.message |
status Enum: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
role Enum: MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Stellt ein Nachrichtendelta dar, d. h. alle geänderten Felder einer Nachricht während des Streamings.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Das Delta, das die Felder enthält, die sich in der Nachricht geändert haben. | Yes | |
| └─ content | array | Der Inhalt der Nachricht im Array von Text und/oder Bildern. | No | |
| └─ role | string | Die Entität, die die Nachricht erzeugt hat. Einer von user oder assistant. |
No | |
| id | string | Der Bezeichner der Nachricht, auf die in API-Endpunkten verwiesen werden kann. | Yes | |
| object | string | Der Objekttyp, der immer thread.message.deltaist. |
Yes |
object Enum: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Eine Liste der Dateien, die an die Nachricht angefügt sind, und die Tools, denen sie hinzugefügt werden sollen. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| role | string | Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte umfassen: - user: Gibt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wird und in den meisten Fällen verwendet werden soll, um vom Benutzer generierte Nachrichten darzustellen.- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen. |
Yes |
role Enum: CreateMessageRequestRole
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | Der Status des Antwortobjekts "Nachricht löschen" |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └─ file_id | string | Die Datei-ID des Bilds im Nachrichteninhalt. | No | |
| type | string | Immer image_file. |
Yes |
type Enum: MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | Der Dateityp des Nachrichteninhaltsbilds |
messageContentTextObject
Der Textinhalt, der Teil einer Nachricht ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └─ annotations | array | No | ||
| └─ value | string | Die Daten, aus denen der Text besteht. | No | |
| type | string | Immer text. |
Yes |
type Enum: messageContentTextObjectType
| Value | Description |
|---|---|
| text | Der Nachrichteninhaltstext-Objekttyp |
messageContentTextAnnotationsFileCitationObject
Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool "Abruf" zum Durchsuchen von Dateien verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └─ file_id | string | Die ID der spezifischen Datei, von der das Zitat stammt. | No | |
| start_index | integer | Yes | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Yes | |
| type | string | Immer file_citation. |
Yes |
type Enum: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | Der Datei-Zitatobjekttyp |
messageContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das code_interpreter Tool zum Generieren einer Datei verwendet hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └─ file_id | string | Die ID der datei, die generiert wurde. | No | |
| start_index | integer | Yes | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Yes | |
| type | string | Immer file_path. |
Yes |
type Enum: FilePathObjectType
| Value | Description |
|---|---|
| file_path | Der Dateipfad-Objekttyp |
messageDeltaContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └─ file_id | string | Die Datei-ID des Bilds im Nachrichteninhalt. | No | |
| index | integer | Der Index des Inhaltsteils in der Nachricht. | Yes | |
| type | string | Immer image_file. |
Yes |
type Enum: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
Der Textinhalt, der Teil einer Nachricht ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Der Index des Inhaltsteils in der Nachricht. | Yes | |
| text | object | No | ||
| └─ annotations | array | No | ||
| └─ value | string | Die Daten, aus denen der Text besteht. | No | |
| type | string | Immer text. |
Yes |
type Enum: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool "file_search" zum Durchsuchen von Dateien verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └─ file_id | string | Die ID der spezifischen Datei, von der das Zitat stammt. | No | |
| └─ quote | string | Das spezifische Anführungszeichen in der Datei. | No | |
| index | integer | Der Index der Anmerkung im Textinhaltsteil. | Yes | |
| start_index | integer | No | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | No | |
| type | string | Immer file_citation. |
Yes |
type Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das code_interpreter Tool zum Generieren einer Datei verwendet hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └─ file_id | string | Die ID der datei, die generiert wurde. | No | |
| index | integer | Der Index der Anmerkung im Textinhaltsteil. | Yes | |
| start_index | integer | No | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | No | |
| type | string | Immer file_path. |
Yes |
type Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Stellt einen Schritt zur Ausführung einer Ausführung dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der dem Ausführungsschritt zugeordnet ist. | Yes | |
| cancelled_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Ausführungsschritt abgebrochen wurde. | Yes | |
| completed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Ausführungsschritts. | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Ausführungsschritts. | Yes | |
| expired_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Ausführungsschritt abgelaufen ist. Ein Schritt gilt als abgelaufen, wenn die übergeordnete Ausführung abgelaufen ist. | Yes | |
| failed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Fehler des Ausführungsschritts. | Yes | |
| id | string | Der Bezeichner des Ausführungsschritts, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| last_error | object | Der letzte Fehler, der diesem Ausführungsschritt zugeordnet ist.
null Wenn keine Fehler vorhanden sind. |
Yes | |
| └─ code | string | Einer von server_error oder rate_limit_exceeded. |
No | |
| └─ message | string | Eine lesbare Beschreibung des Fehlers. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
Yes | |
| object | string | Der Objekttyp, der immer assistant.run.stepist. |
Yes | |
| run_id | string | Die ID der Ausführung, zu der dieser Ausführungsschritt gehört. | Yes | |
| status | string | Der Status der Ausführung, die entweder , , in_progress, , cancelled, oder failedcompleted.expired |
Yes | |
| step_details | runStepDetailsMessageCreationObject oder runStepDetailsToolCallsObject | Die Details des Ausführungsschritts. | Yes | |
| thread_id | string | Die ID der ausgeführten Threads. | Yes | |
| type | string | Der Typ des Ausführungsschritts, der entweder message_creation oder tool_calls. |
Yes |
object Enum: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | Der Objekttyp, der immer assistant.run.step |
type Enum: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | Der message_creation Ausführungsschritt |
| tool_calls | Der tool_calls Ausführen-Schritt |
status Enum: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | Der In_progress Ausführungsstatus |
| cancelled | Der Status der abgebrochenen Ausführung |
| failed | Der Status der abgebrochenen Ausführung |
| completed | Der Status der abgebrochenen Ausführung |
| expired | Der Status der abgebrochenen Ausführung |
runStepDeltaObject
Stellt ein Ausführungsschrittdelta dar, d. h. alle geänderten Felder in einem Ausführungsschritt während des Streamings.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Das Delta mit den Feldern, die sich im Ausführungsschritt geändert haben. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject oder runStepDeltaStepDetailsToolCallsObject | Die Details des Ausführungsschritts. | No | |
| id | string | Der Bezeichner des Ausführungsschritts, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| object | string | Der Objekttyp, der immer thread.run.step.deltaist. |
Yes |
object Enum: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Details zur Erstellung der Nachricht durch den Ausführungsschritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └─ message_id | string | Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. | No | |
| type | string | Immer message_creation. |
Yes |
type Enum: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Details zur Erstellung der Nachricht durch den Ausführungsschritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └─ message_id | string | Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. | No | |
| type | string | Immer message_creation. |
Yes |
type Enum: RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Details des Toolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Ein Array von Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Arten von Tools zugeordnet werden: code_interpreter, retrieval oder function. |
Yes | |
| type | string | Immer tool_calls. |
Yes |
type Enum: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Details des Toolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Ein Array von Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Arten von Tools zugeordnet werden: code_interpreter, file_search oder function. |
No | |
| type | string | Immer tool_calls. |
Yes |
type Enum: RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Details des Codedolmetscher-Tools, an dem der Ausführungsschritt beteiligt war.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Die Definition des Codedolmetschertools. | Yes | |
| └─ input | string | Die Eingabe für den Codedolmetscher-Toolaufruf. | No | |
| └─ outputs | array | Die Ausgaben aus dem Code-Interpreter-Toolaufruf. Der Codedolmetscher kann ein oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bildern (image). Jede dieser Objekte wird durch einen anderen Objekttyp dargestellt. |
No | |
| id | string | Die ID des Toolaufrufs. | Yes | |
| type | string | Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein code_interpreter . |
Yes |
type Enum: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Details des Codedolmetscher-Tools, an dem der Ausführungsschritt beteiligt war.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Die Definition des Codedolmetschertools. | No | |
| └─ input | string | Die Eingabe für den Codedolmetscher-Toolaufruf. | No | |
| └─ outputs | array | Die Ausgaben aus dem Code-Interpreter-Toolaufruf. Der Codedolmetscher kann ein oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bildern (image). Jede dieser Objekte wird durch einen anderen Objekttyp dargestellt. |
No | |
| id | string | Die ID des Toolaufrufs. | No | |
| index | integer | Der Index des Toolaufrufs im Tool ruft Array auf. | Yes | |
| type | string | Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein code_interpreter . |
Yes |
type Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Textausgabe des Codedolmetscher-Toolaufrufs als Teil eines Ausführungsschritts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Die Textausgabe aus dem Codedolmetscher-Toolaufruf. | Yes | |
| type | string | Immer logs. |
Yes |
type Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Textausgabe des Codedolmetscher-Toolaufrufs als Teil eines Ausführungsschritts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Der Index der Ausgabe im Ausgabearray. | Yes | |
| logs | string | Die Textausgabe aus dem Codedolmetscher-Toolaufruf. | No | |
| type | string | Immer logs. |
Yes |
type Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └─ file_id | string | Die Datei-ID des Bilds. | No | |
| type | string | Immer image. |
Yes |
type Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └─ file_id | string | Die Datei-ID des Bilds. | No | |
| index | integer | Der Index der Ausgabe im Ausgabearray. | Yes | |
| type | string | Immer image. |
Yes |
type Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Vorerst wird dies immer ein leeres Objekt sein. | Yes | |
| └─ results | array | Die Ergebnisse der Dateisuche. | No | |
| id | string | Die ID des Toolaufrufobjekts. | Yes | |
| type | string | Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein file_search . |
Yes |
type Enum: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Eine Ergebnisinstanz der Dateisuche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der Inhalt des gefundenen Ergebnisses. Der Inhalt wird nur einbezogen, wenn er über den Include-Abfrageparameter angefordert wird. | No | |
| file_id | string | Die ID der Datei, in der das Ergebnis gefunden wurde. | Yes | |
| file_name | string | Der Name der Datei, in der das Ergebnis gefunden wurde. | Yes | |
| score | number | Die Ergebnisbewertung. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Vorerst wird dies immer ein leeres Objekt sein. | Yes | |
| id | string | Die ID des Toolaufrufobjekts. | No | |
| index | integer | Der Index des Toolaufrufs im Tool ruft Array auf. | Yes | |
| type | string | Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein retrieval . |
Yes |
type Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Definition der funktion, die aufgerufen wurde. | Yes | |
| └─ arguments | string | Die Argumente, die an die Funktion übergeben werden. | No | |
| └─ name | string | Der Name der Funktion. | No | |
| └─ output | string | Die Ausgabe der Funktion. Dies geschieht null , wenn die Ausgaben noch nicht übermittelt wurden. |
No | |
| id | string | Die ID des Toolaufrufobjekts. | Yes | |
| type | string | Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein function . |
Yes |
type Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Definition der funktion, die aufgerufen wurde. | No | |
| └─ arguments | string | Die Argumente, die an die Funktion übergeben werden. | No | |
| └─ name | string | Der Name der Funktion. | No | |
| └─ output | string | Die Ausgabe der Funktion. Dies geschieht null , wenn die Ausgaben noch nicht übermittelt wurden. |
No | |
| id | string | Die ID des Toolaufrufobjekts. | No | |
| index | integer | Der Index des Toolaufrufs im Tool ruft Array auf. | Yes | |
| type | string | Der Typ des Toolaufrufs. Dies wird immer für diese Art von Toolaufruf sein function . |
Yes |
type Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
Die Ablaufrichtlinie für einen Vektorspeicher.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at. |
Yes | |
| days | integer | Die Anzahl der Tage nach ablaufen der Verankerungszeit des Vektorspeichers. | Yes |
anchor Enum: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | Der Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. |
vectorStoreObject
Ein Vektorspeicher ist eine Sammlung von verarbeiteten Dateien, die file_search vom Tool verwendet werden können.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Vektorspeichers. | Yes | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| expires_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Ablauf des Vektorspeichers. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Die Anzahl der Dateien, die abgebrochen wurden. | No | |
| └─ completed | integer | Die Anzahl der Dateien, die erfolgreich verarbeitet wurden. | No | |
| └─ failed | integer | Die Anzahl der Dateien, die nicht verarbeitet werden konnten. | No | |
| └─ in_progress | integer | Die Anzahl der Dateien, die derzeit verarbeitet werden. | No | |
| └─ total | integer | Die Gesamtanzahl der Dateien. | No | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| last_active_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
Yes | |
| name | string | Der Name des Vektorspeichers. | Yes | |
| object | enum | Der Objekttyp, der immer vector_storeist.Mögliche Werte: vector_store |
Yes | |
| status | string | Der Status des Vektorspeichers, der entweder expired, , in_progressoder completed. Der Status gibt completed an, dass der Vektorspeicher einsatzbereit ist. |
Yes | |
| usage_bytes | integer | Die Gesamtzahl der Bytes, die von den Dateien im Vektorspeicher verwendet werden. | Yes |
status Enum: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. Gilt nur, wenn file_ids es nicht leer ist. |
No | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| file_ids | array | Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel können maximal 64 Zeichen lang sein, und die Werte können maximal 512 Zeichen lang sein. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | Der Vektorspeicher-Antwortobjektstatus |
vectorStoreFileObject
Eine Liste von Dateien, die an einen Vektorspeicher angefügt sind.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. Gilt nur, wenn file_ids es nicht leer ist. |
No | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Vektorspeicherdatei. | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| last_error | object | Der letzte Fehler, der dieser Vektorspeicherdatei zugeordnet ist.
null Wenn keine Fehler vorhanden sind. |
Yes | |
| └─ code | string | Einer von server_error oder oder invalid_fileunsupported_file . |
No | |
| └─ message | string | Eine lesbare Beschreibung des Fehlers. | No | |
| object | string | Der Objekttyp, der immer vector_store.fileist. |
Yes | |
| status | string | Der Status der Vektorspeicherdatei, die entweder in_progress, , completedcancelledoder failed. Der Status completed gibt an, dass die Vektorspeicherdatei einsatzbereit ist. |
Yes | |
| usage_bytes | integer | Die Gesamtauslastung des Vektorspeichers in Byte. Beachten Sie, dass sich dies möglicherweise von der ursprünglichen Dateigröße unterscheidet. | Yes | |
| vector_store_id | string | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Yes |
object Enum: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
status Enum: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Dies wird zurückgegeben, wenn die Blockierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei indiziert wurde, bevor das chunking_strategy Konzept in der API eingeführt wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Immer other. |
Yes |
type Enum: OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | Immer static. |
Yes |
type Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Die Anzahl der Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.Beachten Sie, dass die Überlappung nicht die Hälfte von max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Minimalwert ist 100 und der Maximalwert ist 4096. |
Yes |
autoChunkingStrategyRequestParam
Die Standardstrategie. Diese Strategie verwendet derzeit eine max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Immer auto.Mögliche Werte: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | Immer static.Mögliche Werte: static |
Yes |
chunkingStrategyRequestParam
Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet.
Diese Komponente kann eine der folgenden Sein:
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. |
No | |
| file_id | string | Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Ein Batch von Dateien, die an einen Vektorspeicher angefügt sind.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für die Erstellung des Batches für Vektorspeicherdateien. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Die Anzahl der Dateien, die abgebrochen wurden. | No | |
| └─ completed | integer | Die Anzahl der Dateien, die verarbeitet wurden. | No | |
| └─ failed | integer | Die Anzahl der Dateien, die nicht verarbeitet werden konnten. | No | |
| └─ in_progress | integer | Die Anzahl der Dateien, die derzeit verarbeitet werden. | No | |
| └─ total | integer | Die Gesamtanzahl der Dateien. | No | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| object | string | Der Objekttyp, der immer vector_store.file_batchist. |
Yes | |
| status | string | Der Status des Vektorspeicherdateien-Batches, der entweder in_progress, , oder completedcancelledfailed. |
Yes | |
| vector_store_id | string | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Yes |
object Enum: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
status Enum: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. |
No | |
| file_ids | array | Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
Yes |
assistantStreamEvent
Stellt ein Ereignis dar, das beim Streamen einer Ausführung ausgegeben wird.
Jedes Ereignis in einem Datenstrom mit server gesendeten Ereignissen weist eine event Eigenschaft auf data :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Wir geben Ereignisse aus, wenn ein neues Objekt erstellt, zu einem neuen Zustand wechselt oder in Teilen (Deltas) gestreamt wird. Beispielsweise wird ausgegeben thread.run.created , wenn eine neue Ausführung erstellt wird, thread.run.completed wenn eine Ausführung abgeschlossen ist usw. Wenn ein Assistent eine Nachricht während einer Ausführung erstellt, wird ein thread.message.created eventEreignis, viele thread.message.in_progressthread.message.delta Ereignisse und schließlich ein thread.message.completed Ereignis ausgegeben.
Wir können im Laufe der Zeit zusätzliche Ereignisse hinzufügen, daher empfehlen wir, unbekannte Ereignisse ordnungsgemäß in Ihrem Code zu behandeln.
Diese Komponente kann eine der folgenden Sein:
threadStreamEvent
Diese Komponente kann eine der folgenden Sein:
thread.created
Tritt auf, wenn ein neuer Thread erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Stellt einen Thread dar, der Nachrichten enthält. | Yes | |
| event | string | Yes |
Data: threadObject
Ereignisum: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | Das erstellte Threadereignis |
runStreamEvent
Diese Komponente kann eine der folgenden Sein:
thread.run.created
Tritt auf, wenn eine neue Ausführung erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Enumeration des Ereignisses: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Tritt auf, wenn eine Ausführung zu einem queued Status wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignisum: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Tritt auf, wenn eine Ausführung zu einem in_progress Status wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Enumeration des Ereignisses: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Tritt auf, wenn eine Ausführung zu einem requires_action Status wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enumeration: RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Tritt auf, wenn eine Ausführung abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Enumeration des Ereignisses: RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Tritt auf, wenn eine Ausführung fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Enumeration des Ereignisses: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Tritt auf, wenn eine Ausführung zu einem cancelling Status wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enumeration: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Tritt auf, wenn eine Ausführung abgebrochen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enumeration: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Tritt auf, wenn eine Ausführung abläuft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt eine Ausführung dar, die in einem Threads ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Enumeration des Ereignisses: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Diese Komponente kann eine der folgenden Sein:
thread.run.step.created
Tritt auf, wenn ein Ausführungsschritt erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt zur Ausführung einer Ausführung dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumeration des Ereignisses: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Tritt auf, wenn ein Ausführungsschritt in einen in_progress Zustand verschoben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt zur Ausführung einer Ausführung dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Ereignis-Enumeration: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Tritt auf, wenn Teile eines Ausführungsschritts gestreamt werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Stellt ein Ausführungsschrittdelta dar, d. h. alle geänderten Felder in einem Ausführungsschritt während des Streamings. |
Yes | |
| event | string | Yes |
Data: runStepDeltaObject
Ereignis-Enumeration: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Tritt auf, wenn ein Ausführungsschritt abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt zur Ausführung einer Ausführung dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumeration des Ereignisses: RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Tritt auf, wenn ein Ausführungsschritt fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt zur Ausführung einer Ausführung dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumeration des Ereignisses: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Tritt auf, wenn ein Ausführungsschritt abgebrochen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt zur Ausführung einer Ausführung dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Ereignis-Enumeration: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Tritt auf, wenn ein Ausführungsschritt abläuft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt zur Ausführung einer Ausführung dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enumeration des Ereignisses: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Diese Komponente kann eine der folgenden Sein:
thread.message.created
Tritt auf, wenn eine Nachricht erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Stellt eine Nachricht in einem Threads dar. | Yes | |
| event | string | Yes |
Data: messageObject
Ereignis-Enumeration: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Tritt auf, wenn eine Nachricht in einen in_progress Zustand verschoben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Stellt eine Nachricht in einem Threads dar. | Yes | |
| event | string | Yes |
Data: messageObject
Enumeration des Ereignisses: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Tritt auf, wenn Teile einer Nachricht gestreamt werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Stellt ein Nachrichtendelta dar, d. h. alle geänderten Felder einer Nachricht während des Streamings. |
Yes | |
| event | string | Yes |
Data: messageDeltaObject
Ereignis-Enumeration: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Tritt auf, wenn eine Nachricht abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Stellt eine Nachricht in einem Threads dar. | Yes | |
| event | string | Yes |
Data: messageObject
Enumeration des Ereignisses: MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Tritt auf, wenn eine Nachricht endet, bevor sie abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Stellt eine Nachricht in einem Threads dar. | Yes | |
| event | string | Yes |
Data: messageObject
Enumeration des Ereignisses: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Diese Komponente kann eine der folgenden Sein:
Click
Eine Klickaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Gibt an, welche Maustaste während des Klickens gedrückt wurde. Einer von left, right, wheel, , backoder forward.Mögliche Werte: left, , rightwheel, , backforward |
Yes | |
| type | enum | Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer auf .clickMögliche Werte: click |
Yes | |
| x | integer | Die x-Koordinate, an der der Klick aufgetreten ist. |
Yes | |
| y | integer | Die y-Koordinate, an der der Klick aufgetreten ist. |
Yes |
CodeInterpreterFileOutput
Die Ausgabe eines Codedolmetscher-Toolaufrufs, bei dem es sich um eine Datei handelt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | Der Typ der Codedolmetscherdateiausgabe. Immer files.Mögliche Werte: files |
Yes |
CodeInterpreterTextOutput
Die Ausgabe eines Codedolmetschertoolaufrufs, der Text ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Die Protokolle des Codedolmetscher-Toolaufrufs. |
Yes | |
| type | enum | Der Typ der Textausgabe des Codedolmetschers. Immer logs.Mögliche Werte: logs |
Yes |
CodeInterpreterTool
Ein Tool, das Code ausführt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Die IDs der Dateien, auf denen der Code ausgeführt werden soll. |
Yes | |
| type | enum | Der Typ des Codedolmetschertools. Immer code_interpreter.Mögliche Werte: code_interpreter |
Yes |
CodeInterpreterToolCall
Ein Toolaufruf zum Ausführen von Code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der auszuführende Code. |
Yes | |
| id | string | Die eindeutige ID des Codedolmetscher-Toolaufrufs. |
Yes | |
| results | array | Die Ergebnisse des Codedolmetscher-Toolaufrufs. |
Yes | |
| status | enum | Der Status des Codedolmetscher-Toolaufrufs. Mögliche Werte: in_progress, , interpretingcompleted |
Yes | |
| type | enum | Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.Mögliche Werte: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Diese Komponente kann eine der folgenden Sein:
ComparisonFilter
Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der Schlüssel, der mit dem Wert verglichen werden soll. | Yes | |
| type | enum | Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte- eq: entspricht- ne: ungleich- gt: größer als- gte: größer oder gleich- lt: kleiner als- lte: kleiner oder gleichMögliche Werte: eq, , ne, gtgte, , , ltlte |
Yes | |
| value | Zeichenfolge oder Zahl oder boolescher Wert | Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. | Yes |
CompoundFilter
Kombinieren mehrerer Filter mit and oder or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. |
Yes | |
| type | enum | Typ des Vorgangs: and oder or.Mögliche Werte: and, or |
Yes |
ComputerAction
Diese Komponente kann eine der folgenden Sein:
ComputerScreenshotImage
Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Der Bezeichner einer hochgeladenen Datei, die den Screenshot enthält. | No | |
| image_url | string | Die URL des Screenshotbilds. | No | |
| type | enum | Gibt den Ereignistyp an. Für einen Computerfoto ist diese Eigenschaft immer auf computer_screenshot.Mögliche Werte: computer_screenshot |
Yes |
ComputerTool
Ein Tool, das einen virtuellen Computer steuert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | Die Höhe der Computeranzeige. |
Yes | |
| display_width | number | Die Breite der Computeranzeige. |
Yes | |
| environment | enum | Der Typ der zu steuernden Computerumgebung. Mögliche Werte: mac, , windows, ubuntubrowser |
Yes | |
| type | enum | Der Typ des Computerverwendungstools. Immer computer_use_preview.Mögliche Werte: computer-use-preview |
Yes |
ComputerToolCall
Ein Toolaufruf an einen Computer, der das Tool verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit Ausgabe verwendet wird. |
Yes | |
| id | string | Die eindeutige ID des Computeraufrufs. | Yes | |
| pending_safety_checks | array | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Der Typ des Computeraufrufs. Immer computer_call.Mögliche Werte: computer_call |
Yes |
ComputerToolCallOutput
Die Ausgabe eines Computertoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. |
No | |
| call_id | string | Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. |
Yes | |
| id | string | Die ID der Ausgabe des Computertools. |
No | |
| output | ComputerScreenshotImage | Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Eingabeelemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Computertoolaufrufausgabe. Immer computer_call_output.Mögliche Werte: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. |
No | |
| call_id | string | Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. |
Yes | |
| id | string | Die eindeutige ID der Ausgabe des Computeraufruftools. |
Yes | |
| output | ComputerScreenshotImage | Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Eingabeelemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Computertoolaufrufausgabe. Immer computer_call_output.Mögliche Werte: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Eine ausstehende Sicherheitsüberprüfung für den Computeranruf.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Typ der ausstehenden Sicherheitsüberprüfung. | Yes | |
| id | string | Die ID der ausstehenden Sicherheitsüberprüfung. | Yes | |
| message | string | Details zur ausstehenden Sicherheitsüberprüfung. | Yes |
Content
Mehr modaler Eingabe- und Ausgabeinhalt.
Diese Komponente kann eine der folgenden Sein:
Coordinate
Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. |
Yes | |
| y | integer | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| model | string | Modell, das zum Generieren der Antworten verwendet wird. | No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref": "#/components/schemas/includable/description"} | No | |
| input | Zeichenfolge oder Matrix | Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. | Yes | |
| instructions | string | Fügt eine Systemnachricht (oder entwickler) als erstes Element im Kontext des Modells ein. Bei Verwendung mit previous_response_iddieser Antwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. |
No | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. |
No | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Begründungsmodelle. | No | |
| store | boolean | Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. |
No | True |
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. | No | False |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Learn more: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Durch das Konfigurieren werden { "type": "json_schema" } strukturierte Ausgaben aktiviert, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools |
No | |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Größe des Kontextfensters ab. Antwort auf das Kontextfenster durch Ablegen von Eingabeelementen in der Mitte der Unterhaltung. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
DoubleClick
Eine Doppelklickaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf .double_clickMögliche Werte: double_click |
Yes | |
| x | integer | Die x-Koordinate, an der der Doppelklick aufgetreten ist. |
Yes | |
| y | integer | Die y-Koordinate, an der der Doppelklick aufgetreten ist. |
Yes |
Drag
Eine Ziehaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array von Objekten angezeigt, z. B.[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Ziehaktion ist diese Eigenschaft immer auf .dragMögliche Werte: drag |
Yes |
EasyInputMessage
Eine Meldungseingabe für das Modell mit einer Rolle, die die folgende Hierarchie angibt. Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string oder InputMessageContentList | Text-, Bild- oder Audioeingabe für das Modell, mit dem eine Antwort generiert wird. Kann auch frühere Assistentenantworten enthalten. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder developer.Mögliche Werte: user, , assistant, systemdeveloper |
Yes | |
| type | enum | Der Typ der Nachrichteneingabe. Immer message.Mögliche Werte: message |
No |
FileCitation
Ein Zitat für eine Datei.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die ID der Datei. |
Yes | |
| index | integer | Der Index der Datei in der Liste der Dateien. |
Yes | |
| type | enum | Der Typ des Dateizitats. Immer file_citation.Mögliche Werte: file_citation |
Yes |
FilePath
Ein Pfad zu einer Datei.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die ID der Datei. |
Yes | |
| index | integer | Der Index der Datei in der Liste der Dateien. |
Yes | |
| type | enum | Der Typ des Dateipfads. Immer file_path.Mögliche Werte: file_path |
Yes |
FileSearchRanker
Der Rangfolger, der für die Dateisuche verwendet werden soll. Wenn nicht angegeben, wird der auto Rangierer verwendet.
| Property | Value |
|---|---|
| Description | Der Rangfolger, der für die Dateisuche verwendet werden soll. Wenn nicht angegeben, wird der auto Rangierer verwendet. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet werden soll. | No | |
| max_num_results | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen. |
No | |
| ranking_options | object | Bewertungsoptionen für die Suche. | No | |
| └─ ranker | enum | Der Rangfolger, der für die Dateisuche verwendet werden soll. Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. |
No | 0 |
| type | enum | Der Typ des Dateisuchtools. Immer file_search.Mögliche Werte: file_search |
Yes | |
| vector_store_ids | array | Die IDs der zu durchsuchenden Vektorspeicher. |
Yes |
FileSearchToolCall
Die Ergebnisse eines Dateisuchtoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Die eindeutige ID des Aufrufs des Dateisuchtools. |
Yes | |
| queries | array | Die Zum Suchen nach Dateien verwendeten Abfragen. |
Yes | |
| results | array | Die Ergebnisse des Aufrufs des Dateisuchtools. |
No | |
| status | enum | Der Status des Dateisuchtoolaufrufs. Einer von in_progress, , searchingoder incompletefailed ,Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed |
Yes | |
| type | enum | Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.Mögliche Werte: file_search_call |
Yes |
FunctionTool
Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll. |
No | |
| name | string | Der Name der funktion, die aufgerufen werden soll. |
Yes | |
| parameters | object | Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt. |
Yes | |
| strict | boolean | Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standard true. |
Yes | |
| type | enum | Der Typ des Funktionstools. Immer function.Mögliche Werte: function |
Yes |
FunctionToolCall
Ein Toolaufruf zum Ausführen einer Funktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. |
Yes | |
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. |
Yes | |
| id | string | Die eindeutige ID des Funktionstoolaufrufs. |
Yes | |
| name | string | Der Name der auszuführenden Funktion. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ des Funktionstoolaufrufs. Immer function_call.Mögliche Werte: function_call |
Yes |
FunctionToolCallOutput
Die Ausgabe eines Funktionstoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. |
Yes | |
| id | string | Die eindeutige ID der Ausgabe des Funktionstoolaufrufs. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. |
No | |
| output | string | Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Funktionstoolaufrufausgabe. Immer function_call_output.Mögliche Werte: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. |
Yes | |
| id | string | Die eindeutige ID der Ausgabe des Funktionsaufruftools. |
Yes | |
| output | string | Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Funktionstoolaufrufausgabe. Immer function_call_output.Mögliche Werte: function_call_output |
Yes |
includable
Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
-
file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein. -
message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein. -
computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.
| Property | Value |
|---|---|
| Description | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: - file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.- computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein. |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Eine Audioeingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Base64-codierte Audiodaten. |
Yes | |
| format | enum | Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.Mögliche Werte: mp3, wav |
Yes | |
| type | enum | Der Typ des Eingabeelements. Immer input_audio.Mögliche Werte: input_audio |
Yes |
InputContent
Diese Komponente kann eine der folgenden Sein:
InputFile
Eine Dateieingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Der Inhalt der Datei, die an das Modell gesendet werden soll. |
No | |
| file_id | string | Die ID der Datei, die an das Modell gesendet werden soll. |
No | |
| filename | string | Der Name der Datei, die an das Modell gesendet werden soll. |
No | |
| type | enum | Der Typ des Eingabeelements. Immer input_file.Mögliche Werte: input_file |
Yes |
InputImage
Eine Bildeingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer von high, low, oder auto. Standardwert ist .autoMögliche Werte: high, , lowauto |
Yes | |
| file_id | string | Die ID der Datei, die an das Modell gesendet werden soll. |
No | |
| image_url | string | Die URL des Bilds, das an das Modell gesendet werden soll. Ein vollqualifiziertes URL- oder base64-codiertes Bild in einer Daten-URL. |
No | |
| type | enum | Der Typ des Eingabeelements. Immer input_image.Mögliche Werte: input_image |
Yes |
InputItem
Diese Komponente kann eine der folgenden Sein:
InputMessage
Eine Meldungseingabe für das Modell mit einer Rolle, die die folgende Hierarchie angibt. Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält types. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, system, oder developer.Mögliche Werte: user, , systemdeveloper |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Nachrichteneingabe. Immer auf message.Mögliche Werte: message |
No |
InputMessageContentList
Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhaltstypen enthält.
Für diese Komponente sind keine Eigenschaften definiert.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält types. |
Yes | |
| id | string | Die eindeutige ID der Nachrichteneingabe. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, system, oder developer.Mögliche Werte: user, , systemdeveloper |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Nachrichteneingabe. Immer auf message.Mögliche Werte: message |
No |
InputText
Eine Texteingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Die Texteingabe für das Modell. |
Yes | |
| type | enum | Der Typ des Eingabeelements. Immer input_text.Mögliche Werte: input_text |
Yes |
Item
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Diese Komponente kann eine der folgenden Sein:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Die ID des zu referenzierenden Elements. |
Yes | |
| type | enum | Der Typ des zu referenzierenden Elements. Immer item_reference.Mögliche Werte: item_reference |
Yes |
ItemResource
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Diese Komponente kann eine der folgenden Sein:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Eine Sammlung von Keypressen, die das Modell durchführen möchte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | Die Kombination von Tasten, die das Modell anfordert, zu drücken. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen. |
Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress.Mögliche Werte: keypress |
Yes |
Metadata
Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Für diese Komponente sind keine Eigenschaften definiert.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| model | string | Modell, das zum Generieren der Antworten verwendet wird. | No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
Move
Eine Mausbewegungsaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Bei einer Verschiebungsaktion ist diese Eigenschaft immer auf .moveMögliche Werte: move |
Yes | |
| x | integer | Die x-Koordinate, zu der verschoben werden soll. |
Yes | |
| y | integer | Die y-Koordinate, zu der verschoben werden soll. |
Yes |
OutputAudio
Eine Audioausgabe aus dem Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Base64-codierte Audiodaten aus dem Modell. |
Yes | |
| transcript | string | Die Transkription der Audiodaten aus dem Modell. |
Yes | |
| type | enum | Der Typ des Ausgabeaudios. Immer output_audio.Mögliche Werte: output_audio |
Yes |
OutputContent
Diese Komponente kann eine der folgenden Sein:
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. |
Yes | |
| call_id | string | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit Ausgabe verwendet wird. |
Yes | |
| content | array | Textinhalt wird mit Gründen versehen. |
Yes | |
| id | string | Der eindeutige Bezeichner des Grundinhalts. |
Yes | |
| name | string | Der Name der auszuführenden Funktion. |
Yes | |
| pending_safety_checks | array | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. |
Yes | |
| queries | array | Die Zum Suchen nach Dateien verwendeten Abfragen. |
Yes | |
| results | array | Die Ergebnisse des Aufrufs des Dateisuchtools. |
No | |
| role | enum | Die Rolle der Ausgabemeldung. Immer assistant.Mögliche Werte: assistant |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Der Typ des Objekts. Immer reasoning.Mögliche Werte: reasoning |
Yes |
OutputMessage
Eine Ausgabemeldung aus dem Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der Inhalt der Ausgabenachricht. |
Yes | |
| id | string | Die eindeutige ID der Ausgabenachricht. |
Yes | |
| role | enum | Die Rolle der Ausgabemeldung. Immer assistant.Mögliche Werte: assistant |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Eingabeelemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Der Typ der Ausgabemeldung. Immer message.Mögliche Werte: message |
Yes |
OutputText
Eine Textausgabe aus dem Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Die Anmerkungen der Textausgabe. |
Yes | |
| text | string | Die Textausgabe aus dem Modell. |
Yes | |
| type | enum | Der Typ des Ausgabetexts. Immer output_text.Mögliche Werte: output_text |
Yes |
RealtimeSessionCreateRequest
Konfiguration des Echtzeitsitzungsobjekts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Samplerate, einem einzelnen Kanal (Mono) und einer Kleinen-End-Byte-Reihenfolge sein.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration für die Rauschunterdrückung von Eingaben. Dies kann so festgelegt werden, dass null sie deaktiviert wird.Die Rauschreduzierung filtert audio, die dem Eingabeaudiopuffer hinzugefügt wurden, bevor sie an VAD und das Modell gesendet wird. Durch die Filterung des Audiosignals können VAD verbessert und die Erkennungsgenauigkeit verbessert werden (falsch positive Ergebnisse reduziert) und die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudio verbessert wird. |
No | |
| └─ type | enum | Art der Rauschreduzierung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription, standardmäßig deaktiviert und kann so festgelegt werden, dass null das Deaktivieren einmal aktiviert ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Die Transkription wird asynchron über den Transkriptionsendpunkt ausgeführt und sollte als Anleitung für Eingabeaudioinhalte behandelt werden, anstatt genau das, was das Modell gehört hat. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst. |
No | |
| └─ language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ model | string | Das Modell, das für die Transkription verwendet werden soll, sind gpt-4o-transcribeaktuelle Optionen , , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15und whisper-1. |
No | |
| └─ prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
No | |
| instructions | string | Die Standardmäßigen Systemanweisungen (d. h. Systemmeldung) werden modellierten Aufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und über Audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Die Anweisungen sind nicht garantiert, auf das Modell zu folgen, aber sie bieten Anleitungen für das Modell für das gewünschte Verhalten. Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist. |
No | |
| max_response_output_tokens | ganze Zahl oder Zeichenfolge | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Stellen Sie eine ganze Zahl zwischen 1 und 4096 bereit, inf um Ausgabetoken oder für die maximal verfügbaren Token für ein bestimmtes Modell einzuschränken. Standardwert ist .inf |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| model | string | Der Name der Bereitstellung, die für diese Sitzung verwendet wird. |
No | |
| output_audio_format | enum | Das Format der Ausgabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.Für pcm16, Ausgabeaudio wird mit einer Rate von 24 kHz abgesampt.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Für Audiomodelle wird eine Temperatur von 0,8 dringend empfohlen, um eine optimale Leistung zu erzielen. |
No | 0.8 |
| tool_choice | string | Wie das Modell Tools auswäht. Optionen sind auto, none, requiredoder geben Sie eine Funktion an. |
No | auto |
| tools | array | Tools (Funktionen), die für das Modell verfügbar sind. | No | |
| turn_detection | object | Konfiguration für turn detection, ether Server VAD oder Semantic VAD. Dies kann auf null das Deaktivieren festgelegt werden, in diesem Fall muss der Client die Modellantwort manuell auslösen.Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. Semantischer VAD ist fortgeschrittener und verwendet ein Turn Detection-Modell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer gesprochen hat, und legt dann dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit fest. Wenn z. B. die Audiospur des Benutzers deaktiviert uhhmist, bewertet das Modell eine niedrige Wahrscheinlichkeit für das Ende der Drehung und wartet länger, bis der Benutzer weiter spricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └─ create_response | boolean | Gibt an, ob beim Auftreten eines VAD-Stoppereignisses automatisch eine Antwort generiert werden soll. |
No | True |
| └─ eagerness | enum | Wird nur für semantic_vad den Modus verwendet. Die Eifer des Modells, zu reagieren.
low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren.
auto ist der Standardwert und entspricht mediumdem .Mögliche Werte: low, , medium, highauto |
No | |
| └─ interrupt_response | boolean | Gibt an, ob beim Auftreten eines VAD-Startereignisses automatisch eine fortlaufende Antwort mit der Ausgabe der Standardunterhaltung (d. h. conversation von auto) unterbrochen werden soll. |
No | True |
| └─ prefix_padding_ms | integer | Wird nur für server_vad den Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms. |
No | |
| └─ silence_duration_ms | integer | Wird nur für server_vad den Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └─ threshold | number | Wird nur für server_vad den Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └─ type | enum | Typ der Turnerkennung. Mögliche Werte: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Eine neue Realtime-Sitzungskonfiguration mit einem kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Kurzlebiger Schlüssel, der von der API zurückgegeben wird. | Yes | |
| └─ expires_at | integer | Zeitstempel für den Zeitpunkt, zu dem das Token abläuft. Derzeit laufen alle Token nach einer Minute ab. |
No | |
| └─ value | string | Kurzlebiger Schlüssel, der in Clientumgebungen verwendet werden kann, um Verbindungen mit der Realtime-API zu authentifizieren. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte. |
No | |
| input_audio_format | string | Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw. |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription, standardmäßig deaktiviert und kann so festgelegt werden, dass null das Deaktivieren einmal aktiviert ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Transkription wird asynchron über Flüster ausgeführt und sollte nicht als grobe Anleitung behandelt werden, als die darstellung, die vom Modell verstanden wird. |
No | |
| └─ model | string | Das Modell, das für die Transkription verwendet werden soll, whisper-1 ist das einzige derzeit unterstützte Modell. |
No | |
| instructions | string | Die Standardmäßigen Systemanweisungen (d. h. Systemmeldung) werden modellierten Aufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Die Anweisungen sind nicht garantiert, auf das Modell zu folgen, aber sie bieten Anleitungen für das Modell für das gewünschte Verhalten. Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist. |
No | |
| max_response_output_tokens | ganze Zahl oder Zeichenfolge | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Stellen Sie eine ganze Zahl zwischen 1 und 4096 bereit, inf um Ausgabetoken oder für die maximal verfügbaren Token für ein bestimmtes Modell einzuschränken. Standardwert ist .inf |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| output_audio_format | string | Das Format der Ausgabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw. |
No | |
| temperature | number | Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Der Standardwert ist 0,8. |
No | |
| tool_choice | string | Wie das Modell Tools auswäht. Optionen sind auto, none, requiredoder geben Sie eine Funktion an. |
No | |
| tools | array | Tools (Funktionen), die für das Modell verfügbar sind. | No | |
| turn_detection | object | Konfiguration für die Turnerkennung. Kann so eingestellt werden, dass null sie deaktiviert wird. Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. |
No | |
| └─ prefix_padding_ms | integer | Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms. |
No | |
| └─ silence_duration_ms | integer | Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └─ threshold | number | Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └─ type | string | Der Typ der Turnerkennung wird derzeit nur server_vad unterstützt. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Sitzungsobjektkonfiguration in Echtzeit.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw.Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Samplerate, einem einzelnen Kanal (Mono) und einer Kleinen-End-Byte-Reihenfolge sein.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration für die Rauschunterdrückung von Eingaben. Dies kann so festgelegt werden, dass null sie deaktiviert wird.Die Rauschreduzierung filtert audio, die dem Eingabeaudiopuffer hinzugefügt wurden, bevor sie an VAD und das Modell gesendet wird. Durch die Filterung des Audiosignals können VAD verbessert und die Erkennungsgenauigkeit verbessert werden (falsch positive Ergebnisse reduziert) und die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudio verbessert wird. |
No | |
| └─ type | enum | Art der Rauschreduzierung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst. |
No | |
| └─ language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ model | enum | Das Modell, das für die Transkription verwendet werden soll, sind gpt-4o-transcribeaktuelle Optionen , , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15whisper-1.Mögliche Werte: gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └─ prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| turn_detection | object | Konfiguration für turn detection, ether Server VAD oder Semantic VAD. Dies kann auf null das Deaktivieren festgelegt werden, in diesem Fall muss der Client die Modellantwort manuell auslösen.Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. Semantischer VAD ist fortgeschrittener und verwendet ein Turn Detection-Modell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer gesprochen hat, und legt dann dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit fest. Wenn z. B. die Audiospur des Benutzers deaktiviert uhhmist, bewertet das Modell eine niedrige Wahrscheinlichkeit für das Ende der Drehung und wartet länger, bis der Benutzer weiter spricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └─ create_response | boolean | Gibt an, ob beim Auftreten eines VAD-Stoppereignisses automatisch eine Antwort generiert werden soll. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └─ eagerness | enum | Wird nur für semantic_vad den Modus verwendet. Die Eifer des Modells, zu reagieren.
low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren.
auto ist der Standardwert und entspricht mediumdem .Mögliche Werte: low, , medium, highauto |
No | |
| └─ interrupt_response | boolean | Gibt an, ob beim Auftreten eines VAD-Startereignisses automatisch eine fortlaufende Antwort mit der Ausgabe der Standardunterhaltung (d. h. conversation von auto) unterbrochen werden soll. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └─ prefix_padding_ms | integer | Wird nur für server_vad den Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms. |
No | |
| └─ silence_duration_ms | integer | Wird nur für server_vad den Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └─ threshold | number | Wird nur für server_vad den Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └─ type | enum | Typ der Turnerkennung. Mögliche Werte: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Eine neue Realtime-Transkriptionssitzungskonfiguration.
Wenn eine Sitzung über die REST-API auf dem Server erstellt wird, enthält das Sitzungsobjekt auch einen kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute. Diese Eigenschaft ist nicht vorhanden, wenn eine Sitzung über die WebSocket-API aktualisiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Kurzlebiger Schlüssel, der von der API zurückgegeben wird. Nur vorhanden, wenn die Sitzung über die REST-API auf dem Server erstellt wird. |
Yes | |
| └─ expires_at | integer | Zeitstempel für den Zeitpunkt, zu dem das Token abläuft. Derzeit laufen alle Token nach einer Minute ab. |
No | |
| └─ value | string | Kurzlebiger Schlüssel, der in Clientumgebungen verwendet werden kann, um Verbindungen mit der Realtime-API zu authentifizieren. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte. |
No | |
| input_audio_format | string | Das Format der Eingabeaudio. Optionen sind pcm16, oder g711_ulawg711_alaw. |
No | |
| input_audio_transcription | object | Konfiguration des Transkriptionsmodells. |
No | |
| └─ language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ model | enum | Das Modell, das für die Transkription verwendet werden soll. Kann sein gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15oder whisper-1.Mögliche Werte: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └─ prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| turn_detection | object | Konfiguration für die Turnerkennung. Kann so eingestellt werden, dass null sie deaktiviert wird. Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. |
No | |
| └─ prefix_padding_ms | integer | Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Der Standardwert ist 300 ms. |
No | |
| └─ silence_duration_ms | integer | Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └─ threshold | number | Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0) wird standardmäßig auf 0,5 festgelegt. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └─ type | string | Der Typ der Turnerkennung wird derzeit nur server_vad unterstützt. |
No |
Reasoning
Konfigurationsoptionen für Begründungsmodelle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
Yes | medium |
| summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von concise oder detailed.Mögliche Werte: concise, detailed |
No |
ReasoningItem
Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Textinhalt wird mit Gründen versehen. |
Yes | |
| id | string | Der eindeutige Bezeichner des Grundinhalts. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ des Objekts. Immer reasoning.Mögliche Werte: reasoning |
Yes |
Refusal
Eine Ablehnung des Modells.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Die Erklärung der Weigerung aus dem Modell. |
Yes | |
| type | enum | Die Art der Ablehnung. Immer refusal.Mögliche Werte: refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. |
Yes | |
| error | ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. |
Yes | |
| id | string | Eindeutiger Bezeichner für diese Antwort. |
Yes | |
| incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. |
Yes | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| instructions | string | Fügt eine Systemnachricht (oder entwickler) als erstes Element im Kontext des Modells ein. Bei Verwendung mit previous_response_iddieser Antwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
Yes | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Unterhaltungsstatus. |
No | |
| metadata | Metadata | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| model | string | Modell, das zum Generieren der Antworten verwendet wird. | Yes | |
| object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
Yes | |
| output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
Yes | |
| output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden. Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. |
Yes | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Begründungsmodelle. |
No | |
| status | enum | Der Status der Antwortgenerierung. Einer von completed, failed, , in_progressoder incomplete.Mögliche Werte: completed, , failed, in_progressincomplete |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
Yes | 1 |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Learn more: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Durch das Konfigurieren werden { "type": "json_schema" } strukturierte Ausgaben aktiviert, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
Yes | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools |
Yes | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
Yes | 1 |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| usage | ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. |
No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
ResponseAudioDeltaEvent
Wird ausgegeben, wenn eine partielle Audioantwort vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Ein Teil der Base64-codierten Antwort-Audiobytes. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.audio.delta.Mögliche Werte: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Wird ausgegeben, wenn die Audioantwort abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Ereignisses. Immer response.audio.done.Mögliche Werte: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Wird ausgegeben, wenn eine partielle Transkription von Audio vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Die partielle Transkription der Audioantwort. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.audio.transcript.delta.Mögliche Werte: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Wird ausgegeben, wenn die vollständige Audiotranskription abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Ereignisses. Immer response.audio.transcript.done.Mögliche Werte: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Wird ausgegeben, wenn ein partieller Codeausschnitt vom Codedolmetscher hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Der partielle Codeausschnitt, der vom Codedolmetscher hinzugefügt wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call.code.delta.Mögliche Werte: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Wird ausgegeben, wenn die Codeausschnittausgabe vom Codedolmetscher abgeschlossen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Die endgültige Codeausschnittausgabe des Codedolmetschers. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call.code.done.Mögliche Werte: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Wird ausgegeben, wenn der Codedolmetscheraufruf abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf zum Ausführen von Code. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call.completed.Mögliche Werte: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf zum Ausführen von Code. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call.in_progress.Mögliche Werte: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf zum Ausführen von Code. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das vom Codedolmetscheraufruf ausgeführt wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call.interpreting.Mögliche Werte: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Der Typ des Ereignisses. Immer response.completed.Mögliche Werte: response.completed |
Yes |
ResponseContentPartAddedEvent
Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des hinzugefügten Inhaltsteils. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Der Typ des Ereignisses. Immer response.content_part.added.Mögliche Werte: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Wird ausgegeben, wenn ein Inhaltsteil abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, der abgeschlossen ist. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Der Typ des Ereignisses. Immer response.content_part.done.Mögliche Werte: response.content_part.done |
Yes |
ResponseCreatedEvent
Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Der Typ des Ereignisses. Immer response.created.Mögliche Werte: response.created |
Yes |
ResponseError
Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | Der Fehlercode für die Antwort. |
Yes | |
| message | string | Eine lesbare Beschreibung des Fehlers. |
Yes |
ResponseErrorCode
Der Fehlercode für die Antwort.
| Property | Value |
|---|---|
| Description | Der Fehlercode für die Antwort. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Wird ausgegeben, wenn ein Fehler auftritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Fehlercode. |
Yes | |
| message | string | Die Fehlermeldung. |
Yes | |
| param | string | Der Fehlerparameter. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer error.Mögliche Werte: error |
Yes |
ResponseFailedEvent
Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Der Typ des Ereignisses. Immer response.failed.Mögliche Werte: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Dateisuchaufruf initiiert wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.file_search_call.completed.Mögliche Werte: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Dateisuchaufruf initiiert wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.file_search_call.in_progress.Mögliche Werte: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Wird ausgegeben, wenn eine Dateisuche zurzeit durchsucht wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, nach dem der Dateisuchaufruf durchsucht wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.file_search_call.searching.Mögliche Werte: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Wird ausgegeben, wenn ein partielles Funktionsaufrufargumentdelta vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Die hinzugefügten Funktionsaufrufargumente. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.function_call_arguments.delta.Mögliche Werte: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Wird ausgegeben, wenn Funktionsaufrufargumente abgeschlossen werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Die Funktionsaufrufargumente. | Yes | |
| item_id | string | Die ID des Elements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements. | Yes | |
| type | enum | Mögliche Werte: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Wird ausgegeben, wenn die Antwort ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Der Typ des Ereignisses. Immer response.in_progress.Mögliche Werte: response.in_progress |
Yes |
ResponseIncompleteEvent
Ein Ereignis, das ausgegeben wird, wenn eine Antwort als unvollständig abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Der Typ des Ereignisses. Immer response.incomplete.Mögliche Werte: response.incomplete |
Yes |
responseItemList
Eine Liste der Antwortelemente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. | Yes | |
| first_id | string | Die ID des ersten Elements in der Liste. | Yes | |
| has_more | boolean | Gibt an, ob weitere Elemente verfügbar sind. | Yes | |
| last_id | string | Die ID des letzten Elements in der Liste. | Yes | |
| object | enum | Der Typ des zurückgegebenen Objekts muss sein list.Mögliche Werte: list |
Yes |
ResponseModalities
Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:
["text", "audio"]
Für diese Komponente sind keine Eigenschaften definiert.
ResponseModalitiesTextOnly
Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Diese API unterstützt bald andere Ausgabemodalitäten, einschließlich Audio und Bilder.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseOutputItemAddedEvent
Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Der Index des Ausgabeelements, das hinzugefügt wurde. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_item.added.Mögliche Werte: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Der Index des Ausgabeelements, das als erledigt markiert wurde. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_item.done.Mögliche Werte: response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Fügt eine Systemnachricht (oder entwickler) als erstes Element im Kontext des Modells ein. Bei Verwendung mit previous_response_iddieser Antwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Unterhaltungsstatus. |
No | |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Begründungsmodelle. |
No | |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Learn more: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Durch das Konfigurieren werden { "type": "json_schema" } strukturierte Ausgaben aktiviert, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools |
No | |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
ResponseRefusalDeltaEvent
Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| delta | string | Der Verweigerungstext, der hinzugefügt wird. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.refusal.delta.Mögliche Werte: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, den der Ablehnungstext abgeschlossen hat. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist. |
Yes | |
| refusal | string | Der Verweigerungstext, der abgeschlossen ist. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.refusal.done.Mögliche Werte: response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Der Index der hinzugefügten Anmerkung. |
Yes | |
| arguments | string | Die Funktionsaufrufargumente. | Yes | |
| code | string | Der Fehlercode. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf zum Ausführen von Code. |
Yes | |
| content_index | integer | Der Index des Inhaltsteils, den der Textinhalt abgeschlossen hat. |
Yes | |
| delta | string | Das Textdelta, das hinzugefügt wurde. |
Yes | |
| item | OutputItem | Das Ausgabeelement, das als erledigt markiert wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, das der Textinhalt abgeschlossen ist. |
Yes | |
| message | string | Die Fehlermeldung. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, für das der Textinhalt abgeschlossen ist. |
Yes | |
| param | string | Der Fehlerparameter. |
Yes | |
| part | OutputContent | Der Inhaltsteil, der abgeschlossen ist. |
Yes | |
| refusal | string | Der Verweigerungstext, der abgeschlossen ist. |
Yes | |
| response | response | Die Antwort, die unvollständig war. |
Yes | |
| text | string | Der textinhalt, der abgeschlossen ist. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_text.done.Mögliche Werte: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Wird ausgegeben, wenn eine Textanmerkung hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Der Index der hinzugefügten Anmerkung. |
Yes | |
| content_index | integer | Der Index des Inhaltsteils, dem die Textanmerkung hinzugefügt wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem die Textanmerkung hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem die Textanmerkung hinzugefügt wurde. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_text.annotation.added.Mögliche Werte: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde. |
Yes | |
| delta | string | Das Textdelta, das hinzugefügt wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_text.delta.Mögliche Werte: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Wird ausgegeben, wenn Der Textinhalt abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, den der Textinhalt abgeschlossen hat. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, das der Textinhalt abgeschlossen ist. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, für das der Textinhalt abgeschlossen ist. |
Yes | |
| text | string | Der textinhalt, der abgeschlossen ist. |
Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_text.done.Mögliche Werte: response.output_text.done |
Yes |
ResponseUsage
Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | Yes | |
| output_tokens | integer | Die Anzahl der Ausgabetoken. | Yes | |
| output_tokens_details | object | Eine detaillierte Aufschlüsselung der Ausgabetoken. | Yes | |
| └─ reasoning_tokens | integer | Die Anzahl der Gründe für Token. | No | |
| total_tokens | integer | Die Gesamtzahl der verwendeten Token. | Yes |
Screenshot
Screenshotaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf .screenshotMögliche Werte: screenshot |
Yes |
Scroll
Eine Bildlaufaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Der horizontale Bildlaufabstand. |
Yes | |
| scroll_y | integer | Der vertikale Bildlaufabstand. |
Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Bildlaufaktion ist diese Eigenschaft immer auf .scrollMögliche Werte: scroll |
Yes | |
| x | integer | Die x-Koordinate, an der der Bildlauf aufgetreten ist. |
Yes | |
| y | integer | Die y-Koordinate, an der der Bildlauf aufgetreten ist. |
Yes |
StopConfiguration
Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. Der zurückgegebene Text enthält nicht die Stoppsequenz.
Diese Komponente kann eine der folgenden Sein:
TextResponseFormatConfiguration
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Das Konfigurieren { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für gpt-4o und neuere Modelle:
Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
Diese Komponente kann eine der folgenden Sein:
TextResponseFormatJsonSchema
JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu strukturierten Ausgaben.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert. |
No | |
| name | string | Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. | Yes | |
| strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. |
No | False |
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_schema.Mögliche Werte: json_schema |
Yes |
Tool
Diese Komponente kann eine der folgenden Sein:
ToolChoiceFunction
Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der funktion, die aufgerufen werden soll. | Yes | |
| type | enum | Bei Funktionsaufrufen ist der Typ immer function.Mögliche Werte: function |
Yes |
ToolChoiceOptions
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
| Property | Value |
|---|---|
| Description | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des gehosteten Tools, den das Modell verwenden soll. Zulässige Werte sind: - file_search- computer_use_previewMögliche Werte: file_search, computer_use_preview |
Yes |
Type
Eine Aktion, die in Text eingegeben werden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der einzugebende Text. |
Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Typaktion ist diese Eigenschaft immer auf .typeMögliche Werte: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. |
Yes |
UrlCitation
Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Der Index des letzten Zeichens des URL-Zitats in der Nachricht. |
Yes | |
| start_index | integer | Der Index des ersten Zeichens des URL-Zitats in der Nachricht. |
Yes | |
| title | string | Der Titel der Webressource. |
Yes | |
| type | enum | Der Typ des URL-Zitats. Immer url_citation.Mögliche Werte: url_citation |
Yes | |
| url | string | Die URL der Webressource. |
Yes |
VectorStoreFileAttributes
Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Für diese Komponente sind keine Eigenschaften definiert.
VectorStoreFileContentResponse
Stellt den analysierten Inhalt einer Vektorspeicherdatei dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Analysierter Inhalt der Datei. | Yes | |
| has_more | boolean | Gibt an, ob mehr Inhaltsseiten abgerufen werden sollen. | Yes | |
| next_page | string | Das Token für die nächste Seite, falls vorhanden. | Yes | |
| object | enum | Der Objekttyp, der immer vector_store.file_content.pageMögliche Werte: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet werden soll. | No | |
| max_num_results | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen. | No | 10 |
| query | Zeichenfolge oder Matrix | Eine Abfragezeichenfolge für eine Suche | Yes | |
| ranking_options | object | Bewertungsoptionen für die Suche. | No | |
| └─ ranker | enum | Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der von der Suche zurückgegebene Textinhalt. | Yes | |
| type | enum | Der Inhaltstyp. Mögliche Werte: text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. |
Yes | |
| content | array | Inhaltsblöcke aus der Datei. | Yes | |
| file_id | string | Die ID der Vektorspeicherdatei. | Yes | |
| filename | string | Der Name der Vektorspeicherdatei. | Yes | |
| score | number | Die Ähnlichkeitsbewertung für das Ergebnis. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Die Liste der Suchergebniselemente. | Yes | |
| has_more | boolean | Gibt an, ob weitere Ergebnisse abgerufen werden sollen. | Yes | |
| next_page | string | Das Token für die nächste Seite, falls vorhanden. | Yes | |
| object | enum | Der Objekttyp, der immer vector_store.search_results.pageMögliche Werte: vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
Für diese Komponente sind keine Eigenschaften definiert.
Wait
Eine Warteaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf .waitMögliche Werte: wait |
Yes |
ReasoningEffort
Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
| Property | Value |
|---|---|
| Description | Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Tritt auf, wenn ein Fehler auftritt. Dies kann aufgrund eines internen Serverfehlers oder eines Timeouts auftreten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
event Enum: ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Tritt auf, wenn ein Datenstrom endet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
event Enum: DoneEventEnum
| Value | Description |
|---|---|
| done |
data Enum: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Erfahren Sie mehr über Modelle und feinabstimmungen mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, die Azure OpenAI unterstützen.