Freigeben über


Azure OpenAI in der Rest-API v1-Vorschaureferenz für Microsoft Foundry Models

Dieser Artikel enthält Details zu den Ableitungs-REST-API-Endpunkten für Azure OpenAI.

Datenebene: Rückschluss

Der Rest des Artikels behandelt unsere neue Version der v1-Vorschau-API-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.

Wenn Sie nach Dokumentationen zum neuesten v1 GA-API-Release suchen, konsultieren Sie die GA-Datenebenen-Inferenz-API.

Sprache erstellen

POST {endpoint}/openai/v1/audio/speech?api-version=preview

Generiert Text-zu-Sprache-Audio aus dem Eingabetext.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite Version der Microsoft Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
Eingabe Schnur Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Ja
instructions Schnur Steuern Sie die Stimme Ihres generierten Audios mit weiteren Anweisungen. Funktioniert nicht mit tts-1 oder tts-1-hd. Nein
Modell Schnur Das Modell, das für diese Text-zu-Sprache-Anforderung verwendet werden soll. Ja
Antwortformat Objekt Die unterstützten Audioausgabeformate für Text-zu-Sprache. Nein
speed number Die Geschwindigkeit der Sprache für generierte Audiodaten. Werte sind im Bereich von 0,25 bis 4,0 gültig, wobei 1,0 der Standardwert ist und höhere Werte einer schnelleren Sprache entsprechen. Nein 1
stream_format enum Das Format, in das die Audiodaten gestreamt werden sollen. Unterstützte Formate sind sse und audio. sse wird für tts-1 oder tts-1-hd nicht unterstützt.
Mögliche Werte: sse, audio
Nein
voice Objekt Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
application/octet-stream Schnur

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Example

Synthetisiert Audio aus dem bereitgestellten Text.

POST {endpoint}/openai/v1/audio/speech?api-version=preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3",
 "model": "tts-1"
}

Antworten: Statuscode: 200

{
  "body": "101010101"
}

Erstellen einer Transkription

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

Transkribiert Audio in die Eingabesprache

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
chunking_strategy Objekt Nein
└– prefix_padding_ms Integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Nein 300
└– Dauer_der_Stille_in_ms Integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. Nein 200
└– Schwellenwert number Empfindlichkeitsschwellenwert (0,0 bis 1,0) für die Spracherkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. Nein 0,5
└– Typ enum Muss auf server_vad gesetzt werden, um manuelles Chunking mithilfe der serverseitigen VAD zu aktivieren.
Möglicher Wert: server_vad
Nein
file Schnur Ja
filename Schnur Der optionale Dateiname oder der beschreibende Bezeichner, der den Audiodaten zugeordnet werden soll. Nein
include[] Array Zusätzliche Informationen, die in die Transkriptionsantwort aufgenommen werden sollen. logprobs gibt die Protokollwahrscheinlichkeiten der Token in der Antwort zurück, um das Vertrauen des Modells in die Transkription zu verstehen. logprobs funktioniert nur mit response_format auf json und nur mit den Modellen gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribeund gpt-4o-mini-transcribe-2025-12-15. Nein
language Schnur Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. Nein
Modell Schnur Das Modell, das für diese Transkriptionsanforderung verwendet werden soll. Nein
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. Nein
Antwortformat Objekt Nein
Datenstrom boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Hinweis: Streaming wird für das whisper-1 Modell nicht unterstützt und wird ignoriert. Nein Falsch
Temperatur number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0
timestamp_granularities[] Array Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. Nein ['segment']

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureAudioTranscriptionResponse
text/plain Schnur

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Example

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Antworten: Statuscode: 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Übersetzung erstellen

POST {endpoint}/openai/v1/audio/translations?api-version=preview

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
file Schnur Ja
filename Schnur Optionaler Dateiname oder beschreibender Bezeichner, der den Audiodaten zugeordnet werden soll Nein
Modell Schnur Das Modell, das für diese Übersetzungsanforderung verwendet werden soll. Nein
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Der Prompt muss in englischer Sprache formuliert werden. Nein
Antwortformat Objekt Nein
Temperatur number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureAudioTranslationResponse
text/plain Schnur

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Example

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST {endpoint}/openai/v1/audio/translations?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Antworten: Statuscode: 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Chatvervollständigung erstellen

POST {endpoint}/openai/v1/chat/completions?api-version=preview

Erstellt eine Chatvervollständigung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
audio Objekt Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"] angefordert wird. Nein
└─ Format enum Gibt das Audioformat der Ausgabe an. Muss einer von wav, mp3, flac, opus oder pcm16 sein.
Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16
Nein
└– Stimme Objekt Nein
data_sources Array Die Datenquellen, die für das Feature "On Your Data" verwendet werden sollen, ausschließlich für Azure OpenAI. Nein
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. Nein 0
function_call enum Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
Mögliche Werte: none, auto
Nein
Funktionen Array Zugunsten von tools eingestellt.
Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Nein Nichts
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. Nein Falsch
max_completion_tokens Integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
maximale_Anzahl_von_Tokens Integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.
Dieser Wert kann verwendet werden, um die Kosten für Text zu steuern, der über die API generiert wird.
Dieser Wert ist jetzt zugunsten von max_completion_tokens veraltet und nicht mit Modellen der o1-Serie kompatibel.
Nein
messages Array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Abhängig vom verwendeten Modell werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, z. B. Text, Bilder und Audio. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
modalities Objekt Ausgabetypen, die vom Modell generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:

["text", "audio"]
Nein
Modell Schnur Der Modellimplementierungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. Ja
n Integer Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. Nein 1
Parallele Werkzeugaufrufe Objekt Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
prediction Objekt Basisdarstellung der vorhergesagten Ausgabe eines Modells. Nein
└– Typ OpenAI.ChatOutputPredictionType Nein
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. Nein 0
Denkanstrengung Objekt Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Nein
Antwortformat Objekt Nein
└– Typ enum
Mögliche Werte: text, , json_objectjson_schema
Nein
seed Integer Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen.
Nein
Stopp Objekt Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.
Nein
store boolean Ob die Ausgabe dieser Chat-Vervollständigungsanforderung zur Verwendung in Modelldestillations- oder Bewertungsprodukten gespeichert werden soll. Nein Falsch
Datenstrom boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Nein Falsch
stream_options Objekt Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. Nein
└– include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor der data: [DONE]-Nachricht gestreamt. Das Feld usage in diesem Block zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das Feld choices ist immer ein leeres Array.

Alle anderen Blöcke enthalten auch ein Feld usage, jedoch mit einem NULL-Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält.
Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Nein
Werkzeuge Array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
user Schnur Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
user_security_context AzureUserSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureCreateChatCompletionResponse
text/event-stream AzureCreateChatCompletionStreamResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Example

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.

POST {endpoint}/openai/v1/chat/completions?api-version=preview

{
 "model": "gpt-4o-mini",
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Einbettung erstellen

POST {endpoint}/openai/v1/embeddings?api-version=preview

Erstellt einen Einbettungsvektor, der den Eingabetext darstellt.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
dimensions Integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. Nein
encoding_format enum Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.
Mögliche Werte: float, base64
Nein
Eingabe Zeichenfolge oder Array Ja
Modell Schnur Das Modell, das für die Einbettungsanforderung verwendet werden soll. Ja
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.CreateEmbeddingResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Example

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

POST {endpoint}/openai/v1/embeddings?api-version=preview

{
 "model": "text-embedding-ada-002",
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196,
          -0.020365695,
          -0.009631885,
          -0.007647093,
          0.0033837722,
          -0.026764825,
          -0.010501476,
          0.020219658,
          0.024640633,
          -0.0066912062,
          -0.036456455,
          -0.0040923897,
          -0.013966565,
          0.017816665,
          0.005366905,
          0.022835068,
          0.0103488,
          -0.0010811808,
          -0.028942121,
          0.0074280356,
          -0.017033368,
          0.0074877786,
          0.021640211,
          0.002499245,
          0.013316032,
          0.0021524043,
          0.010129742,
          0.0054731146,
          0.03143805,
          0.014856071,
          0.0023366117,
          -0.0008243692,
          0.022781964,
          0.003038591,
          -0.017617522,
          0.0013309394,
          0.0022154662,
          0.00097414135,
          0.012041516,
          -0.027906578,
          -0.023817508,
          0.013302756,
          -0.003003741,
          -0.006890349,
          0.0016744611
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Bewertungen auflisten

GET {endpoint}/openai/v1/evals?api-version=preview

Listet Auswertungen für eine project auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
after Anfrage Nein Schnur Bezeichner für die letzte Auswertung der vorherigen Paginierungsanforderung.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl der Bewertungen, die in einer einzelnen Paginierungsantwort zurückgegeben werden sollen.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge von Bewertungen nach Zeitstempel. Verwenden Sie asc für aufsteigende Reihenfolge oder desc für absteigende Reihenfolge.
order_by Anfrage Nein Schnur
Mögliche Werte: created_at, updated_at
Evals können nach Erstellungszeit oder zuletzt aktualisierter Zeit sortiert werden. Verwenden Sie created_at für die Erstellungszeit oder updated_at für die Zeit der letzten Aktualisierung.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Createeval

POST {endpoint}/openai/v1/evals?api-version=preview

Erstellen Sie die Struktur einer Auswertung, die zum Testen der Leistung eines Modells verwendet werden kann.

Eine Auswertung ist eine Reihe von Testkriterien und eine Datenquelle. Nachdem Sie eine Auswertung erstellt haben, können Sie sie auf verschiedenen Modellen und Modellparametern ausführen. Wir unterstützen verschiedene Arten von Benotern und Datenquellen.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Datenquellenkonfiguration Objekt Ja
└– Typ OpenAI.EvalDataSourceConfigType Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Name Schnur Der Name der Auswertung. Nein
statusCode enum
Möglicher Wert: 201
Ja
Testkriterien Array Liste der Bewerter (Grader) für alle Auswertungsausführungen in dieser Gruppe Bewerter können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z. B. {{item.variable_name}}. Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den Namespace sample (d.h. {{sample.output_text}}). Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Bewertung abrufen

GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Rufen Sie eine Bewertung anhand ihrer ID ab. Ruft eine Bewertung anhand ihrer ID ab.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Bewertung aktualisieren

POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Aktualisieren Sie ausgewählte, veränderbare Eigenschaften einer angegebenen Bewertung.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
metadata OpenAI.MetadataPropertyForRequest 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Name Schnur Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Löschen einer Bewertung

DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Löschen sie eine angegebene Bewertung.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen von Bewertungsausführungen

GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Dient zum Abrufen einer Liste von Läufen für eine angegebene Bewertung.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
after Anfrage Nein Schnur
limit Anfrage Nein Integer
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
status Anfrage Nein Schnur
Mögliche Werte: queued, , in_progresscompleted, , canceledfailed

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen einer Bewertungsausführung

POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Erstellen Sie eine neue Bewertungsausführung, die den Bewertungsprozess beginnt.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Datenquelle Objekt Ja
└– Typ OpenAI.EvalRunDataSourceType Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Name Schnur Name der Ausführung Nein

Antworten

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen einer Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Rufen Sie eine bestimmten Bewertung ab, die nach ihrer ID ausgeführt wird.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abbrechen einer Bewertungsausführung

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Brechen Sie eine bestimmte Bewertung ab, die nach ihrer ID ausgeführt wird.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Deleteevalrun

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Löschen Sie eine bestimmte Auswertung, die nach ihrer ID ausgeführt wird.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen von Ausgabeelementen der Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview

Rufen Sie eine Liste der Ausgabeelemente für eine angegebene Bewertungsausführung ab.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur
after Anfrage Nein Schnur
limit Anfrage Nein Integer
status Anfrage Nein Schnur
Mögliche Werte: fail, pass
order Anfrage Nein Schnur
Mögliche Werte: asc, desc

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunOutputItemList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen des Ausgabeelements der Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview

Rufen Sie ein bestimmtes Ausgabeelement aus einer Bewertung ab, die nach ihrer ID ausgeführt wird.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Überschrift Ja Schnur
Möglicher Wert: preview
Aktiviert access zu AOAI Evals, einem Vorschaufeature.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur
output_item_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunOutputItem

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Datei erstellen

POST {endpoint}/openai/v1/files?api-version=preview

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
expires_after Objekt Ja
└– Anker AzureFileExpiryAnchor Nein
└─ Sekunden Integer Nein
file Schnur Ja
Zweck enum Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwenden
Mögliche Werte: assistants, , batch, fine-tuneevals
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIFile

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Example

POST {endpoint}/openai/v1/files?api-version=preview

Dateien auflisten

GET {endpoint}/openai/v1/files?api-version=preview

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Zweck Anfrage Nein Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureListFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Datei abrufen

GET {endpoint}/openai/v1/files/{file_id}?api-version=preview

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIFile

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Datei löschen

DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteFileResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Datei herunterladen

GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
application/octet-stream Schnur

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Rungrader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview

Führen Sie einen Bewerter aus.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└– calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└– Noten Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein
item Das Datasetelement, das dem Bewerter bereitgestellt wird. Dies wird verwendet, um den item Namespace aufzufüllen. Nein
model_sample Schnur Das zu bewertende Modellbeispiel. Dieser Wert wird verwendet, um den sample Namespace aufzufüllen.
Die output_json Variable wird aufgefüllt, wenn das Modellbeispiel eine gültige JSON-Zeichenfolge ist.
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunGraderResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Überprüfen des Bewerters

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview

Überprüfen Sie einen Bewerter.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└– calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└– Noten Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ValidateGraderResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen eines Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Erstellt einen Feinabstimmungsauftrag, der den Prozess der Erstellung eines neuen Modells aus einem bestimmten Datensatz startet.

Die Antwort enthält Details des in die Warteschlange gestellten Auftrags einschließlich Auftragsstatus und den Namen der fein abgestimmten Modelle nach Abschluss.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
Dieser Wert ist nun zugunsten von method veraltet und sollte unter dem Parameter method übergeben werden.
Nein
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
Integrationen Array Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell string (siehe gültige Modelle unten) Der Name des Modells, das fein abgestimmt werden soll. Ja
seed Integer Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden.
Wenn Sie keinen Seed angeben, wird einer für Sie generiert.
Nein
suffix Schnur Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird.

Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen.
Nein Nichts
Trainingsdatei Schnur Die ID einer hochgeladenen Datei, die Schulungsdaten enthält. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.

Der Inhalt der Datei sollte sich unterscheiden, je nachdem, ob das Modell das ChatCompletion-Format verwendet oder wenn die Feinabstimmungsmethode das Präferenz-Format verwendet.
Ja
Validierungsdatei Schnur Die ID einer hochgeladenen Datei, die Validierungsdaten enthält.

Wenn Sie diese Datei angeben, werden die Daten verwendet, um während der Feinabstimmung regelmäßig Validierungsmetriken zu generieren. Diese Metriken können in der Datei mit den Feinabstimmungsergebnissen eingesehen werden.
Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein.

Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von paginierten Feinabstimmungsaufträgen

GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Auflisten der Feinabstimmungsaufträge Ihrer Organisation

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
after Anfrage Nein Schnur Bezeichner für den letzten Auftrag aus der vorherigen Paginierungsaufforderung.
limit Anfrage Nein Integer Anzahl der abzurufenden Feinabstimmungsaufträge.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListPaginatedFineTuningJobsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen eines Feinabstimmungsauftrags

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview

Rufen Sie Informationen zu einem Feinabstimmungsauftrag ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abbrechen des Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview

Brechen Sie einen Feinabstimmungsauftrag sofort ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des abzubrechenden Feinabstimmungsauftrags.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von Prüfpunkten des Feinabstimmungsauftrags

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview

Listen Sie die Prüfpunkte für einen Feinabstimmungsauftrag auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, für den Prüfpunkte abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für die letzte Prüfpunkt-ID aus der vorherigen Paginierungsanforderung.
limit Anfrage Nein Integer Anzahl der abzurufenden Prüfpunkte.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningJobCheckpointsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von Ereignisse der Feinabstimmung

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview

Rufen Sie Statusupdates für einen Feinabstimmungsauftrag ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, für den Ereignisse abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für das letzte Ereignis aus der vorherigen Anforderung zur Paginierung.
limit Anfrage Nein Integer Anzahl der abzurufenden Ereignisse.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningJobEventsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Feinabstimmungsauftrag anhalten

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview

Halten Sie einen Feinabstimmungsauftrag an.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des anzuhaltenden Feinabstimmungsauftrags.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Fortsetzen des Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview

Setzen Sie einen angehaltenen Feinabstimmungsauftrag fort.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, der fortgesetzt werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Bildbearbeitung erstellen

POST {endpoint}/openai/v1/images/edits?api-version=preview

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
background enum Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder.
Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto verwendet wird, bestimmt es automatisch den besten Hintergrund für das Bild.

Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.
Mögliche Werte: transparent, , opaqueauto
Nein
Bild Zeichenfolge oder Array Ja
Maske Schnur Nein
Modell Schnur Die Modellimplementierung, die für den Bildbearbeitungsvorgang verwendet werden soll. Ja
n Integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. Nein 1
Ausgabekomprimierung Integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. Nein 100
Ausgabeformat enum Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss png, jpeg oder webp sein.
Der Standardwert ist png.
Mögliche Werte: png, , jpegwebp
Nein
prompt Schnur Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen für dall-e-2und 32000 Zeichen für gpt-image-1-Serienmodelle. Ja
quality enum Die Qualität des zu generierenden Bilds high, medium und low werden nur für Modelle der gpt-image-1Serie unterstützt. dall-e-2 unterstützt nur standard-Qualität. Wird standardmäßig auf auto festgelegt.
Mögliche Werte: standard, , lowmedium, , highauto
Nein
Antwortformat enum Das Format, in dem die generierten Bilder zurückgegeben werden. Muss url oder b64_json sein. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird nur für dall-e-2 unterstützt, da gpt-image-1-Serienmodelle immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json
Nein
Größe enum Die Größe der generierten Bilder. Muss eines von 1024x1024, 1536x1024 (Querformat), 1024x1536 (Hochformat) oder auto (Standardwert) für gpt-image-1-Serienmodelle und eines von 256x256, 512x512oder 1024x1024 für dall-e-2.
Mögliche Werte: 256x256, , 512x512, 1024x10241536x1024, , , 1024x1536auto
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureImagesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Createimage

POST {endpoint}/openai/v1/images/generations?api-version=preview

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
background enum Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder.
Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto verwendet wird, bestimmt es automatisch den besten Hintergrund für das Bild.

Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.
Mögliche Werte: transparent, , opaqueauto
Nein
Modell Schnur Die Modellimplementierung, die für die Bildgeneration verwendet werden soll. Ja
moderation enum Steuern Sie die Inhaltsmoderationsebene für Bilder, die von gpt-image-1-Serienmodellen generiert werden. Muss entweder low für weniger restriktive Filterung oder auto (Standardwert) sein.
Mögliche Werte: low, auto
Nein
n Integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. Für dall-e-3 wird nur n=1 unterstützt. Nein 1
Ausgabekomprimierung Integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. Nein 100
Ausgabeformat enum Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss png, jpeg oder webp sein.
Mögliche Werte: png, , jpegwebp
Nein
prompt Schnur Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serienmodelle, 1000 Zeichen für dall-e-2 und 4000 Zeichen für dall-e-3. Ja
quality enum Die Qualität des zu generierenden Bilds

- auto (Standardwert) wählt automatisch die beste Qualität für das angegebene Modell aus.
- high, medium und low werden für Modelle der gpt-image-1Serie unterstützt.
- hd und standard sind für dall-e-3 unterstützt.
- standard ist die einzige Option für dall-e-2.
Mögliche Werte: standard, , hd, lowmedium, , , highauto
Nein
Antwortformat enum Das Format, in dem generierte Bilder mit dall-e-2 und dall-e-3 zurückgegeben werden. Muss url oder b64_json sein. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json
Nein
Größe enum Die Größe der generierten Bilder. Muss einer der folgenden Werte sein: 1024x1024, 1536x1024 (Querformat), 1024x1536 (Hochformat) oder auto (Standardwert) für Modelle der gpt-image-1-Serie, einer der folgenden Werte: 256x256, 512x512 oder 1024x1024 für dall-e-2 und einer der folgenden Werte: 1024x1024, 1792x1024 oder 1024x1792 für dall-e-3.
Mögliche Werte: auto, , 1024x1024, 1536x10241024x1536, 256x256, , 512x512, 1792x10241024x1792
Nein
style enum Die Größe der generierten Bilder. Der Parameter wird nur von dall-e-3 unterstützt. Muss vivid oder natural sein. Lebhaft bewirkt, dass sich das Modell auf die Erzeugung von hyper-realen und dramatischen Bildern stützt. Natürlich bewirkt, dass das Modell natürlichere, weniger hyper-real aussehende Bilder erzeugt.
Mögliche Werte: vivid, natural
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureImagesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Example

Erstellt Bilder auf der Grundlage eines Prompts.

POST {endpoint}/openai/v1/images/generations?api-version=preview

{
 "model": "dall-e-3",
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Auflisten von Modellen

GET {endpoint}/openai/v1/models?api-version=preview

Listet die derzeit verfügbaren Modelle auf und stellt grundlegende Informationen zu jedem Modell bereit, z. B. Besitzer und Verfügbarkeit.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListModelsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Modell abrufen

GET {endpoint}/openai/v1/models/{model}?api-version=preview

Ruft eine Modellinstanz ab und stellt grundlegende Informationen zum Modell bereit, z. B. den Besitzer und Berechtigungen.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Modell Pfad Ja Schnur Die ID des Modells, das für diese Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Model

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Antwort erstellen

POST {endpoint}/openai/v1/responses?api-version=preview

Erstellt eine Modellantwort.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
einschließen Array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs
- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
Nein
Eingabe Zeichenfolge oder Array Nein
instructions Schnur Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Nein
max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Ja
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– ID Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. Nein
└– Version Schnur Optionale Version der Promptvorlage. Nein
reasoning Objekt Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Nein
└– generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
store boolean Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. Nein Richtig
Datenstrom boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Nein Falsch
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
tool_choice Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Nein
Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern, z. B. die Dateisuche.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, sodass das Modell Ihren eigenen Code aufrufen kann.
Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureResponse
text/event-stream OpenAI.ResponseStreamEvent

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Example

Erstellen einer Modellantwort

POST {endpoint}/openai/v1/responses?api-version=preview

Antwort abrufen

GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Ruft eine Modellantwort mit der angegebenen ID ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur
include[] Anfrage Nein Array

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Antwort löschen

DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Löscht eine Antwort nach ID.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Listeneingabeelemente

GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview

Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ResponseItemList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten der Vektorspeicher

GET {endpoint}/openai/v1/vector_stores?api-version=preview

Gibt eine Liste mit Vektorspeichern zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoresResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen eines Vektorspeichers

POST {endpoint}/openai/v1/vector_stores?api-version=preview

Erstellt einen Vektorspeicher.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
chunking_strategy Objekt Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400. Nein
└– statisch OpenAI.StaticChunkingStrategy Nein
└– Typ enum Immer static.
Möglicher Wert: static
Nein
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
Datei-IDs Array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die Dateien access können. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Name Schnur Der Name des Vektorspeichers. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Beispieldatei nicht gefunden: ./examples/vector_stores.json

Abrufen des Vektorspeichers

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Ruft einen Vektorspeicher ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des abzurufenden Vektorspeichers.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Ändern des Vektorspeichers

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Ändert einen Vektorspeicher.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des zu ändernden Vektorspeichers.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
expires_after Objekt Die Ablaufrichtlinie für einen Vektorspeicher. Nein
└– Anker enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Möglicher Wert: last_active_at
Nein
└– Tage Integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Name Schnur Der Name des Vektorspeichers. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Löschen des Vektorspeichers

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Löschen Sie einen Vektorspeicher.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des zu löschenden Vektorspeichers.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteVectorStoreResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen eines Vektorspeicher-Dateibatches

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview

Erstellen Sie einen Vektorspeicher-Dateibatch.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Nein
Datei-IDs Array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die Dateien access können. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen des Vektorspeicher-Dateibatches

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview

Ruft einen Vektorspeicher-Dateibatch ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des abgerufenen Dateibatches

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abbrechen des Vektorspeicher-Dateibatches

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview

Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des zu abbrechenden Dateibatches.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von Dateien im Vektorspeicher-Batch

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview

Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des Dateibatches, zu dem die Dateien gehören.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
Filter Anfrage Nein Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoreFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten der Vektorspeicherdateien

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Gibt eine Liste mit Vektorspeicherdateien zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Dateien gehören.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
Filter Anfrage Nein Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoreFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen einer Vektorspeicherdatei

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, für den eine Datei erstellt werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Nein
Datei-ID Schnur Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die Dateien access können. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen einer Vektorspeicherdatei

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Ruft eine Vektorspeicherdatei ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Datei gehört.
Datei-ID Pfad Ja Schnur Die ID der abgerufenen Datei.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Aktualisieren von Vektorspeicher-Dateiattributen

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur
Datei-ID Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Löschen einer Vektorspeicherdatei

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Datei gehört.
Datei-ID Pfad Ja Schnur Die ID der zu löschenden Datei.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteVectorStoreFileResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Videogenerierungsaufträge – Erstellen

POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Erstellt einen neuen Auftrag zur Videogenerierung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
height Integer Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Ja
Modell Schnur Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll Ja
n_seconds Integer Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. Nein 5
n_variants Integer Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Der Wert muss zwischen 1 und 5 liegen. Kleinere Abmessungen ermöglichen mehr Varianten. Nein 1
prompt Schnur Der Prompt für diesen Auftrag zur Videogenerierung Ja
width Integer Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Ja

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
files Array Ja
height Integer Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Ja
inpaint_items Array Optionale Inpainting-Elemente für diesen Auftrag zur Videogenerierung. Nein
Modell Schnur Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll Ja
n_seconds Integer Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. Nein 5
n_variants Integer Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Der Wert muss zwischen 1 und 5 liegen. Kleinere Abmessungen ermöglichen mehr Varianten. Nein 1
prompt Schnur Der Prompt für diesen Auftrag zur Videogenerierung Ja
width Integer Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json VideoGenerationJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIVideoGenerationErrorResponse

Beispiele

Beispieldatei nicht gefunden: ./examples/create_video_generation_job_simple.json

Videogenerierungsaufträge – Liste

GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Listet Aufträge zur Videogenerierung auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
before Anfrage Nein Schnur
after Anfrage Nein Schnur
limit Anfrage Ja Integer
statuses Anfrage Nein Array

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json VideoGenerationJobList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIVideoGenerationErrorResponse

Beispiele

Beispieldatei nicht gefunden: ./examples/get_video_generation_job_list.json

Videogenerierungsaufträge – Abrufen

GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Ruft die Eigenschaften eines Auftrags zur Videogenerierung ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
job-id Pfad Ja Schnur Die ID des Videogenerierungsauftrags, der für die Azure OpenAI-Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json VideoGenerationJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIVideoGenerationErrorResponse

Beispiele

Beispieldatei nicht gefunden: ./examples/get_video_generation_job.json

Aufträge zur Videogenerierung – Löschen

DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Löscht einen Auftrag zur Videogenerierung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
job-id Pfad Ja Schnur Die ID des Videogenerierungsauftrags, der für die Azure OpenAI-Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 204

Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIVideoGenerationErrorResponse

Videogenerierungen – Abrufen

GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview

Ruft eine Videogenerierung nach ID ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
generation-id Pfad Ja Schnur Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json VideoGeneration

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIVideoGenerationErrorResponse

Beispiele

Beispieldatei nicht gefunden: ./examples/get_video_generation.json

Videogenerierungen – Abrufen der Miniaturansicht

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview

Ruft eine Miniaturansicht des generierten Videoinhalts ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
generation-id Pfad Ja Schnur Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Bild/jpg Schnur

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIVideoGenerationErrorResponse

Videogenerierung – Videoinhalt abrufen

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Ruft den generierten Videoinhalt ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
generation-id Pfad Ja Schnur Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll.
quality Anfrage Nein

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
video/mp4 Schnur

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIVideoGenerationErrorResponse

Videogenerierung – Nur Kopfzeilen des Videoinhalts abrufen

HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Ruft Kopfzeilen für den generierten Videoinhalt ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai. azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
generation-id Pfad Ja Schnur Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll.
quality Anfrage Nein

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
API-Schlüssel Richtig Schnur Bereitstellen Azure OpenAI-API-Schlüssels hier

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIVideoGenerationErrorResponse

Komponenten

AudioTaskLabel

Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten.

Eigentum Wert
Beschreibung Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten.
Typ Schnur
Werte transcribe
translate

AudioTranslationSegment

Erweiterte Informationen zu einem einzelnen Segment übersetzter Audiodaten. Segmente stellen in der Regel ungefähr 5-10 Sekunden Sprache dar. Segmentgrenzen treten in der Regel zwischen Wörtern, aber nicht unbedingt zwischen Sätzen auf.

Name Typ Description Erforderlich Default
avg_logprob number Die durchschnittliche Protokollwahrscheinlichkeit, die diesem Audiosegment zugeordnet ist. Ja
Kompressionsverhältnis number Das Komprimierungsverhältnis dieses Audiosegments. Ja
Ende number Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten endete. Ja
id Integer Der 0-basierte Index dieses Segments innerhalb einer Übersetzung. Ja
no_speech_prob number Die Wahrscheinlichkeit, dass innerhalb dieses Audiosegments keine Spracherkennung erkannt wird. Ja
seek Integer Die Suchposition, die der Verarbeitung dieses Audiosegments zugeordnet ist.
Suchpositionen werden in Hundertstel Sekunden ausgedrückt.
Das Modell kann mehrere Segmente von einer einzelnen Suchposition verarbeiten, während die Suchposition nie später als der Anfang des Segments dargestellt wird, kann der Anfang des Segments einen erheblich späteren Zeitpunkt als die zugeordnete Suchposition des Segments darstellen.
Ja
start number Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten begonnen hat. Ja
Temperatur number Die diesem Audiosegment zugeordnete Temperaturbewertung. Ja
Text Schnur Der übersetzte Text, der Teil dieses Audiosegments war. Ja
tokens Array Die Token-IDs, die dem übersetzten Text in diesem Audiosegment entsprechen. Ja

AzureAIFoundryModelsApiVersion

Eigentum Wert
Typ Schnur
Werte v1
preview

AzureAudioTranscriptionResponse

Ergebnisinformationen für einen Vorgang, der gesprochene Audio in geschriebenen Text transkribiert hat.

Name Typ Description Erforderlich Default
Dauer number Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Transkriptionsinformationen zu erzeugen. Nein
language Schnur Die gesprochene Sprache, die in den transkribierten Audiodaten erkannt wurde.
Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt.
Nein
segments Array Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. Nein
Aufgabe Objekt Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. Nein
Text Schnur Der transkribierte Text für die bereitgestellten Audiodaten. Ja
words Array Eine Sammlung von Informationen über den Zeitpunkt jedes verarbeiteten Worts. Nein

AzureAudioTranslationResponse

Ergebnis für einen Vorgang, der ein gesprochenes Audio in geschriebenen Text übersetzt hat.

Name Typ Description Erforderlich Default
Dauer number Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Übersetzungsinformationen zu erzeugen. Nein
language Schnur Die gesprochene Sprache, die in den übersetzten Audiodaten erkannt wurde.
Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt.
Nein
segments Array Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. Nein
Aufgabe Objekt Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. Nein
Text Schnur Der übersetzte Text für die bereitgestellten Audiodaten. Ja

AzureChatCompletionResponseMessage

Die Komponente des erweiterten Antwortmodells für Chatabschlussantwortnachrichten auf dem Azure OpenAI service. Dieses Modell unterstützt den Kontext von Chatnachrichten, der von der Funktion "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der durchgeführten retrieval-augmentierten Generierung verwendet wird.

Name Typ Description Erforderlich Default
Anmerkungen Array Anmerkungen zur Nachricht, falls zutreffend, wie bei der Verwendung des Websuchwerkzeugs. Nein
audio Objekt Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells. Nein
└– Daten Schnur Base64-codierte Audiobytes, die vom Modell generiert wurden, im in der Anforderung angegebenen Format. Nein
└– abläuft_am Integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem diese Audioantwort nicht mehr auf dem Server für die Verwendung in mehrstufigen Dialogen zugänglich ist. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Audioausgabe. Nein
└– Transkript Schnur Transkript der vom Modell generierten Audiodaten. Nein
Inhalt Schnur Der Inhalt der Nachricht. Ja
context Objekt Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI service bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data". Nein
└– alle_abgerufenen_Dokumente Objekt Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. Nein
└– chunk_id Schnur Die Segment-ID für das Zitat. Nein
└– Inhalt Schnur Der Inhalt des Zitats. Nein
└– Datenquellenindex Integer Der Index der Datenquelle, die für den Abruf verwendet wird. Nein
└– Dateipfad Schnur Der Dateipfad für das Zitat. Nein
└– filter_begründung enum Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
Nein
└− original_search_score number Die ursprüngliche Suchergebnisscore für den Abruf. Nein
└– rerank_score number Der Neubewertungsscore für den Abruf. Nein
└– Suchanfragen Array Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. Nein
└– Titel Schnur Der Titel für das Zitat. Nein
└– URL Schnur Die URL des Zitats. Nein
└- Zitate Array Die Zitate, die vom Datenabruf erzeugt werden. Nein
└– Absicht Schnur Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
reasoning_content Schnur Eine Azure spezifische Erweiterungseigenschaft, die generierten Grundinhalt aus unterstützten Modellen enthält. Nein
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja
role enum Die Rolle des Autors dieser Nachricht
Möglicher Wert: assistant
Ja
tool_calls ChatCompletionMessageToolCallsItem Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. Nein

AzureChatCompletionStreamResponseDelta

Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht im Azure OpenAI service. Dieses Modell unterstützt den Kontext von Chatnachrichten, der von der Funktion "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der durchgeführten retrieval-augmentierten Generierung verwendet wird.

Name Typ Description Erforderlich Default
audio Objekt Nein
└– Daten Schnur Nein
└– abläuft_am Integer Nein
└– ID Schnur Nein
└– Transkript Schnur Nein
Inhalt Schnur Die Inhalte der Blocknachricht. Nein
context Objekt Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI service bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data". Nein
└– alle_abgerufenen_Dokumente Objekt Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. Nein
└– chunk_id Schnur Die Segment-ID für das Zitat. Nein
└– Inhalt Schnur Der Inhalt des Zitats. Nein
└– Datenquellenindex Integer Der Index der Datenquelle, die für den Abruf verwendet wird. Nein
└– Dateipfad Schnur Der Dateipfad für das Zitat. Nein
└– filter_begründung enum Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
Nein
└− original_search_score number Die ursprüngliche Suchergebnisscore für den Abruf. Nein
└– rerank_score number Der Neubewertungsscore für den Abruf. Nein
└– Suchanfragen Array Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. Nein
└– Titel Schnur Der Titel für das Zitat. Nein
└– URL Schnur Die URL des Zitats. Nein
└- Zitate Array Die Zitate, die vom Datenabruf erzeugt werden. Nein
└– Absicht Schnur Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
reasoning_content Schnur Eine Azure spezifische Erweiterungseigenschaft, die generierten Grundinhalt aus unterstützten Modellen enthält. Nein
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Nein
role Objekt Die Rolle des Autors einer Nachricht Nein
tool_calls Array Nein

AzureChatDataSource

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chatdatenquelle. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Diskriminator für AzureChatDataSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
azure_search AzureSearchChatDataSource
azure_cosmos_db AzureCosmosDBChatDataSource
elasticsearch ElasticsearchChatDataSource
pinecone PineconeChatDataSource
mongo_db MongoDBChatDataSource
Name Typ Description Erforderlich Default
type Objekt Ja

AzureChatDataSourceAccessTokenAuthenticationOptions

Name Typ Description Erforderlich Default
access_token Schnur Ja
type enum
Möglicher Wert: access_token
Ja

AzureChatDataSourceApiKeyAuthenticationOptions

Name Typ Description Erforderlich Default
Schlüssel Schnur Ja
type enum
Möglicher Wert: api_key
Ja

AzureChatDataSourceAuthenticationOptions

Diskriminator für AzureChatDataSourceAuthenticationOptions

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
system_assigned_managed_identity AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
access_token AzureChatDataSourceAccessTokenAuthenticationOptions
connection_string AzureChatDataSourceConnectionStringAuthenticationOptions
key_and_key_id AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
encoded_api_key AzureChatDataSourceEncodedApiKeyAuthenticationOptions
username_and_password AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
Name Typ Description Erforderlich Default
type AzureChatDataSourceAuthenticationOptionsType Ja

AzureChatDataSourceAuthenticationOptionsType

Eigentum Wert
Typ Schnur
Werte api_key
username_and_password
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity

AzureChatDataSourceConnectionStringAuthenticationOptions

Name Typ Description Erforderlich Default
connection_string Schnur Ja
type enum
Möglicher Wert: connection_string
Ja

AzureChatDataSourceDeploymentNameVectorizationSource

Stellt eine Vektorisierungsquelle dar, die interne Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. Im Gegensatz zur endpunktbasierten Vektorisierungsquelle muss eine bereitstellungsnamebasierte Vektorisierungsquelle Teil derselben Azure OpenAI-Ressource sein, kann aber auch in privaten Netzwerken verwendet werden.

Name Typ Description Erforderlich Default
deployment_name Schnur Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. Ja
dimensions Integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Wird nur in "text-embedding-3" und späteren Modellen unterstützt.
Nein
type enum Der Typbezeichner, immer "deployment_name" für diesen Vektorisierungsquelltyp.
Möglicher Wert: deployment_name
Ja

AzureChatDataSourceEncodedApiKeyAuthenticationOptions

Name Typ Description Erforderlich Default
encoded_api_key Schnur Ja
type enum
Möglicher Wert: encoded_api_key
Ja

AzureChatDataSourceEndpointVectorizationSource

Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt.

Name Typ Description Erforderlich Default
Authentifizierung Objekt Ja
└─ Zugriffstoken Schnur Nein
└– Schlüssel Schnur Nein
└– Typ enum
Möglicher Wert: access_token
Nein
dimensions Integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Wird nur in "text-embedding-3" und späteren Modellen unterstützt.
Nein
endpoint Schnur Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Es sollte im Format sein von:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter „api-version“ ist nicht zulässig.
Ja
type enum Der Typbezeichner, immer "Endpunkt" für diesen Vektorisierungsquelltyp.
Möglicher Wert: endpoint
Ja

AzureChatDataSourceIntegratedVectorizationSource

Stellt eine integrierte Vektorisierungsquelle dar, die in der unterstützenden Suchressource definiert ist.

Name Typ Description Erforderlich Default
type enum Der Typbezeichner, immer „integriert” für diesen Vektorisierungsquelltyp.
Möglicher Wert: integrated
Ja

AzureChatDataSourceKeyAndKeyIdAuthenticationOptions

Name Typ Description Erforderlich Default
Schlüssel Schnur Ja
key_id Schnur Ja
type enum
Möglicher Wert: key_and_key_id
Ja

AzureChatDataSourceModelIdVectorizationSource

Stellt eine Vektorisierungsquelle dar, die Dienstaufrufe basierend auf einer search service Modell-ID vorgibt. Dieser Quelltyp wird derzeit nur von Elasticsearch unterstützt.

Name Typ Description Erforderlich Default
model_id Schnur Die Einbettungsmodell-Build-ID, die für die Vektorisierung verwendet werden soll. Ja
type enum Der Typbezeichner, immer "model_id" für diesen Vektorisierungsquelltyp.
Möglicher Wert: model_id
Ja

AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: system_assigned_managed_identity
Ja

AzureChatDataSourceType

Eigentum Wert
Typ Schnur
Werte azure_search
azure_cosmos_db
elasticsearch
pinecone
mongo_db

AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions

Name Typ Description Erforderlich Default
managed_identity_resource_id Schnur Ja
type enum
Möglicher Wert: user_assigned_managed_identity
Ja

AzureChatDataSourceUsernameAndPasswordAuthenticationOptions

Name Typ Description Erforderlich Default
Kennwort Schnur Ja
type enum
Möglicher Wert: username_and_password
Ja
username Schnur Ja

AzureChatDataSourceVectorizationSource

Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann.

Diskriminator für AzureChatDataSourceVectorizationSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
deployment_name AzureChatDataSourceDeploymentNameVectorizationSource
integrated AzureChatDataSourceIntegratedVectorizationSource
model_id AzureChatDataSourceModelIdVectorizationSource
Name Typ Description Erforderlich Default
type Objekt Ja

AzureChatDataSourceVectorizationSourceType

Eigentum Wert
Typ Schnur
Werte endpoint
deployment_name
model_id
integrated

AzureChatMessageContext

Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI service bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data".

Name Typ Description Erforderlich Default
all_retrieved_documents Objekt Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. Nein
└– chunk_id Schnur Die Segment-ID für das Zitat. Nein
└– Inhalt Schnur Der Inhalt des Zitats. Nein
└– Datenquellenindex Integer Der Index der Datenquelle, die für den Abruf verwendet wird. Nein
└– Dateipfad Schnur Der Dateipfad für das Zitat. Nein
└– filter_begründung enum Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
Nein
└− original_search_score number Die ursprüngliche Suchergebnisscore für den Abruf. Nein
└– rerank_score number Der Neubewertungsscore für den Abruf. Nein
└– Suchanfragen Array Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. Nein
└– Titel Schnur Der Titel für das Zitat. Nein
└– URL Schnur Die URL des Zitats. Nein
Zitationen Array Die Zitate, die vom Datenabruf erzeugt werden. Nein
Absicht Schnur Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten Nein

AzureContentFilterBlocklistResult

Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten.

Name Typ Description Erforderlich Default
details Array Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Ja

AzureContentFilterCompletionTextSpan

Eine Darstellung einer Spanne von Abschlusstext, wie von Azure OpenAI-Inhaltsfilterergebnissen verwendet.

Name Typ Description Erforderlich Default
completion_end_offset Integer Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. Ja
completion_start_offset Integer Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. Ja

AzureContentFilterCompletionTextSpanDetectionResult

Name Typ Description Erforderlich Default
details Array Detaillierte Informationen zu den erkannten Abschlusstextabschnitten. Ja
erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja

AzureContentFilterCustomTopicResult

Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen.

Name Typ Description Erforderlich Default
details Array Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Ja

AzureContentFilterDetectionResult

Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde.

Name Typ Description Erforderlich Default
erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja

AzureContentFilterImagePromptResults

Ein Inhaltsfilterergebnis für den Eingabeanforderungsinhalt eines Bildgenerierungsvorgangs.

Name Typ Description Erforderlich Default
custom_blocklists Objekt Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten Array Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Nein
custom_topics Objekt Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten Array Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Nein
jailbreak Objekt Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. Ja
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
Profanität Objekt Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein

AzureContentFilterImageResponseResults

Ein Inhaltsfilterergebnis für den Ausgabeantwortinhalt eines Bildgenerierungsvorgangs.

Name Typ Description Erforderlich Default
hate Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
Selbstverletzung Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
sexual Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
Gewalt Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein

AzureContentFilterResultForChoice

Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird.

Name Typ Description Erforderlich Default
custom_blocklists Objekt Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten Array Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Nein
custom_topics Objekt Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten Array Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Nein
Fehler Objekt Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. Nein
└– Code Integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. Nein
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Nein
hate Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
Profanität Objekt Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
protected_material_code Objekt Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. Nein
└- Zitat Objekt Falls verfügbar, geben die Zitatdetails die zugehörige Lizenz und deren Standort an. Nein
└– URL Schnur Die mit der Lizenz verknüpfte URL. Nein
└– Lizenz Schnur Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
protected_material_text Objekt Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
Selbstverletzung Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
sexual Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Nein
Gewalt Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein

AzureContentFilterResultForPrompt

Ein Inhaltsfilterergebnis, das einem einzelnen Eingabeaufforderungselement in einem generativen KI-System zugeordnet ist.

Name Typ Description Erforderlich Default
Content-Filtern-Egebnisse Objekt Die Inhaltsfilterkategoriedetails für das Ergebnis. Nein
└– benutzerdefinierte Sperrlisten Objekt Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten Array Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Nein
└– custom_topics Objekt Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten Array Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Nein
└– Fehler Objekt Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. Nein
└– Code Integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. Nein
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Nein
└– Hass Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
└– indirekter_Angriff Objekt Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
└– Entsperrung Objekt Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
└– Profanität Objekt Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
└– Selbstverletzung Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
└─ sexuell Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
└– Gewalt Objekt Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde. Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
prompt_index Integer Der Index der Eingabeaufforderung, die den zugehörigen Inhaltsfilterergebniskategorien zugeordnet ist. Nein

AzureContentFilterSeverityResult

Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde.

Name Typ Description Erforderlich Default
gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
severity enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja

AzureCosmosDBChatDataSource

Stellt eine Datenquellenkonfiguration dar, die eine Azure CosmosDB-Ressource verwendet.

Name Typ Description Erforderlich Default
parameters Objekt Die Parameterinformationen zum Steuern der Verwendung der Azure CosmosDB-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht spezifiziert oder als "false" angegeben wird, schlägt die Anfrage fehl, wenn eine Suchabfrage fehlschlägt. Nein Falsch
└– Authentifizierung AzureChatDataSourceConnectionStringAuthenticationOptions Nein
└– container_name Schnur Nein
└– database_name Schnur Nein
└– embedding_dependency AzureChatDataSourceVectorizationSource Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. Nein
└– fields_mapping Objekt Nein
└– content_fields Array Nein
└─ Inhalt_Feldtrenner Schnur Nein
└– filepath_field Schnur Nein
└– Titel_Feld Schnur Nein
└– url_field Schnur Nein
└─ Vektorfelder Array Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen Array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Nein
└– max_search_queries Integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
Nein
└– Striktheit Integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Striktheit erhöht die Genauigkeit, aber verringert den Abruf der Antwort.
Nein
└– top_n_documents Integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. Nein
type enum Der unterscheidende Typbezeichner, der immer "azure_cosmos_db" ist.
Möglicher Wert: azure_cosmos_db
Ja

AzureCreateChatCompletionRequest

Das erweiterte Anforderungsmodell für Chatabschlusse mit dem Azure OpenAI service. Dadurch wird die Möglichkeit hinzugefügt, Datenquellen für das Feature "On Your Data" bereitzustellen.

Name Typ Description Erforderlich Default
audio Objekt Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"] angefordert wird. Nein
└─ Format enum Gibt das Audioformat der Ausgabe an. Muss eine von wav, mp3, flac, opus oder pcm16 sein.
Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16
Nein
└– Stimme Objekt Nein
data_sources Array Die Datenquellen, die für das Feature "On Your Data" verwendet werden sollen, ausschließlich für Azure OpenAI. Nein
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. Nein 0
function_call enum Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
Mögliche Werte: none, auto
Nein
Funktionen Array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert.
Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
Nein Nichts
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. Nein Falsch
max_completion_tokens Integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
maximale_Anzahl_von_Tokens Integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.
Dieser Wert kann verwendet werden, um die Kosten für Text zu steuern, der über die API generiert wird.

Dieser Wert ist jetzt zugunsten von max_completion_tokens veraltet und nicht mit Modellen der o1-Serie kompatibel.
Nein
messages Array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Abhängig vom verwendeten Modell werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, z. B. Text, Bilder und Audio. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
modalities Objekt Ausgabetypen, die vom Modell generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:

["text", "audio"]
Nein
Modell Schnur Der Modellimplementierungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. Ja
n Integer Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. Nein 1
Parallele Werkzeugaufrufe Objekt Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
prediction Objekt Basisdarstellung der vorhergesagten Ausgabe eines Modells. Nein
└– Typ OpenAI.ChatOutputPredictionType Nein
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. Nein 0
Denkanstrengung Objekt Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Nein
Antwortformat Objekt Nein
└– Typ enum
Mögliche Werte: text, , json_objectjson_schema
Nein
seed Integer Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen.
Nein
Stopp Objekt Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.
Nein
store boolean Gibt an, ob die Ausgabe dieser Chat-Abschlussanforderung für die Verwendung in Evaluationsprodukten oder der Modelldestillation gespeichert werden soll. Nein Falsch
Datenstrom boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Nein Falsch
stream_options Objekt Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. Nein
└– include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor der data: [DONE]-Nachricht gestreamt. Das Feld usage in diesem Block zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das Feld choices ist immer ein leeres Array.

Alle anderen Blöcke enthalten auch ein Feld usage, jedoch mit einem NULL-Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält.
Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Nein
Werkzeuge Array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
user Schnur Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
user_security_context AzureUserSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. Nein

AzureCreateChatCompletionResponse

Das erweiterte Antwortmodell für die Abschlussantwort auf oberster Ebene für den Chat für die Azure OpenAI service. Dieses Modell fügt Anmerkungen zum Inhaltsfilter für verantwortungsvolle KI für Prompteingabe hinzu.

Name Typ Description Erforderlich Default
Optionen Array Ja
erstellt Integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Ja
id Schnur Ein eindeutiger Bezeichner für die Chatvervollständigung Ja
Modell Schnur Das Modell, das für die Chatvervollständigung verwendet wird Ja
Objekt enum Der Objekttyp, der immer chat.completion ist.
Möglicher Wert: chat.completion
Ja
prompt_filter_results Array Die Anmerkungen zu Inhaltsfiltern für verantwortungsvolle KI, die mit Prompteingaben in Chatabschlüsse verknüpft sind. Nein
Systemfingerabdruck Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
Nein
usage OpenAI.CompletionUsage Nutzungsstatistiken für die Vervollständigungsanforderung Nein

AzureCreateChatCompletionStreamResponse

Name Typ Description Erforderlich Default
Optionen Array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere Elemente enthalten, wenn n größer als 1 ist. Kann auch für den letzten Block leer sein, wenn Sie stream_options: {"include_usage": true} gesetzt haben. Ja
Content-Filtern-Egebnisse AzureContentFilterResultForChoice Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. Nein
erstellt Integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Alle Blöcke weisen den gleichen Zeitstempel auf. Ja
delta AzureChatCompletionStreamResponseDelta Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht im Azure OpenAI service.
Dieses Modell unterstützt den Kontext von Chatnachrichten, der von der Funktion "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der durchgeführten retrieval-augmentierten Generierung verwendet wird.
Nein
id Schnur Ein eindeutiger Bezeichner für die Chatvervollständigung Jeder Block weist die gleiche ID auf. Ja
Modell Schnur Das Modell, das die Vervollständigung generiert. Ja
Objekt enum Der Objekttyp, der immer chat.completion.chunk ist.
Möglicher Wert: chat.completion.chunk
Ja
Systemfingerabdruck Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
Nein
usage Objekt Nutzungsstatistiken für die Vervollständigungsanforderung Nein
└– completion_tokens Integer Anzahl der Token in der generierten Vervollständigung Nein 0
└– completion_tokens_details Objekt Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. Nein
└– akzeptierte_Vorhersage_Token Integer Bei Verwendung von „Vorhergesagte Ausgaben” die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. Nein 0
└– audio_tokens Integer Vom Modell generierte Audioeingabetoken. Nein 0
└– reasoning_tokens Integer Vom Modell generierte Tokens zur Begründung. Nein 0
└– rejected_prediction_tokens Integer Bei Verwendung von „Vorhergesagte Ausgaben” die Anzahl der Token in der Vorhersage, die im Abschluss nicht angezeigt wurde. Diese Token werden jedoch, wie Begründungstoken, weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. Nein 0
└– prompt_tokens Integer Anzahl der Token im Prompt. Nein 0
└- prompt_tokens_details Objekt Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. Nein
└– audio_tokens Integer Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. Nein 0
└– zwischengespeicherte_Token Integer Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. Nein 0
└– total_tokens Integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Nein 0

AzureCreateEmbeddingRequest

Name Typ Description Erforderlich Default
dimensions Integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. Nein
encoding_format enum Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.
Mögliche Werte: float, base64
Nein
Eingabe Zeichenfolge oder Array Ja
Modell Schnur Das Modell, das für die Einbettungsanforderung verwendet werden soll. Ja
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

AzureCreateFileRequestMultiPart

Name Typ Description Erforderlich Default
expires_after Objekt Ja
└– Anker AzureFileExpiryAnchor Nein
└─ Sekunden Integer Nein
file Schnur Ja
Zweck enum Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: - assistants: Wird in der Assistenten-API batchverwendet - : Wird in der Batch-API verwendet - fine-tune: Wird zur Feinabstimmung verwendet - evals: Wird für eval-Datasets verwendet.
Mögliche Werte: assistants, , batch, fine-tuneevals
Ja

AzureCreateImageEditRequestMultiPart

Name Typ Description Erforderlich Default
background enum Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder.
Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto verwendet wird, bestimmt es automatisch den besten Hintergrund für das Bild.

Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.
Mögliche Werte: transparent, , opaqueauto
Nein
Bild Zeichenfolge oder Array Ja
Maske Schnur Nein
Modell Schnur Die Modellimplementierung, die für den Bildbearbeitungsvorgang verwendet werden soll. Ja
n Integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. Nein 1
Ausgabekomprimierung Integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. Nein 100
Ausgabeformat enum Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss png, jpeg oder webp sein.
Der Standardwert ist png.
Mögliche Werte: png, , jpegwebp
Nein
prompt Schnur Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen für dall-e-2und 32000 Zeichen für gpt-image-1-Serienmodelle. Ja
quality enum Die Qualität des zu generierenden Bilds high, medium und low werden nur für Modelle der gpt-image-1Serie unterstützt. dall-e-2 unterstützt nur standard-Qualität. Wird standardmäßig auf auto festgelegt.
Mögliche Werte: standard, , lowmedium, , highauto
Nein
Antwortformat enum Das Format, in dem die generierten Bilder zurückgegeben werden. Muss url oder b64_json sein. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird nur für dall-e-2 unterstützt, da gpt-image-1-Serienmodelle immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json
Nein
Größe enum Die Größe der generierten Bilder. Muss eines von 1024x1024, 1536x1024 (Querformat), 1024x1536 (Hochformat) oder auto (Standardwert) für gpt-image-1-Serienmodelle und eines von 256x256, 512x512oder 1024x1024 für dall-e-2.
Mögliche Werte: 256x256, , 512x512, 1024x10241536x1024, , , 1024x1536auto
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

AzureCreateImageRequest

Name Typ Description Erforderlich Default
background enum Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder.
Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto verwendet wird, bestimmt es automatisch den besten Hintergrund für das Bild.

Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.
Mögliche Werte: transparent, , opaqueauto
Nein
Modell Schnur Die Modellimplementierung, die für die Bildgeneration verwendet werden soll. Ja
moderation enum Steuern Sie die Inhaltsmoderationsebene für Bilder, die von gpt-image-1-Serienmodellen generiert werden. Muss entweder low für weniger restriktive Filterung oder auto (Standardwert) sein.
Mögliche Werte: low, auto
Nein
n Integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. Für dall-e-3 wird nur n=1 unterstützt. Nein 1
Ausgabekomprimierung Integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. Nein 100
Ausgabeformat enum Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss png, jpeg oder webp sein.
Mögliche Werte: png, , jpegwebp
Nein
prompt Schnur Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serienmodelle, 1000 Zeichen für dall-e-2 und 4000 Zeichen für dall-e-3. Ja
quality enum Die Qualität des zu generierenden Bilds

- auto (Standardwert) wählt automatisch die beste Qualität für das angegebene Modell aus.
- high, medium und low werden für Modelle der gpt-image-1Serie unterstützt.
- hd und standard sind für dall-e-3 unterstützt.
- standard ist die einzige Option für dall-e-2.
Mögliche Werte: standard, , hd, lowmedium, , , highauto
Nein
Antwortformat enum Das Format, in dem generierte Bilder mit dall-e-2 und dall-e-3 zurückgegeben werden. Muss url oder b64_json sein. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json
Nein
Größe enum Die Größe der generierten Bilder. Muss einer der folgenden Werte sein: 1024x1024, 1536x1024 (Querformat), 1024x1536 (Hochformat) oder auto (Standardwert) für Modelle der gpt-image-1-Serie, einer der folgenden Werte: 256x256, 512x512 oder 1024x1024 für dall-e-2 und einer der folgenden Werte: 1024x1024, 1792x1024 oder 1024x1792 für dall-e-3.
Mögliche Werte: auto, , 1024x1024, 1536x10241024x1536, 256x256, , 512x512, 1792x10241024x1792
Nein
style enum Die Größe der generierten Bilder. Der Parameter wird nur von dall-e-3 unterstützt. Muss vivid oder natural sein. Lebhaft bewirkt, dass sich das Modell auf die Erzeugung von hyper-realen und dramatischen Bildern stützt. Natürlich bewirkt, dass das Modell natürlichere, weniger hyper-real aussehende Bilder erzeugt.
Mögliche Werte: vivid, natural
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

AzureCreateResponse

Name Typ Description Erforderlich Default
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
einschließen Array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs
- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
Nein
Eingabe Zeichenfolge oder Array Nein
instructions Schnur Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Nein
max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Ja
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– ID Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. Nein
└– Version Schnur Optionale Version der Promptvorlage. Nein
reasoning Objekt Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Nein
└– generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
store boolean Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. Nein Richtig
Datenstrom boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Nein Falsch
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
tool_choice Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Nein
Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern, z. B. die Dateisuche.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, sodass das Modell Ihren eigenen Code aufrufen kann.
Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein

AzureCreateSpeechRequestMultiPart

Eine Darstellung der Anforderungsoptionen, die das Verhalten eines Text-zu-Sprache-Vorgangs steuern.

Name Typ Description Erforderlich Default
Eingabe Schnur Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Ja
instructions Schnur Steuern Sie die Stimme Ihres generierten Audios mit weiteren Anweisungen. Funktioniert nicht mit tts-1 oder tts-1-hd. Nein
Modell Schnur Das Modell, das für diese Text-zu-Sprache-Anforderung verwendet werden soll. Ja
Antwortformat Objekt Die unterstützten Audioausgabeformate für Text-zu-Sprache. Nein
speed number Die Geschwindigkeit der Sprache für generierte Audiodaten. Werte sind im Bereich von 0,25 bis 4,0 gültig, wobei 1,0 der Standardwert ist und höhere Werte einer schnelleren Sprache entsprechen. Nein 1
stream_format enum Das Format, in das die Audiodaten gestreamt werden sollen. Unterstützte Formate sind sse und audio. sse wird für tts-1 oder tts-1-hd nicht unterstützt.
Mögliche Werte: sse, audio
Nein
voice Objekt Ja

AzureCreateTranscriptionRequestMultiPart

Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.

Name Typ Description Erforderlich Default
chunking_strategy Objekt Nein
└– prefix_padding_ms Integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Nein 300
└– Dauer_der_Stille_in_ms Integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden).
Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
Nein 200
└– Schwellenwert number Empfindlichkeitsschwellenwert (0,0 bis 1,0) für die Spracherkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. Nein 0,5
└– Typ enum Muss auf server_vad gesetzt werden, um manuelles Chunking mithilfe der serverseitigen VAD zu aktivieren.
Möglicher Wert: server_vad
Nein
file Schnur Ja
filename Schnur Der optionale Dateiname oder der beschreibende Bezeichner, der den Audiodaten zugeordnet werden soll. Nein
include[] Array Zusätzliche Informationen, die in die Transkriptionsantwort aufgenommen werden sollen.
logprobs gibt die Protokollwahrscheinlichkeiten der Token in der Antwort zurück, um das Vertrauen des Modells in die Transkription zu verstehen.
logprobs funktioniert nur mit response_format auf json und nur mit den Modellen gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribeund gpt-4o-mini-transcribe-2025-12-15.
Nein
language Schnur Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. Nein
Modell Schnur Das Modell, das für diese Transkriptionsanforderung verwendet werden soll. Nein
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. Nein
Antwortformat Objekt Nein
Datenstrom boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Hinweis: Streaming wird für das whisper-1 Modell nicht unterstützt und wird ignoriert. Nein Falsch
Temperatur number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0
timestamp_granularities[] Array Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. Nein ['segment']

AzureCreateTranslationRequestMultiPart

Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.

Name Typ Description Erforderlich Default
file Schnur Ja
filename Schnur Optionaler Dateiname oder beschreibender Bezeichner, der den Audiodaten zugeordnet werden soll Nein
Modell Schnur Das Modell, das für diese Übersetzungsanforderung verwendet werden soll. Nein
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Der Prompt muss in englischer Sprache formuliert werden. Nein
Antwortformat Objekt Nein
Temperatur number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Nein 0

Azure-Fehlermeldung

Name Typ Description Erforderlich Default
Fehler Objekt Die Fehlerdetails. Nein
└– Code Schnur Der eindeutige, vom Computer generierte Bezeichner für den Fehler. Nein
└─ innerer_Fehler Nein
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Nein
└─ param Schnur Falls zutreffend, der dem Fehler zugeordnete Anforderungseingabeparameter Nein
└– Typ enum Der Objekttyp, immer „Fehler”.
Möglicher Wert: error
Nein

AzureEvalAPICompletionsSamplingParams

Name Typ Description Erforderlich Default
Parallele Werkzeugaufrufe boolean Nein
Antwortformat OpenAI.ResponseTextFormatConfiguration Nein
Werkzeuge Array Nein

AzureEvalAPIModelSamplingParams

Name Typ Description Erforderlich Default
maximale_Anzahl_von_Tokens Integer Die maximale Anzahl von Tokens in der generierten Ausgabe. Nein
Denkanstrengung enum Steuert den Grad des Begründungsaufwands, der während der Generierung angewendet wird.
Mögliche Werte: low, , mediumhigh
Nein
seed Integer Ein Startwert zum Initialisieren der Zufallsmuster während der Stichprobenentnahme. Nein
Temperatur number Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. Nein
top_p number Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. Nein

AzureEvalAPIResponseSamplingParams

Name Typ Description Erforderlich Default
Parallele Werkzeugaufrufe boolean Nein
Antwortformat OpenAI.ResponseTextFormatConfiguration Nein
Werkzeuge Array Nein

AzureFileExpiryAnchor

Eigentum Wert
Typ Schnur
Werte created_at

AzureFineTuneReinforcementMethod

Name Typ Description Erforderlich Default
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└– calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└– Noten Objekt Nein
└– Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein
Hyperparameter OpenAI.FineTuneReinforcementHyperparameters Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter. Nein
Antwortformat Objekt Nein
└– json_schema Objekt JSON-Schema für das Antwortformat Nein
└– Typ enum Typ des Antwortformats.
Möglicher Wert: json_schema
Nein

AzureImage

Name Typ Description Erforderlich Default
b64_json Schnur Der base64-codierte JSON-Code des generierten Bilds. Standardwert für gpt-image-1-Serienmodelle und nur vorhanden, wenn response_format auf b64_json für dall-e-2 und dall-e-3 gesetzt ist. Nein
Content-Filtern-Egebnisse AzureContentFilterImageResponseResults Ein Inhaltsfilterergebnis für den Ausgabeantwortinhalt eines Bildgenerierungsvorgangs. Ja
prompt_filter_results AzureContentFilterImagePromptResults Ein Inhaltsfilterergebnis für den Eingabeanforderungsinhalt eines Bildgenerierungsvorgangs. Ja
überarbeitete_Aufforderung Schnur Die überarbeitete Eingabeaufforderung, die zum Generieren des Bilds verwendet wurde, für dall-e-3. Nein
url Schnur Bei Verwendung von dall-e-2 oder dall-e-3, die URL des generierten Bilds, wenn response_format auf url gesetzt ist (Standardwert). Wird für Modelle der gpt-image-1Serie nicht unterstützt. Nein

AzureImagesResponse

Name Typ Description Erforderlich Default
background enum Der Hintergrundparameter, der für die Bildgenerierung verwendet wird. Entweder transparent oder opaque.
Mögliche Werte: transparent, opaque
Nein
erstellt Integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Bilds. Ja
Daten Array Nein
Ausgabeformat enum Das Ausgabeformat der Bildgenerierung. Möglich sind png, webp oder jpeg.
Mögliche Werte: png, , webpjpeg
Nein
quality enum Die Qualität des generierten Bilds. Möglich sind low, medium oder high.
Mögliche Werte: low, , mediumhigh
Nein
Größe enum Die Größe des generierten Bilds. Möglich sind 1024x1024, 1024x1536 oder 1536x1024.
Mögliche Werte: 1024x1024, , 1024x15361536x1024
Nein
usage Objekt Nur für gpt-image-1-Serienmodelle werden die Informationen zur Token-Nutzung für die Bildgenerierung angegeben. Nein
└─ Eingabe-Tokens Integer Die Anzahl der Token (Bilder und Text) in der Eingabeaufforderung. Nein
└– input_tokens_details Objekt Die Eingabetoken enthalten detaillierte Informationen für die Bildgenerierung. Nein
└– image_tokens Integer Die Anzahl der Bildtoken in der Eingabeaufforderung. Nein
└- text_tokens Integer Die Anzahl der Texttoken in der Eingabeaufforderung. Nein
└– Ausgabe-Tokens Integer Die Anzahl der Bildtoken im Ausgabebild. Nein
└– total_tokens Integer Die Gesamtzahl der Token (Bilder und Text), die für die Bildgenerierung verwendet werden. Nein

AzureListFilesResponse

Name Typ Description Erforderlich Default
Daten Array Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt enum
Möglicher Wert: list
Ja

AzureOpenAIFile

Name Typ Description Erforderlich Default
Byte Integer Die Größe der Datei in Byte. Ja
erstellt_am Integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Datei. Ja
läuft_ab_am Integer Der Unix-Zeitstempel (in Sekunden) für das Ablaufdatum der Datei. Nein
filename Schnur Der Name der Datei. Ja
id Schnur Der Dateibezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Objekt enum Der Objekttyp, der immer file ist.
Möglicher Wert: file
Ja
Zweck enum Der beabsichtigte Zweck der Datei. Unterstützte Werte sind assistants, assistants_output, batch, batch_output, fine-tune und fine-tune-results.
Mögliche Werte: assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals
Ja
status enum
Mögliche Werte: uploaded, pending, running, processed, error, deleting, deleted
Ja
status_details Schnur Deprecated. Details dazu, warum bei der Überprüfung einer Trainingsdatei für die Feinabstimmung ein Fehler aufgetreten ist, finden Sie im Feld error im fine_tuning.job. Nein

AzureOpenAIVideoGenerationErrorResponse

Name Typ Description Erforderlich Default
Code Schnur Der eindeutige, vom Computer generierte Bezeichner für den Fehler. Nein
innerer Fehler Objekt Falls zutreffend, ein Upstreamfehler, der diesen Fehler verursacht hat. Nein
└– Code enum Der code, der dem inneren Fehler zugeordnet ist.
Möglicher Wert: ResponsibleAIPolicyViolation
Nein
└─ Fehlerdetails Das Ergebnis des Inhaltsfilters, die dem inneren Fehler zugeordnet sind. Nein
└- revised_prompt Schnur Der für das Generieren geänderte Prompt, sofern zutreffend Nein
Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Nein
param Schnur Falls zutreffend, der dem Fehler zugeordnete Anforderungseingabeparameter Nein
type Schnur Die dem Fehler zugeordnete Eingabezeilennummer, sofern zutreffend Nein

AzureResponse

Name Typ Description Erforderlich Default
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
erstellt_am Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
Fehler Objekt Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Ja
└– Code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Nein
└– Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Nein
id Schnur Eindeutiger Bezeichner für diese Antwort Ja
incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Ja
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
instructions Zeichenfolge oder Array Ja
max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Modell Schnur Das Modell, das zum Generieren dieser Antwort verwendet wird. Ja
Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
output Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Ja
output_text Schnur SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– ID Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. Nein
└– Version Schnur Optionale Version der Promptvorlage. Nein
reasoning Objekt Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Nein
└– generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
status enum Der Status der Antwortgenerierung. Einer von der folgenden Werte: completed, failed, in_progress, cancelled, queued oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Ja
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
tool_choice Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Nein
Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Ja
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Ja

AzureSearchChatDataSource

Stellt eine Datenquellenkonfiguration dar, die eine Azure Suchressource verwendet.

Name Typ Description Erforderlich Default
parameters Objekt Die Parameterinformationen zum Steuern der Verwendung der Azure Suchdatenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht spezifiziert oder als "false" angegeben wird, schlägt die Anfrage fehl, wenn eine Suchabfrage fehlschlägt. Nein Falsch
└– Authentifizierung Objekt Nein
└─ Zugriffstoken Schnur Nein
└– Schlüssel Schnur Nein
└– managed_identity_resource_id Schnur Nein
└– Typ enum
Möglicher Wert: access_token
Nein
└– embedding_dependency Objekt Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. Nein
└– Authentifizierung AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions Der Authentifizierungsmechanismus, der mit der endpunktbasierten Vektorisierungsquelle verwendet werden soll.
Die Endpunktauthentifizierung unterstützt API-Schlüssel und access Tokenmechanismen.
Nein
└– deployment_name Schnur Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. Nein
└- Abmessungen Integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Wird nur in "text-embedding-3" und späteren Modellen unterstützt.
Nein
└– Endpunkt Schnur Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Es sollte im Format sein von:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter „api-version“ ist nicht zulässig.
Nein
└– Typ enum Der Typbezeichner, immer „integriert” für diesen Vektorisierungsquelltyp.
Möglicher Wert: integrated
Nein
└– Endpunkt Schnur Der absolute Endpunktpfad für die zu verwendende Azure Suchressource. Nein
└– fields_mapping Objekt Die Feldzuordnungen, die mit der Azure Suchressource verwendet werden sollen. Nein
└– content_fields Array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Nein
└─ Inhalt_Feldtrenner Schnur Das Trennmuster, das Inhaltsfelder verwenden sollen. Nein
└– filepath_field Schnur Der Name des Indexfelds, das als Dateipfad verwendet werden soll. Nein
└- image_vector_fields Array Die Namen von Feldern, die Bildvektordaten darstellen. Nein
└– Titel_Feld Schnur Der Name des Indexfelds, das als Titel verwendet werden soll. Nein
└– url_field Schnur Der Name des Indexfelds, das als URL verwendet werden soll. Nein
└─ Vektorfelder Array Die Namen von Feldern, die Vektordaten darstellen. Nein
└- Filter Schnur Ein Filter, der auf die Suche angewendet werden soll. Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen Array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Der Name des zu verwendenden Indexes, wie in der Azure Suchressource angegeben. Nein
└– max_search_queries Integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
Nein
└– Abfragetyp enum Der Abfragetyp für die zu verwendende Azure Suchressource.
Mögliche Werte: simple, , semanticvector, , vector_simple_hybridvector_semantic_hybrid
Nein
└─ semantische_Konfiguration Schnur Zusätzliche semantische Konfiguration für die Abfrage. Nein
└– Striktheit Integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Striktheit erhöht die Genauigkeit, aber verringert den Abruf der Antwort.
Nein
└– top_n_documents Integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. Nein
type enum Der diskriminierte Typbezeichner, der immer „azure_search” ist.
Möglicher Wert: azure_search
Ja

AzureUserSecurityContext

Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud.

Name Typ Description Erforderlich Default
application_name Schnur Der Name der Anwendung. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. Nein
end_user_id Schnur Dieser Bezeichner ist die Microsoft Entra ID (vormals Azure Active Directory) Benutzerobjekt-ID, die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. Nein
end_user_tenant_id Schnur Die Microsoft 365 Mandanten-ID, zu der der Endbenutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung multitenant ist. Nein
source_ip Schnur Erfasst die IP-Adresse des ursprünglichen Clients. Nein

ChatCompletionMessageToolCallsItem

Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

Array von: OpenAI.ChatCompletionMessageToolCall

CreateVideoGenerationRequest

Name Typ Description Erforderlich Default
height Integer Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Ja
Modell Schnur Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll Ja
n_seconds Integer Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. Nein 5
n_variants Integer Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Der Wert muss zwischen 1 und 5 liegen. Kleinere Abmessungen ermöglichen mehr Varianten. Nein 1
prompt Schnur Der Prompt für diesen Auftrag zur Videogenerierung Ja
width Integer Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Ja

CreateVideoGenerationWithMediaRequestMultiPart

Die Eigenschaften einer Anforderung eines Auftrags zur Videogenerierung mit Mediendateien.

Name Typ Description Erforderlich Default
files Array Ja
height Integer Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Ja
inpaint_items Array Optionale Inpainting-Elemente für diesen Auftrag zur Videogenerierung. Nein
Modell Schnur Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll Ja
n_seconds Integer Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. Nein 5
n_variants Integer Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Der Wert muss zwischen 1 und 5 liegen. Kleinere Abmessungen ermöglichen mehr Varianten. Nein 1
prompt Schnur Der Prompt für diesen Auftrag zur Videogenerierung Ja
width Integer Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Ja

CropBounds

Die Zuschnittgrenzen für ein inpainting-Element. Dadurch wird der Bereich des Medienelements angegeben, der für das Inpainting verwendet werden soll.

Name Typ Description Erforderlich Default
bottom_fraction number Die untere Grenze des Zuschnittfelds, das als Bruch der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. Nein 1
left_fraction number Die linke Begrenzung des Zuschnittfelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. Nein 0
right_fraction number Die rechte Begrenzung des Zuschnittfelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. Nein 1
top_fraction number Die obere Begrenzung des Zuschnittfelds, das als Bruchteil der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. Nein 0

ElasticsearchChatDataSource

Name Typ Description Erforderlich Default
parameters Objekt Die Parameterinformationen zum Steuern der Verwendung der Elasticsearch-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht spezifiziert oder als "false" angegeben wird, schlägt die Anfrage fehl, wenn eine Suchabfrage fehlschlägt. Nein Falsch
└– Authentifizierung Objekt Nein
└– encoded_api_key Schnur Nein
└– Schlüssel Schnur Nein
└– key_id Schnur Nein
└– Typ enum
Möglicher Wert: encoded_api_key
Nein
└– embedding_dependency AzureChatDataSourceVectorizationSource Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. Nein
└– Endpunkt Schnur Nein
└– fields_mapping Objekt Nein
└– content_fields Array Nein
└─ Inhalt_Feldtrenner Schnur Nein
└– filepath_field Schnur Nein
└– Titel_Feld Schnur Nein
└– url_field Schnur Nein
└─ Vektorfelder Array Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen Array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Nein
└– max_search_queries Integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
Nein
└– Abfragetyp enum
Mögliche Werte: simple, vector
Nein
└– Striktheit Integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Striktheit erhöht die Genauigkeit, aber verringert den Abruf der Antwort.
Nein
└– top_n_documents Integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. Nein
type enum Der diskriminierte Typbezeichner, der immer „elasticsearch” ist.
Möglicher Wert: elasticsearch
Ja

InpaintItem

Ein inpainting-Element für einen Auftrag zur Videogenerierung. Dadurch wird das Medienelement angegeben, das für das Inpainting in der Videogenerierung verwendet werden soll.

Name Typ Description Erforderlich Default
crop_bounds Objekt Die Zuschnittgrenzen für ein inpainting-Element.
Dadurch wird der Bereich des Medienelements angegeben, der für das Inpainting verwendet werden soll.
Nein
└– bottom_fraction number Die untere Grenze des Zuschnittfelds, das als Bruch der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. Nein 1
└– left_fraction number Die linke Begrenzung des Zuschnittfelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. Nein 0
└– right_fraction number Die rechte Begrenzung des Zuschnittfelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. Nein 1
└- top_fraction number Die obere Begrenzung des Zuschnittfelds, das als Bruchteil der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. Nein 0
file_name Schnur Der Dateiname des Medienelements. Er muss mit dem Dateinamen einer Dateianlage in dieser Anforderung übereinstimmen. Ja
frame_index Integer Der Frameindex für dieses Medienelement. Dadurch wird der Startframe im resultierenden generierten Video für dieses inpainting-Element angegeben. Ja 0
type Objekt Der Typ des inpainting-Elements. Ja

Arbeitsstatus

Der Status eines Auftrags zur Videogenerierung.

Eigentum Wert
Beschreibung Der Status eines Auftrags zur Videogenerierung.
Typ Schnur
Werte preprocessing
queued
running
processing
cancelled
succeeded
failed

MediaItemType

Der Typ des inpainting-Elements.

Eigentum Wert
Beschreibung Der Typ des inpainting-Elements.
Typ Schnur
Werte image

MongoDBChatDataSource

Name Typ Description Erforderlich Default
parameters Objekt Die Parameterinformationen zum Steuern der Verwendung der MongoDB-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht spezifiziert oder als "false" angegeben wird, schlägt die Anfrage fehl, wenn eine Suchabfrage fehlschlägt. Nein Falsch
└– app_name Schnur Der Name der MongoDB-Anwendung. Nein
└– Authentifizierung Objekt Nein
└– Kennwort Schnur Nein
└– Typ enum
Möglicher Wert: username_and_password
Nein
└– Benutzername Schnur Nein
└- collection_name Schnur Der Name der MongoDB-Sammlung. Nein
└– database_name Schnur Der Name der MongoDB-Datenbank. Nein
└– embedding_dependency Objekt Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. Nein
└– Authentifizierung AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions Der Authentifizierungsmechanismus, der mit der endpunktbasierten Vektorisierungsquelle verwendet werden soll.
Die Endpunktauthentifizierung unterstützt API-Schlüssel und access Tokenmechanismen.
Nein
└– deployment_name Schnur Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. Nein
└- Abmessungen Integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Wird nur in "text-embedding-3" und späteren Modellen unterstützt.
Nein
└– Endpunkt Schnur Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Es sollte im Format sein von:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter „api-version“ ist nicht zulässig.
Nein
└– Typ enum Der Typbezeichner, immer "deployment_name" für diesen Vektorisierungsquelltyp.
Möglicher Wert: deployment_name
Nein
└– Endpunkt Schnur Der Name des MongoDB-Clusterendpunkts. Nein
└– fields_mapping Objekt Feldzuordnungen, die auf Daten angewendet werden, die von der MongoDB-Datenquelle stammen.
Beachten Sie, dass Für MongoDB Inhalts- und Vektorfeldzuordnungen erforderlich sind.
Nein
└– content_fields Array Nein
└─ Inhalt_Feldtrenner Schnur Nein
└– filepath_field Schnur Nein
└– Titel_Feld Schnur Nein
└– url_field Schnur Nein
└─ Vektorfelder Array Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen Array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Der Name des MongoDB-Indexes. Nein
└– max_search_queries Integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
Nein
└– Striktheit Integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Striktheit erhöht die Genauigkeit, aber verringert den Abruf der Antwort.
Nein
└– top_n_documents Integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. Nein
type enum Der diskriminierte Typbezeichner, der immer "mongo_db" ist.
Möglicher Wert: mongo_db
Ja

OpenAI.Annotation

Diskriminator für OpenAI.Annotation

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Name Typ Description Erforderlich Default
type OpenAI.AnnotationType Ja

OpenAI.AnnotationFileCitation

Ein Verweis auf eine Datei.

Name Typ Description Erforderlich Default
Datei-ID Schnur Die ID der Datei. Ja
filename Schnur Der Dateiname der Datei, auf die verwiesen wird. Ja
Index Integer Der Index der Datei in der Liste der Dateien. Ja
type enum Der Typ des Dateizitats Immer file_citation.
Möglicher Wert: file_citation
Ja

OpenAI.AnnotationFilePath

Ein Pfad zu einer Datei.

Name Typ Description Erforderlich Default
Datei-ID Schnur Die ID der Datei. Ja
Index Integer Der Index der Datei in der Liste der Dateien. Ja
type enum Der Typ des Dateipfads. Immer file_path.
Möglicher Wert: file_path
Ja

OpenAI.AnnotationType

Eigentum Wert
Typ Schnur
Werte file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.

Name Typ Description Erforderlich Default
end_index Integer Der Index des letzten Zeichens des URL-Zitats in der Nachricht. Ja
start_index Integer Der Index des ersten Zeichens des URL-Zitats in der Nachricht. Ja
title Schnur Der Titel der Webressource. Ja
type enum Der Typ des URL-Zitats. Immer url_citation.
Möglicher Wert: url_citation
Ja
url Schnur Die URL der Webressource. Ja

OpenAI.ApproximateLocation

Name Typ Description Erforderlich Default
city Schnur Nein
country Schnur Nein
region Schnur Nein
timezone Schnur Nein
type enum
Möglicher Wert: approximate
Ja

OpenAI.AudioResponseFormat

Das Format der Ausgabe in einer der folgenden Optionen: json, , text, , srt, verbose_jsonoder vtt. Für gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15. Das einzige unterstützte Format ist json.

Eigentum Wert
Beschreibung Das Format der Ausgabe in einer der folgenden Optionen: json, , text, , srt, verbose_jsonoder vtt. Für gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15. Das einzige unterstützte Format ist json.
Typ Schnur
Werte json
text
srt
verbose_json
vtt

OpenAI.AutoChunkingStrategyRequestParam

Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400.

Name Typ Description Erforderlich Default
type enum Immer auto.
Möglicher Wert: auto
Ja

OpenAI.ChatCompletionFunctionCallOption

Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

Name Typ Description Erforderlich Default
Name Schnur Der Name der aufzurufenden Funktion. Ja

OpenAI.ChatCompletionFunctions

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
Name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
parameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
Eine Dokumentation zum Format finden Sie in der JSON-Schemareferenz .

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Nein

OpenAI.ChatCompletionMessageAudioChunk

Name Typ Description Erforderlich Default
Daten Schnur Nein
läuft_ab_am Integer Nein
id Schnur Nein
Transkript Schnur Nein

OpenAI.ChatCompletionMessageToolCall

Name Typ Description Erforderlich Default
Funktion Objekt Die Funktion, die das Modell aufgerufen hat Ja
└- Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. Nein
└– Name Schnur Der Name der aufzurufenden Funktion. Nein
id Schnur Die ID des Toolaufrufs Ja
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionMessageToolCallChunk

Name Typ Description Erforderlich Default
Funktion Objekt Nein
└- Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. Nein
└– Name Schnur Der Name der aufzurufenden Funktion. Nein
id Schnur Die ID des Toolaufrufs Nein
Index Integer Ja
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Nein

OpenAI.ChatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ Description Erforderlich Default
Funktion Objekt Ja
└– Name Schnur Der Name der aufzurufenden Funktion. Nein
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionRequestAssistantMessage

Nachrichten, die vom Modell als Reaktion auf Benutzernachrichten gesendet werden.

Name Typ Description Erforderlich Default
audio Objekt Daten zu einer vorherigen Audioantwort aus dem Modell. Nein
└– ID Schnur Eindeutiger Bezeichner für eine vorherige Audioantwort des Modells. Nein
Inhalt Zeichenfolge oder Array Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
Name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
Ablehnung Schnur Die Ablehnungsnachricht des Assistenten. Nein
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).
Möglicher Wert: assistant
Ja
tool_calls ChatCompletionMessageToolCallsItem Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. Nein

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Name Typ Description Erforderlich Default
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja
Text Schnur Der Textinhalt. Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: refusal
Ja

OpenAI.ChatCompletionRequestDeveloperMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren Modellen ersetzen developer-Nachrichten die vorherigen system-Nachrichten.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
Name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: developer).
Möglicher Wert: developer
Ja

OpenAI.ChatCompletionRequestFunctionMessage

Name Typ Description Erforderlich Default
Inhalt Schnur Die Inhalte der Funktionsmeldung. Ja
Name Schnur Der Name der aufzurufenden Funktion. Ja
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Möglicher Wert: function
Ja

OpenAI.ChatCompletionRequestMessage

Diskriminator für OpenAI.ChatCompletionRequestMessage

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
system OpenAI.ChatCompletionRequestSystemMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
user OpenAI.ChatCompletionRequestUserMessage
assistant OpenAI.ChatCompletionRequestAssistantMessage
tool OpenAI.ChatCompletionRequestToolMessage
function OpenAI.ChatCompletionRequestFunctionMessage
Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Nein
role Objekt Die Rolle des Autors einer Nachricht Ja

OpenAI.ChatCompletionRequestMessageContentPart

Diskriminator for OpenAI.ChatCompletionRequestMessageContentPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
text OpenAI.ChatCompletionRequestMessageContentPartText
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
file OpenAI.ChatCompletionRequestMessageContentPartFile
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
Name Typ Description Erforderlich Default
type OpenAI.ChatCompletionRequestMessageContentPartType Ja

OpenAI.ChatCompletionRequestMessageContentPartAudio

Name Typ Description Erforderlich Default
input_audio Objekt Ja
└– Daten Schnur Base64-codierte Audiodaten. Nein
└─ Format enum Das Format der codierten Audiodaten. Unterstützt derzeit „wav” und „mp3”.
Mögliche Werte: wav, mp3
Nein
type enum Der Typ des Inhaltsteils Immer input_audio.
Möglicher Wert: input_audio
Ja

OpenAI.ChatCompletionRequestMessageContentPartFile

Name Typ Description Erforderlich Default
file Objekt Ja
└– file_data Schnur Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet werden. Nein
└– file_id Schnur Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. Nein
└– Dateiname Schnur Der Name der Datei wird als Zeichenfolge verwendet, wenn die Datei an das Modell übergeben wird. Nein
type enum Der Typ des Inhaltsteils Immer file.
Möglicher Wert: file
Ja

OpenAI.ChatCompletionRequestMessageContentPartImage

Name Typ Description Erforderlich Default
image_url Objekt Ja
└– Detail enum Gibt den Detailgrad des Bilds an.
Mögliche Werte: auto, , lowhigh
Nein
└– URL Schnur Entweder eine URL des Bilds oder die base64-codierten Bilddaten Nein
type enum Der Typ des Inhaltsteils
Möglicher Wert: image_url
Ja

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Name Typ Description Erforderlich Default
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: refusal
Ja

OpenAI.ChatCompletionRequestMessageContentPartText

Name Typ Description Erforderlich Default
Text Schnur Der Textinhalt. Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: text
Ja

OpenAI.ChatCompletionRequestMessageContentPartType

Eigentum Wert
Typ Schnur
Werte text
file
input_audio
image_url
refusal

OpenAI.ChatCompletionRequestSystemMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Verwenden Sie stattdessen developer-Nachrichten für diesen Zweck mit o1-Modellen und neueren.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
Name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: system).
Möglicher Wert: system
Ja

OpenAI.ChatCompletionRequestSystemMessageContentPart

Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).
Möglicher Wert: tool
Ja
tool_call_id Schnur Toolaufruf, auf den diese Nachricht reagiert. Ja

OpenAI.ChatCompletionRequestToolMessageContentPart

Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Von einem Endbenutzer gesendete Nachrichten, die Eingabeaufforderungen oder zusätzliche Kontextinformationen enthalten.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
Name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: user).
Möglicher Wert: user
Ja

OpenAI.ChatCompletionRequestUserMessageContentPart

Name Typ Description Erforderlich Default
file Objekt Ja
└– file_data Schnur Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet werden. Nein
└– file_id Schnur Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. Nein
└– Dateiname Schnur Der Name der Datei wird als Zeichenfolge verwendet, wenn die Datei an das Modell übergeben wird. Nein
image_url Objekt Ja
└– Detail enum Gibt den Detailgrad des Bilds an.
Mögliche Werte: auto, , lowhigh
Nein
└– URL Schnur Entweder eine URL des Bilds oder die base64-codierten Bilddaten Nein
input_audio Objekt Ja
└– Daten Schnur Base64-codierte Audiodaten. Nein
└─ Format enum Das Format der codierten Audiodaten. Unterstützt derzeit „wav” und „mp3”.
Mögliche Werte: wav, mp3
Nein
Text Schnur Der Textinhalt. Ja
type enum Der Typ des Inhaltsteils Immer file.
Möglicher Wert: file
Ja

OpenAI.ChatCompletionRole

Die Rolle des Autors einer Nachricht

Eigentum Wert
Beschreibung Die Rolle des Autors einer Nachricht
Typ Schnur
Werte system
developer
user
assistant
tool
function

OpenAI.ChatCompletionStreamOptions

Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.

Name Typ Description Erforderlich Default
include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor der data: [DONE]-Nachricht gestreamt. Das Feld usage in diesem Block zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das Feld choices ist immer ein leeres Array.

Alle anderen Blöcke enthalten auch ein Feld usage, jedoch mit einem NULL-Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält.
Nein

OpenAI.ChatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.

Name Typ Description Erforderlich Default
audio Objekt Nein
└– Daten Schnur Nein
└– abläuft_am Integer Nein
└– ID Schnur Nein
└– Transkript Schnur Nein
Inhalt Schnur Die Inhalte der Blocknachricht. Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Nein
role Objekt Die Rolle des Autors einer Nachricht Nein
tool_calls Array Nein

OpenAI.ChatCompletionTokenLogprob

Name Typ Description Erforderlich Default
Byte Array Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. Ja
logprob number Die Protokollwahrscheinlichkeit dieses Tokens, wenn es zu den 20 wahrscheinlichsten Tokens gehört. Andernfalls wird der Wert „-9999.0“ verwendet, um zu kennzeichnen, dass das Token sehr unwahrscheinlich ist. Ja
token Schnur Das Token. Ja
top_logprobs Array Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. Ja

OpenAI.ChatCompletionTool

Name Typ Description Erforderlich Default
Funktion OpenAI.FunctionObject Ja
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Name Typ Description Erforderlich Default
Funktion Objekt Ja
└– Name Schnur Der Name der aufzurufenden Funktion. Nein
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatOutputPrediction

Basisdarstellung der vorhergesagten Ausgabe eines Modells.

Diskriminator für OpenAI.ChatOutputPrediction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
content OpenAI.ChatOutputPredictionContent
Name Typ Description Erforderlich Default
type OpenAI.ChatOutputPredictionType Ja

OpenAI.ChatOutputPredictionContent

Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
type enum Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.
Möglicher Wert: content
Ja

OpenAI.ChatOutputPredictionType

Eigentum Wert
Typ Schnur
Werte content

OpenAI.ChunkingStrategyRequestParam

Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet.

Diskriminator für OpenAI.ChunkingStrategyRequestParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
static OpenAI.StaticChunkingStrategyRequestParam
Name Typ Description Erforderlich Default
type enum Die Art der Blockbildungsstrategie.
Mögliche Werte: auto, static
Ja

OpenAI.ChunkingStrategyResponseParam

Diskriminator für OpenAI.ChunkingStrategyResponseParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
other OpenAI.OtherChunkingStrategyResponseParam
static OpenAI.StaticChunkingStrategyResponseParam
Name Typ Description Erforderlich Default
type enum
Mögliche Werte: static, other
Ja

OpenAI.CodeInterpreterOutput

Diskriminator für OpenAI.CodeInterpreterOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Name Typ Description Erforderlich Default
type OpenAI.CodeInterpreterOutputType Ja

OpenAI.CodeInterpreterOutputImage

Die Bildausgabe des Code-Interpreters.

Name Typ Description Erforderlich Default
type enum Der Typ der Ausgabe. Immer „image“.
Möglicher Wert: image
Ja
url Schnur Die URL der Bildausgabe des Code-Interpreters. Ja

OpenAI.CodeInterpreterOutputLogs

Die Protokollausgabe aus dem Code-Interpreter.

Name Typ Description Erforderlich Default
logs Schnur Die Protokollausgabe aus dem Code-Interpreter. Ja
type enum Der Typ der Ausgabe. Immer „logs“.
Möglicher Wert: logs
Ja

OpenAI.CodeInterpreterOutputType

Eigentum Wert
Typ Schnur
Werte logs
image

OpenAI.CodeInterpreterTool

Ein Tool, das Python-Code ausführt, um eine Antwort auf eine Eingabeaufforderung zu generieren.

Name Typ Description Erforderlich Default
container Objekt Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll. Ja
└– file_ids Array Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. Nein
└– Typ enum Immer auto.
Möglicher Wert: auto
Nein
type enum Der Typ des Codedolmetschertools. Immer code_interpreter.
Möglicher Wert: code_interpreter
Ja

OpenAI.CodeInterpreterToolAuto

Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll.

Name Typ Description Erforderlich Default
Datei-IDs Array Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. Nein
type enum Immer auto.
Möglicher Wert: auto
Ja

OpenAI.CodeInterpreterToolCallItemParam

Ein Toolaufruf zum Ausführen von Code.

Name Typ Description Erforderlich Default
Code Schnur Der auszuführende Code oder NULL, falls nicht verfügbar. Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
Ergebnisse Array Die vom Code-Interpreter generierten Ausgaben, z. B. Protokolle oder Bilder.
Kann NULL sein, wenn keine Ausgaben verfügbar sind.
Ja
type enum
Möglicher Wert: code_interpreter_call
Ja

OpenAI.CodeInterpreterToolCallItemResource

Ein Toolaufruf zum Ausführen von Code.

Name Typ Description Erforderlich Default
Code Schnur Der auszuführende Code oder NULL, falls nicht verfügbar. Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
Ergebnisse Array Die vom Code-Interpreter generierten Ausgaben, z. B. Protokolle oder Bilder.
Kann NULL sein, wenn keine Ausgaben verfügbar sind.
Ja
status enum
Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed
Ja
type enum
Möglicher Wert: code_interpreter_call
Ja

OpenAI.Vergleichsfilter

Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.

Name Typ Description Erforderlich Default
Schlüssel Schnur Der Schlüssel für den Vergleich mit dem Wert Ja
type enum Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte
- eq: entspricht
- ne: ungleich
- gt:größer als
- gte: größer oder gleich
- lt:weniger als
- lte: kleiner oder gleich.
Mögliche Werte: eq, , ne, gtgte, , , ltlte
Ja
Wert Zeichenfolge oder Zahl oder boolescher Wert Ja

OpenAI.CompletionUsage

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Typ Description Erforderlich Default
completion_tokens Integer Anzahl der Token in der generierten Vervollständigung Ja 0
completion_tokens_details Objekt Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. Nein
└– akzeptierte_Vorhersage_Token Integer Bei Verwendung von „Vorhergesagte Ausgaben” die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. Nein 0
└– audio_tokens Integer Vom Modell generierte Audioeingabetoken. Nein 0
└– reasoning_tokens Integer Vom Modell generierte Tokens zur Begründung. Nein 0
└– rejected_prediction_tokens Integer Bei Verwendung von „Vorhergesagte Ausgaben” die Anzahl der Token in der Vorhersage, die im Abschluss nicht angezeigt wurde. Diese Token werden jedoch, wie Begründungstoken, weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. Nein 0
prompt_tokens Integer Anzahl der Token im Prompt. Ja 0
prompt_tokens_details Objekt Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. Nein
└– audio_tokens Integer Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. Nein 0
└– zwischengespeicherte_Token Integer Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. Nein 0
Gesamtanzahl Tokens Integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Ja 0

OpenAI.CompoundFilter

Kombinieren mehrerer Filter mit and oder or.

Name Typ Description Erforderlich Default
filters Array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Ja
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Ja

OpenAI.ComputerAction

Diskriminator für OpenAI.ComputerAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Name Typ Description Erforderlich Default
type OpenAI.ComputerActionType Ja

OpenAI.ComputerActionClick

Ein Klickvorgang.

Name Typ Description Erforderlich Default
button enum Gibt an, welche Maustaste während des Klickens gedrückt wurde. Eines von left, right, wheel, back oder forward
Mögliche Werte: left, , rightwheel, , backforward
Ja
type enum Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer auf click gesetzt.
Möglicher Wert: click
Ja
x Integer Die x-Koordinate, an der der Klick aufgetreten ist. Ja
y Integer Die y-Koordinate, an der der Klick aufgetreten ist. Ja

OpenAI.ComputerActionDoubleClick

Eine Doppelklickaktion

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf double_click gesetzt.
Möglicher Wert: double_click
Ja
x Integer Die x-Koordinate, an der der Doppelklick aufgetreten ist. Ja
y Integer Die y-Koordinate, an der der Doppelklick aufgetreten ist. Ja

OpenAI.ComputerActionDrag

Eine Ziehaktion

Name Typ Description Erforderlich Default
Pfad Array Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array von Objekten angezeigt, z. B.{ x: 100, y: 200 }, { x: 200, y: 300 } Ja
type enum Gibt den Ereignistyp an. Bei einer Ziehaktion ist diese Eigenschaft immer auf drag gesetzt.
Möglicher Wert: drag
Ja

OpenAI.ComputerActionKeyPress

Eine Sammlung von Tastendrücken, die das Modell ausführen möchte.

Name Typ Description Erforderlich Default
keys Array Die Tastenkombination, die das Modell gedrückt haben möchte. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen. Ja
type enum Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress gesetzt.
Möglicher Wert: keypress
Ja

OpenAI.ComputerActionMove

Aktion zur Änderung der Mauszeigerposition

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Bei einer Verschiebungsaktion ist diese Eigenschaft immer auf move gesetzt.
Möglicher Wert: move
Ja
x Integer Die x-Koordinate, zu der verschoben werden soll. Ja
y Integer Die y-Koordinate, zu der verschoben werden soll. Ja

OpenAI.ComputerActionScreenshot

Screenshotaktion

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf screenshot festgelegt.
Möglicher Wert: screenshot
Ja

OpenAI.ComputerActionScroll

Eine Scrollaktion

Name Typ Description Erforderlich Default
scroll_x Integer Der horizontale Scrollabstand Ja
scroll_y Integer Der vertikale Scrollabstand Ja
type enum Gibt den Ereignistyp an. Beim Scrollen wird diese Eigenschaft immer auf scroll gesetzt.
Möglicher Wert: scroll
Ja
x Integer Die X-Koordinate, an der das Scrollen erfolgt ist Ja
y Integer Die y-Koordinate, bei der das Scrollen stattfindet. Ja

OpenAI.ComputerActionType

Eigentum Wert
Typ Schnur
Werte screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Eine Aktion zum Eingeben von Text.

Name Typ Description Erforderlich Default
Text Schnur Der einzugebende Text. Ja
type enum Gibt den Ereignistyp an. Bei einer Typaktion wird diese Eigenschaft immer auf type gesetzt.
Möglicher Wert: type
Ja

OpenAI.ComputerActionWait

Eine Warteaktion.

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf wait gesetzt.
Möglicher Wert: wait
Ja

OpenAI.ComputerToolCallItemParam

Ein Toolaufruf eines von einem Computer verwendeten Tools

Name Typ Description Erforderlich Default
Handlung OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
pending_safety_checks Array Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Ja
type enum
Möglicher Wert: computer_call
Ja

OpenAI.ComputerToolCallItemResource

Ein Toolaufruf eines von einem Computer verwendeten Tools

Name Typ Description Erforderlich Default
Handlung OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
pending_safety_checks Array Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Ja
status enum Der Status des Elements. Einer der folgenden Werte: in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: computer_call
Ja

OpenAI.ComputerToolCallOutputItemOutput

Diskriminator for OpenAI.ComputerToolCallOutputItemOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Name Typ Description Erforderlich Default
type OpenAI.ComputerToolCallOutputItemOutputType Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. Ja

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Name Typ Description Erforderlich Default
Datei-ID Schnur Nein
image_url Schnur Nein
type enum
Möglicher Wert: computer_screenshot
Ja

OpenAI.ComputerToolCallOutputItemOutputType

Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.

Eigentum Wert
Beschreibung Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
Typ Schnur
Werte computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

Die Ausgabe eines Computertoolaufrufs

Name Typ Description Erforderlich Default
acknowledged_safety_checks Array Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. Nein
call_id Schnur Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. Ja
output OpenAI.ComputerToolCallOutputItemOutput Ja
type enum
Möglicher Wert: computer_call_output
Ja

OpenAI.ComputerToolCallOutputItemResource

Die Ausgabe eines Computertoolaufrufs

Name Typ Description Erforderlich Default
acknowledged_safety_checks Array Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. Nein
call_id Schnur Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. Ja
output OpenAI.ComputerToolCallOutputItemOutput Ja
status enum Der Status des Elements. Einer der folgenden Werte: in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: computer_call_output
Ja

OpenAI.ComputerToolCallSafetyCheck

Eine ausstehende Sicherheitsüberprüfung für den Computertelefonanruf.

Name Typ Description Erforderlich Default
Code Schnur Der Typ der ausstehenden Sicherheitsüberprüfung. Ja
id Schnur Die ID der ausstehenden Sicherheitsprüfung Ja
Nachricht Schnur Details zur ausstehenden Sicherheitsüberprüfung. Ja

OpenAI.ComputerUsePreviewTool

Ein Tool, das einen virtuellen Computer steuert.

Name Typ Description Erforderlich Default
Anzeigehöhe Integer Die Höhe der Computeranzeige. Ja
Bildschirmbreite Integer Die Breite der Computeranzeige. Ja
environment enum Der Typ der zu steuernden Computerumgebung.
Mögliche Werte: windows, , maclinux, , ubuntubrowser
Ja
type enum Der Typ des Tools zur Computernutzung. Immer computer_use_preview.
Möglicher Wert: computer_use_preview
Ja

OpenAI.Coordinate

Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.

Name Typ Description Erforderlich Default
x Integer Die x-Koordinate. Ja
y Integer Die y-Koordinate. Ja

OpenAI.CreateEmbeddingResponse

Name Typ Description Erforderlich Default
Daten Array Die Liste der vom Modell generierten Einbettungen. Ja
Modell Schnur Der Name des Modells, das zum Generieren der Einbettung verwendet wurde. Ja
Objekt enum Der Objekttyp, der immer „list“ lautet.
Möglicher Wert: list
Ja
usage Objekt Die Nutzungsinformationen für die Anforderung. Ja
└– prompt_tokens Integer Die Anzahl der vom Prompt verwendeten Token. Nein
└– total_tokens Integer Die Gesamtanzahl der von der Anforderung verwendeten Token. Nein

OpenAI.CreateEvalItem

Eine Chatnachricht, aus der der "Prompt" oder der Kontext besteht. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder OpenAI.EvalItemContent Texteingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Ja
role enum Die Rolle der Nachrichteneingabe. Einer der folgenden Werte: user, assistant, system oder developer.
Mögliche Werte: user, , assistant, systemdeveloper
Ja
type enum Der Typ der Nachrichteneingabe. Immer message.
Möglicher Wert: message
Nein

OpenAI.CreateEvalRunRequest

Name Typ Description Erforderlich Default
Datenquelle Objekt Ja
└– Typ OpenAI.EvalRunDataSourceType Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Name Schnur Name der Ausführung Nein

OpenAI.CreateFineTuningJobRequest

Gültige Modelle:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Name Typ Description Erforderlich Default
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
Dieser Wert ist nun zugunsten von method veraltet und sollte unter dem Parameter method übergeben werden.
Nein
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
Integrationen Array Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell string (siehe gültige Modelle unten) Der Name des Modells, das fein abgestimmt werden soll. Ja
seed Integer Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden.
Wenn Sie keinen Seed angeben, wird einer für Sie generiert.
Nein
suffix Schnur Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird.

Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen.
Nein Nichts
Trainingsdatei Schnur Die ID einer hochgeladenen Datei, die Schulungsdaten enthält. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.

Der Inhalt der Datei sollte sich unterscheiden, je nachdem, ob das Modell das ChatCompletion-Format verwendet oder wenn die Feinabstimmungsmethode das Präferenz-Format verwendet.
Ja
Validierungsdatei Schnur Die ID einer hochgeladenen Datei, die Validierungsdaten enthält.

Wenn Sie diese Datei angeben, werden die Daten verwendet, um während der Feinabstimmung regelmäßig Validierungsmetriken zu generieren. Diese Metriken können in der Datei mit den Feinabstimmungsergebnissen eingesehen werden.
Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein.

Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.
Nein

OpenAI.CreateFineTuningJobRequestIntegration

Diskriminator für OpenAI.CreateFineTuningJobRequestIntegration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Name Typ Description Erforderlich Default
type string (siehe gültige Modelle unten) Ja

OpenAI.CreateFineTuningJobRequestWandbIntegration

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: wandb
Ja
wandb Objekt Ja
└– Entität Schnur Nein
└– Name Schnur Nein
└– project Schnur Nein
└- Tags Array Nein

OpenAI.CreateVectorStoreFileBatchRequest

Name Typ Description Erforderlich Default
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Nein
Datei-IDs Array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die Dateien access können. Ja

OpenAI.CreateVectorStoreFileRequest

Name Typ Description Erforderlich Default
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Nein
Datei-ID Schnur Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die Dateien access können. Ja

OpenAI.CreateVectorStoreRequest

Name Typ Description Erforderlich Default
chunking_strategy Objekt Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400. Nein
└– statisch OpenAI.StaticChunkingStrategy Nein
└– Typ enum Immer static.
Möglicher Wert: static
Nein
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
Datei-IDs Array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die Dateien access können. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Name Schnur Der Name des Vektorspeichers. Nein

OpenAI.DeleteFileResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: file
Ja

OpenAI.DeleteVectorStoreFileResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: vector_store.file.deleted
Ja

OpenAI.DeleteVectorStoreResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: vector_store.deleted
Ja

OpenAI.Embedding

Stellt einen einbettenden Vektor dar, der vom Einbettungsendpunkt zurückgegeben wird.

Name Typ Description Erforderlich Default
embedding Array oder Zeichenfolge Ja
Index Integer Der Index der Einbettung in der Liste der Einbettungen Ja
Objekt enum Der Objekttyp, der immer „embedding“ ist.
Möglicher Wert: embedding
Ja

OpenAI.Eval

Ein Eval-Objekt mit einer Datenquellenkonfiguration und Testkriterien. Eine Eval stellt eine Aufgabe dar, die für Ihre LLM-Integration durchgeführt werden soll. Beispiel:

  • Verbessern der Qualität meines Chatbots
  • Sehen Sie, wie gut mein Chatbot den Kundensupport verarbeitet
  • Überprüfen Sie, ob o4-mini bei meinem Anwendungsfall besser ist als gpt-4o
Name Typ Description Erforderlich Default
erstellt_am Integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Evals. Ja
Datenquellenkonfiguration Objekt Ja
└– Typ OpenAI.EvalDataSourceConfigType Nein
id Schnur Eindeutiger Bezeichner für die Auswertung. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Name Schnur Der Name der Auswertung. Ja
Objekt enum Der Objekttyp.
Möglicher Wert: eval
Ja
Testkriterien Array Eine Liste der Testkriterien. Ja Nichts

OpenAI.EvalApiError

Ein Objekt, das eine Fehlerantwort der Eval-API darstellt.

Name Typ Description Erforderlich Default
Code Schnur Der Fehlercode. Ja
Nachricht Schnur Die Fehlermeldung. Ja

OpenAI.EvalCompletionsRunDataSourceParams

Ein CompletionsRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.

Name Typ Description Erforderlich Default
Eingabenachrichten Objekt Nein
└– item_reference Schnur Ein Verweis auf eine Variable im Namespace item. d.h., „item.input_trajectory“ Nein
└- Vorlage Array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. Nein
└– Typ enum Der Typ der Eingabemeldungen. Immer item_reference.
Möglicher Wert: item_reference
Nein
Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
Parameter für Stichprobennahme AzureEvalAPICompletionsSamplingParams Nein
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– erstellt_nach Integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. Nein
└– created_before Integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– Grenzwert Integer Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
└─ Modell Schnur Ein optionales Modell, nach dem gefiltert wird (z. B. "gpt-4o"). Nein
└– Typ enum Der Quelltyp. Immer stored_completions.
Möglicher Wert: stored_completions
Nein
type enum Der Typ der Ausführungsdatenquelle. Immer completions.
Möglicher Wert: completions
Ja

OpenAI.EvalCustomDataSourceConfigParams

Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird. Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Typ Description Erforderlich Default
Beispielschema einfügen boolean Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) Nein Falsch
Artikel-Schema Objekt Das JSON-Schema für jede Zeile in der Datenquelle. Ja
type enum Der Typ der Datenquelle. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.EvalCustomDataSourceConfigResource

Eine CustomDataSourceConfig, die das Schema Ihrer item und optional sample Namespaces angibt. Das Antwortschema definiert die Form der Daten, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Typ Description Erforderlich Default
Schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
type enum Der Typ der Datenquelle. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.EvalDataSourceConfigParams

Diskriminator für OpenAI.EvalDataSourceConfigParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
custom OpenAI.EvalCustomDataSourceConfigParams
logs OpenAI.EvalLogsDataSourceConfigParams
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigParams
Name Typ Description Erforderlich Default
type OpenAI.EvalDataSourceConfigType Ja

OpenAI.EvalDataSourceConfigResource

Diskriminator für OpenAI.EvalDataSourceConfigResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
custom OpenAI.EvalCustomDataSourceConfigResource
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigResource
logs OpenAI.EvalLogsDataSourceConfigResource
Name Typ Description Erforderlich Default
type OpenAI.EvalDataSourceConfigType Ja

OpenAI.EvalDataSourceConfigType

Eigentum Wert
Typ Schnur
Werte custom
logs
stored_completions

OpenAI.EvalGraderLabelModelParams

Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.

Name Typ Description Erforderlich Default
Eingabe Array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. Ja
labels Array Die Bezeichnungen, die verwendet werden, um jedes Element in der Auswertung zu klassifizieren. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
Name Schnur Name des Bewerters (Graders) Ja
passing_labels Array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
type enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.EvalGraderLabelModelResource

Name Typ Description Erforderlich Default
Eingabe Array Ja
labels Array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
Name Schnur Name des Bewerters (Graders) Ja
passing_labels Array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
type enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.EvalGraderParams

Diskriminator für OpenAI.EvalGraderParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
label_model OpenAI.EvalGraderLabelModelParams
string_check OpenAI.EvalGraderStringCheckParams
text_similarity OpenAI.EvalGraderTextSimilarityParams
python OpenAI.EvalGraderPythonParams
score_model OpenAI.EvalGraderScoreModelParams
Name Typ Description Erforderlich Default
type OpenAI.GraderType Ja

OpenAI.EvalGraderPythonParams

Name Typ Description Erforderlich Default
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
source Schnur Der Quellcode des Python-Skripts. Ja
type enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.EvalGraderPythonResource

Name Typ Description Erforderlich Default
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
source Schnur Der Quellcode des Python-Skripts. Ja
type enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.EvalGraderResource

Diskriminator für OpenAI.EvalGraderResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
label_model OpenAI.EvalGraderLabelModelResource
text_similarity OpenAI.EvalGraderTextSimilarityResource
python OpenAI.EvalGraderPythonResource
score_model OpenAI.EvalGraderScoreModelResource
Name Typ Description Erforderlich Default
type OpenAI.GraderType Ja

OpenAI.EvalGraderScoreModelParams

Name Typ Description Erforderlich Default
Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
range Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme Die Samplingparameter für das Modell. Nein
type enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.EvalGraderScoreModelResource

Name Typ Description Erforderlich Default
Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
range Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme Die Samplingparameter für das Modell. Nein
type enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.EvalGraderStringCheckParams

Name Typ Description Erforderlich Default
Eingabe Schnur Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Name Schnur Name des Bewerters (Graders) Ja
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Ja
Referenz Schnur Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
type enum Der Objekttyp, der immer string_check ist.
Möglicher Wert: string_check
Ja

OpenAI.EvalGraderTextSimilarityParams

Name Typ Description Erforderlich Default
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Ja
Referenz Schnur Der Text, für die Bewertung. Ja
type enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.EvalGraderTextSimilarityResource

Name Typ Description Erforderlich Default
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Ja
Referenz Schnur Der Text, für die Bewertung. Ja
type enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.EvalItem

Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Typ Description Erforderlich Default
Inhalt Objekt Ja
└– Typ OpenAI.EvalItemContentType Nein
role enum Die Rolle der Nachrichteneingabe. Einer der folgenden Werte: user, assistant, system oder developer.
Mögliche Werte: user, , assistant, systemdeveloper
Ja
type enum Der Typ der Nachrichteneingabe. Immer message.
Möglicher Wert: message
Nein

OpenAI.EvalItemContent

Diskriminator für OpenAI.EvalItemContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
input_text OpenAI.EvalItemContentInputText
output_text OpenAI.EvalItemContentOutputText
Name Typ Description Erforderlich Default
type OpenAI.EvalItemContentType Ja

OpenAI.EvalItemContentInputText

Name Typ Description Erforderlich Default
Text Schnur Ja
type enum
Möglicher Wert: input_text
Ja

OpenAI.EvalItemContentOutputText

Name Typ Description Erforderlich Default
Text Schnur Ja
type enum
Möglicher Wert: output_text
Ja

OpenAI.EvalItemContentType

Eigentum Wert
Typ Schnur
Werte input_text
output_text

OpenAI.EvalJsonlRunDataSourceParams

Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht.

Name Typ Description Erforderlich Default
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– Typ enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Nein
type enum Der Typ der Datenquelle. Immer jsonl.
Möglicher Wert: jsonl
Ja

OpenAI.EvalList

Ein Objekt, das eine Liste von Evals darstellt.

Name Typ Description Erforderlich Default
Daten Array Ein Array von Eval-Objekten. Ja
first_id Schnur Der Bezeichner der ersten Auswertung im Datenarray. Ja
has_more boolean Gibt an, ob weitere Auswertungen verfügbar sind. Ja
last_id Schnur Der Bezeichner der letzten Auswertung im Datenarray. Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalLogsDataSourceConfigParams

Eine Datenquellenkonfiguration, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw.

Name Typ Description Erforderlich Default
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
type enum Der Typ der Datenquelle. Immer logs.
Möglicher Wert: logs
Ja

OpenAI.EvalLogsDataSourceConfigResource

Eine LogsDataSourceConfig, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw. Das von dieser Datenquellenkonfiguration zurückgegebene Schema wird verwendet, um zu definieren, welche Variablen in Ihren Auswertungen verfügbar sind. item und sample sind bei dieser Datenquellenkonfiguration beide definiert.

Name Typ Description Erforderlich Default
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
type enum Der Typ der Datenquelle. Immer logs.
Möglicher Wert: logs
Ja

OpenAI.EvalResponsesRunDataSourceParams

Ein ResponsesRunDataSource-Objekt, das die Konfiguration einer Modellstichprobenentnahme beschreibt.

Name Typ Description Erforderlich Default
Eingabenachrichten Objekt Nein
└– item_reference Schnur Ein Verweis auf eine Variable im Namespace item. Das heißt, "item.name" Nein
└- Vorlage Array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. Nein
└– Typ enum Der Typ der Eingabemeldungen. Immer item_reference.
Möglicher Wert: item_reference
Nein
Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
Parameter für Stichprobennahme AzureEvalAPIResponseSamplingParams Nein
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– erstellt_nach Integer Nur Elemente einschließen, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– created_before Integer Nur Elemente einschließen, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– instructions_search Schnur Optionale Zeichenfolge zum Durchsuchen des Felds „instructions“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
└─ Modell Schnur Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– reasoning_effort OpenAI.ReasoningEffort Optionaler Parameter „Begründungsaufwand“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– Temperatur number Die Temperatur für die Stichprobenentnahme. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└- Werkzeuge Array Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– top_p number Kernstichprobenentnahmeparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– Typ enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Nein
└– Benutzer Array Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Ja

OpenAI.EvalRun

Ein Schema, das eine Auswertungsausführung darstellt.

Name Typ Description Erforderlich Default
erstellt_am Integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. Ja
Datenquelle Objekt Ja
└– Typ OpenAI.EvalRunDataSourceType Nein
Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Ja
eval_id Schnur Bezeichner der zugeordneten Auswertung Ja
id Schnur Eindeutiger Bezeichner für die Auswertungsausführung Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Modell Schnur Das Modell, das ausgewertet wird, falls zutreffend. Ja
Name Schnur Name der Auswertungsausführung Ja
Objekt enum Der Typ des Objekts. Immer „eval.run“
Möglicher Wert: eval.run
Ja
pro_Modell_Nutzung Array Nutzungsstatistiken für jedes Modell während der Auswertungsausführung. Ja
Ergebnisse_pro_Testkriterien Array Ergebnisse pro Testkriterien, die während der Auswertungsausführung angewendet werden. Ja
report_url Schnur URL zum gerenderten Bericht der Auswertungsausführung im Dashboard auf der Benutzeroberfläche Ja
Ergebnisanzahl Objekt Indikatoren, die die Ergebnisse der Auswertungsausführung zusammenfassen. Ja
└– fehler Integer Anzahl der Ausgabeelemente, die zu einem Fehler geführt haben. Nein
└– fehlgeschlagen Integer Anzahl der Ausgabeelemente, die die Auswertung nicht bestanden haben. Nein
└– bestanden Integer Anzahl der Ausgabeelemente, die die Auswertung bestanden haben. Nein
└– Gesamtsumme Integer Gesamtanzahl der ausgeführten Ausgabeelemente. Nein
status Schnur Status der Auswertungsausführung Ja

OpenAI.EvalRunDataContentSource

Diskriminator für OpenAI.EvalRunDataContentSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_id OpenAI.EvalRunFileIdDataContentSource
stored_completions OpenAI.EvalRunStoredCompletionsDataContentSource
responses OpenAI.EvalRunResponsesDataContentSource
Name Typ Description Erforderlich Default
type OpenAI.EvalRunDataContentSourceType Ja

OpenAI.EvalRunDataContentSourceType

Eigentum Wert
Typ Schnur
Werte file_id
file_content
stored_completions
responses

OpenAI.EvalRunDataSourceCompletionsResource

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: completions
Ja

OpenAI.EvalRunDataSourceJsonlResource

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: jsonl
Ja

OpenAI.EvalRunDataSourceParams

Diskriminator für OpenAI.EvalRunDataSourceParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
jsonl OpenAI.EvalJsonlRunDataSourceParams
completions OpenAI.EvalCompletionsRunDataSourceParams
responses OpenAI.EvalResponsesRunDataSourceParams
Name Typ Description Erforderlich Default
type OpenAI.EvalRunDataSourceType Ja

OpenAI.EvalRunDataSourceResource

Name Typ Description Erforderlich Default
type OpenAI.EvalRunDataSourceType Ja

OpenAI.EvalRunDataSourceResponsesResource

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: responses
Ja

OpenAI.EvalRunDataSourceType

Eigentum Wert
Typ Schnur
Werte jsonl
completions
responses

OpenAI.EvalRunFileContentDataContentSource

Name Typ Description Erforderlich Default
Inhalt Array Der Inhalt der JSONL-Datei. Ja
type enum Der Typ der JSONL-Quelle. Immer file_content.
Möglicher Wert: file_content
Ja

OpenAI.EvalRunFileIdDataContentSource

Name Typ Description Erforderlich Default
id Schnur Der Bezeichner der Datei. Ja
type enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Ja

OpenAI.EvalRunList

Objekt, das eine Liste der Ausführungen einer Auswertung darstellt

Name Typ Description Erforderlich Default
Daten Array Array von Objekten der Auswertungsausführung Ja
first_id Schnur Der Bezeichner des ersten Eval-Vorgangs im Datenarray. Ja
has_more boolean Gibt an, ob weitere Auswertungen verfügbar sind. Ja
last_id Schnur Bezeichner der letzten Auswertungsausführung im Datenarray Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalRunOutputItem

Ein Schema, das ein Ausgabeelement einer Auswertungsausführung darstellt.

Name Typ Description Erforderlich Default
erstellt_am Integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. Ja
Datenquellenobjekt Objekt Details zum Datenquellelement der Eingabe Ja
datasource_item_id Integer Der Bezeichner für das Datenquellenelement. Ja
eval_id Schnur Der Bezeichner der Auswertungsgruppe. Ja
id Schnur Eindeutiger Bezeichner für das Ausgabeelement der Auswertungsausführung Ja
Objekt enum Der Typ des Objekts. Immer „eval.run.output_item“
Möglicher Wert: eval.run.output_item
Ja
results Array Eine Liste der Ergebnisse aus der Auswertungsausführung. Ja
run_id Schnur Der Bezeichner der Auswertungsausführung, die diesem Ausgabeelement zugeordnet ist. Ja
Beispiel Objekt Ein Beispiel, das die Eingabe und Ausgabe des Auswertungslaufs enthält. Ja
└– Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Nein
└- finish_reason Schnur Der Grund, warum die Beispielgenerierung abgeschlossen wurde. Nein
└– Eingabe Array Ein Array von Eingabemeldungen. Nein
└– max_completion_tokens Integer Die maximale Anzahl von Token, die für die Fertigstellung verwendet werden dürfen. Nein
└─ Modell Schnur Das Modell, das zum Generieren des Beispiels verwendet wird. Nein
└─ Ausgabe Array Ein Array von Ausgabemeldungen. Nein
└- Samen Integer Der zum Generieren der Stichprobe verwendete Seed Nein
└– Temperatur number Die verwendete Probenahmetemperatur. Nein
└– top_p number Der top_p Wert, der für das Sampling verwendet wird. Nein
└– Nutzung Objekt Details zur Nutzung von Tokens für das Beispiel. Nein
└– zwischengespeicherte_Token Integer Die Anzahl der Token, die aus dem Cache abgerufen wurden. Nein
└– completion_tokens Integer Die Anzahl der generierten Abschlusstoken. Nein
└– prompt_tokens Integer Die Anzahl der verwendeten Prompt-Token. Nein
└– total_tokens Integer Die Gesamtzahl der verwendeten Token. Nein
status Schnur Status der Auswertungsausführung Ja

OpenAI.EvalRunOutputItemList

Ein Objekt, das eine Liste der Ausgabeelemente für eine Auswertungsausführung darstellt.

Name Typ Description Erforderlich Default
Daten Array Array von Ausgabeelementobjekten einer Auswertungsausführung Ja
first_id Schnur Bezeichner des ersten Ausgabeelements einer Auswertungsausführung im Datenarray Ja
has_more boolean Gibt an, ob weitere Ausgabeelemente für die Auswertungsausführung verfügbar sind Ja
last_id Schnur Der Bezeichner des letzten Ausgabeelements des Eval-Durchlaufs im Datenarray. Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalRunResponsesDataContentSource

Ein EvalResponsesSource-Objekt, das die Datenquellenkonfiguration einer Ausführung beschreibt.

Name Typ Description Erforderlich Default
created_after Integer Nur Elemente einschließen, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
erstellt_vor Integer Nur Elemente einschließen, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
instructions_search Schnur Optionale Zeichenfolge zum Durchsuchen des Felds „instructions“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Modell Schnur Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
Denkanstrengung Objekt Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Nein
Temperatur number Die Temperatur für die Stichprobenentnahme. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
Werkzeuge Array Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
top_p number Kernstichprobenentnahmeparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Ja
Nutzer Array Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein

OpenAI.EvalRunStoredCompletionsDataContentSource

Eine StoredCompletionsRunDataSource-Konfiguration, die eine Gruppe von Filtern beschreibt

Name Typ Description Erforderlich Default
created_after Integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. Nein
erstellt_vor Integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. Nein
limit Integer Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Modell Schnur Ein optionales Modell, nach dem gefiltert wird (z. B. "gpt-4o"). Nein
type enum Der Quelltyp. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.EvalStoredCompletionsDataSourceConfigParams

Veraltet zugunsten von LogsDataSourceConfig.

Name Typ Description Erforderlich Default
metadata Objekt Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. Nein
type enum Der Typ der Datenquelle. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.EvalStoredCompletionsDataSourceConfigResource

Veraltet zugunsten von LogsDataSourceConfig.

Name Typ Description Erforderlich Default
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
type enum Der Typ der Datenquelle. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.FileSearchTool

Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.

Name Typ Description Erforderlich Default
filters Objekt Nein
max_anzahl_ergebnisse Integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. Nein
Ranglistenoptionen Objekt Nein
└– Ranker enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
Nein
└─ Punktschwelle number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. Nein
type enum Der Typ des Dateisuchtools. Immer file_search.
Möglicher Wert: file_search
Ja
vector_store_ids Array Die IDs der zu durchsuchenden Vektorspeicher. Ja

OpenAI.FileSearchToolCallItemParam

Die Ergebnisse eines Dateisuchtoolaufrufs.

Name Typ Description Erforderlich Default
Abfragen Array Die Zum Suchen nach Dateien verwendeten Abfragen. Ja
results Array Die Ergebnisse des Aufrufs des Dateisuchtools. Nein
type enum
Möglicher Wert: file_search_call
Ja

OpenAI.FileSearchToolCallItemResource

Die Ergebnisse eines Dateisuchtoolaufrufs.

Name Typ Description Erforderlich Default
Abfragen Array Die Zum Suchen nach Dateien verwendeten Abfragen. Ja
results Array Die Ergebnisse des Aufrufs des Dateisuchtools. Nein
status enum Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress, searching, incomplete oder failed.
Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Ja
type enum
Möglicher Wert: file_search_call
Ja

OpenAI.Filters

Name Typ Description Erforderlich Default
filters Array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Ja
Schlüssel Schnur Der Schlüssel für den Vergleich mit dem Wert Ja
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Ja
Wert Zeichenfolge oder Zahl oder boolescher Wert Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. Ja

OpenAI.FineTuneDPOHyperparameters

Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden.

Name Typ Description Erforderlich Default
Batch-Größe enum
Möglicher Wert: auto
Nein
Beta enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein

OpenAI.FineTuneDPOMethod

Konfiguration für die DPO-Feinabstimmungsmethode.

Name Typ Description Erforderlich Default
Hyperparameter OpenAI.FineTuneDPOHyperparameters Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden. Nein

OpenAI.FineTuneMethod

Die Methode, die für die Feinabstimmung verwendet wird.

Name Typ Description Erforderlich Default
dpo OpenAI.FineTuneDPOMethod Konfiguration für die DPO-Feinabstimmungsmethode. Nein
Verstärkung AzureFineTuneReinforcementMethod Nein
überwacht OpenAI.FineTuneSupervisedMethod Konfiguration für die überwachte Feinabstimmungsmethode. Nein
type enum Der Typ der Methode. Ist entweder supervised, dpo oder reinforcement.
Mögliche Werte: supervised, , dporeinforcement
Ja

OpenAI.FineTuneReinforcementHyperparameters

Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter.

Name Typ Description Erforderlich Default
Batch-Größe enum
Möglicher Wert: auto
Nein
compute_multiplier enum
Möglicher Wert: auto
Nein
eval_interval enum
Möglicher Wert: auto
Nein
eval_samples enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein
Denkanstrengung enum Ebene des Begründungsaufwands.
Mögliche Werte: default, , low, mediumhigh
Nein

OpenAI.FineTuneSupervisedHyperparameters

Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.

Name Typ Description Erforderlich Default
Batch-Größe enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein

OpenAI.FineTuneSupervisedMethod

Konfiguration für die überwachte Feinabstimmungsmethode.

Name Typ Description Erforderlich Default
Hyperparameter OpenAI.FineTuneSupervisedHyperparameters Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Nein

OpenAI.FineTuningIntegration

Diskriminator für OpenAI.FineTuningIntegration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
wandb OpenAI.FineTuningIntegrationWandb
Name Typ Description Erforderlich Default
type string (siehe gültige Modelle unten) Ja

OpenAI.FineTuningIntegrationWandb

Name Typ Description Erforderlich Default
type enum Der Typ der Integration, die für den Optimierungsauftrag aktiviert wird
Möglicher Wert: wandb
Ja
wandb Objekt Die Einstellungen für Ihre Integration mit Gewichtungen und Trends. Diese Nutzlast gibt die project an, an die Metriken gesendet werden. Optional können Sie einen expliziten Anzeigenamen für Ihre Ausführung festlegen, Ihrer Ausführung Tags hinzufügen und eine Standardentität (Team, Benutzername usw.) festlegen, die Ihrer Ausführung zugeordnet werden soll. Ja
└– Entität Schnur Die Entität, die für die Ausführung verwendet werden soll. Auf diese Weise können Sie das Team oder den Benutzernamen des WandB-Benutzers festlegen, den Sie der Ausführung zuordnen möchten. Wenn nicht festgelegt, wird die Standardentität für den registrierten WandB-API-Schlüssel verwendet. Nein
└– Name Schnur Ein Anzeigename, der für die Ausführung festgelegt werden soll. Wenn nicht festgelegt, verwenden wir die Auftrags-ID als Namen. Nein
└– project Schnur Der Name des project, unter dem die neue Ausführung erstellt wird. Nein
└- Tags Array Eine Liste der Tags, die der neu erstellten Ausführung angefügt werden sollen. Diese Tags werden direkt an WandB weitergeleitet. Einige Standardtags werden von OpenAI generiert: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}". Nein

OpenAI.FineTuningJob

Das Objekt fine_tuning.job stellt einen Feinabstimmungsauftrag dar, der über die API erstellt wurde.

Name Typ Description Erforderlich Default
erstellt_am Integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. Ja
Fehler Objekt Bei Feinabstimmungsaufträgen mit Status failed, wird dies weitere Informationen zur Ursache des Fehlers enthalten. Ja
└– Code Schnur Ein computerlesbarer Fehlercode. Nein
└– Nachricht Schnur Eine für Menschen lesbare Fehlermeldung. Nein
└─ param Schnur Der Parameter, der ungültig war, in der Regel training_file oder validation_file. Dieses Feld ist null, wenn der Fehler nicht parameterspezifisch war. Nein
geschätzte Fertigstellung Integer Unix-Zeitstempel (in Sekunden) für die Vervollständigung des Feinabstimmungsauftrags. Der Wert wird NULL sein, wenn der Feinabstimmungsauftrag nicht ausgeführt wird. Nein
fine_tuned_model Schnur Der Name des fein abgestimmten Modells, das erstellt wird. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
finished_at Integer Der Unix-Zeitstempel (in Sekunden) für den Abschlusszeitpunkt des Feinabstimmungsauftrags. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert wird nur zurückgegeben, wenn supervised Aufträge ausgeführt werden. Ja
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
id Schnur Der Objektbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Integrationen Array Eine Liste der Integrationen, die für diesen Feinabstimmungsauftrag aktiviert werden sollen. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell Schnur Das Basismodell, das fein abgestimmt wird. Ja
Objekt enum Der Objekttyp, der immer „fine_tuning.job“ ist.
Möglicher Wert: fine_tuning.job
Ja
organization_id Schnur Die Organisation, die den Feinabstimmungsauftrag besitzt. Ja
Ergebnisdateien Array Die kompilierten Ergebnisdatei-ID(s) für den Feinabstimmungsauftrag. Sie können die Ergebnisse mit der Datei-API abrufen. Ja
seed Integer Der für den Optimierungsauftrag verwendete Seed Ja
status enum Der aktuelle Status des Feinabstimmungsauftrags, der entweder validating_files, queued, running, succeeded, failed oder cancelled sein kann.
Mögliche Werte: validating_files, , queued, runningsucceeded, , , failedcancelled
Ja
trainierte Token Integer Die Gesamtzahl der verrechenbaren Tokens, die durch diesen Feinabstimmungsauftrag verarbeitet wurden. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
Trainingsdatei Schnur Die Datei-ID, die für das Training verwendet wird. Sie können die Trainingsdaten mit der Datein-API abrufen. Ja
user_provided_suffix Schnur Das beschreibende Suffix, das auf den Auftrag angewendet wurde, wie in der Auftragserstellungsanforderung angegeben. Nein
Validierungsdatei Schnur Die zur Überprüfung verwendete Datei-ID. Sie können die Überprüfungsergebnisse mit der Datein-API abrufen. Ja

OpenAI.FineTuningJobCheckpoint

Das Objekt fine_tuning.job.checkpoint stellt einen Modellprüfpunkt für einen Feinabstimmungsauftrag dar, der zur Verwendung bereit ist.

Name Typ Description Erforderlich Default
erstellt_am Integer Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Prüfpunkts. Ja
fine_tuned_model_checkpoint Schnur Der Name des erstellten fein abgestimmten Prüfpunktmodells. Ja
fine_tuning_job_id Schnur Name des Optimierungsauftrags, aus dem dieser Prüfpunkt erstellt wurde Ja
id Schnur Der Prüfpunktbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
metrics Objekt Metriken bei der Schrittnummer während des Feinabstimmungsauftrags. Ja
└– full_valid_loss number Nein
└– Durchschnittliche Token-Genauigkeit für die gültigen vollständigen Daten number Nein
└– Schritt number Nein
└– train_loss number Nein
└– train_mean_token_accuracy number Nein
└– valid_loss number Nein
└– valid_mean_token_accuracy number Nein
Objekt enum Der Objekttyp, der immer „fine_tuning.job.checkpoint“ ist.
Möglicher Wert: fine_tuning.job.checkpoint
Ja
Schrittnummer Integer Die Schrittnummer, bei der der Prüfpunkt erstellt wurde. Ja

OpenAI.FineTuningJobEvent

Ereignisobjekt des Feinabstimmungsauftrags

Name Typ Description Erforderlich Default
erstellt_am Integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. Ja
Daten Die dem Ereignis zugeordneten Daten. Nein
id Schnur Der Objektbezeichner. Ja
Ebene enum Der Protokolliergrad des Ereignisses.
Mögliche Werte: info, , warnerror
Ja
Nachricht Schnur Die Meldung des Ereignisses. Ja
Objekt enum Der Objekttyp, der immer „fine_tuning.job.event“ ist.
Möglicher Wert: fine_tuning.job.event
Ja
type enum Den Typ des Ereignisses
Mögliche Werte: message, metrics
Nein

OpenAI.FunctionObject

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
Name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
parameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Nein
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. Nein Falsch

OpenAI.FunctionTool

Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll. Nein
Name Schnur Der Name der aufzurufenden Funktion. Ja
parameters Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt. Ja
strict boolean Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standard-true. Ja
type enum Der Typ des Funktionstools. Immer function.
Möglicher Wert: function
Ja

OpenAI.FunctionToolCallItemParam

Ein Toolaufruf zum Ausführen einer Funktion.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
Name Schnur Der Name der auszuführenden Funktion. Ja
type enum
Möglicher Wert: function_call
Ja

OpenAI.FunctionToolCallItemResource

Ein Toolaufruf zum Ausführen einer Funktion.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
Name Schnur Der Name der auszuführenden Funktion. Ja
status enum Der Status des Elements. Einer der folgenden Werte: in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: function_call
Ja

OpenAI.FunctionToolCallOutputItemParam

Die Ausgabe eines Funktionstoolaufrufs

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Funktionswerzeugaufrufs. Ja
type enum
Möglicher Wert: function_call_output
Ja

OpenAI.FunctionToolCallOutputItemResource

Die Ausgabe eines Funktionstoolaufrufs

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Funktionswerzeugaufrufs. Ja
status enum Der Status des Elements. Einer der folgenden Werte: in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: function_call_output
Ja

OpenAI.Grader

Diskriminator für OpenAI.Grader

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
label_model OpenAI.GraderLabelModel
text_similarity OpenAI.GraderTextSimilarity
python OpenAI.GraderPython
score_model OpenAI.GraderScoreModel
multi OpenAI.GraderMulti
Name Typ Description Erforderlich Default
type OpenAI.GraderType Ja

OpenAI.GraderLabelModel

Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.

Name Typ Description Erforderlich Default
Eingabe Array Ja
labels Array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
Name Schnur Name des Bewerters (Graders) Ja
passing_labels Array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
type enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.GraderMulti

Ein MultiGrader-Objekt kombiniert die Ausgabe mehrerer Bewerter, um eine einzelne Bewertung zu erzeugen.

Name Typ Description Erforderlich Default
calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Ja
Bewerter Objekt Ja
Name Schnur Name des Bewerters (Graders) Ja
type enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Ja

OpenAI.GraderPython

Ein PythonGrader-Objekt, das ein Python-Skript für die Eingabe ausführt.

Name Typ Description Erforderlich Default
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
Name Schnur Name des Bewerters (Graders) Ja
source Schnur Der Quellcode des Python-Skripts. Ja
type enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.GraderScoreModel

Ein ScoreModelGrader-Objekt, das ein Modell verwendet, um der Eingabe eine Bewertung zuzuweisen.

Name Typ Description Erforderlich Default
Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
Name Schnur Name des Bewerters (Graders) Ja
range Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme Die Samplingparameter für das Modell. Nein
type enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.GraderStringCheck

Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt.

Name Typ Description Erforderlich Default
Eingabe Schnur Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Name Schnur Name des Bewerters (Graders) Ja
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Ja
Referenz Schnur Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
type enum Der Objekttyp, der immer string_check ist.
Möglicher Wert: string_check
Ja

OpenAI.GraderTextSimilarity

Ein TextSimilarityGrader -Objekt, das Text basierend auf Ähnlichkeitsmetriken benotet.

Name Typ Description Erforderlich Default
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
Name Schnur Name des Bewerters (Graders) Ja
Referenz Schnur Der Text, für die Bewertung. Ja
type enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.GraderType

Eigentum Wert
Typ Schnur
Werte string_check
text_similarity
score_model
label_model
python
multi

OpenAI.ImageGenTool

Mithilfe eines Modells wie gpt-image-1.5 generiert ein Tool Bilder.

Name Typ Description Erforderlich Default
background enum Hintergrundtyp für das generierte Bild. Einer der folgenden Werte: transparent, opaque oder auto. Standardwert: auto.
Mögliche Werte: transparent, , opaqueauto
Nein
input_image_mask Objekt Optionale Maske für die Bildbearbeitung. Enthält image_url (Zeichenfolge, optional) und file_id (Zeichenfolge, optional). Nein
└– file_id Schnur Datei-ID für das Maskenbild. Nein
└– image_url Schnur Base64-codiertes Maskenbild. Nein
Modell enum Das zu verwendende Modell der Bildgenerierung. Standardwert: gpt-image-1.
Mögliche Werte: gpt-image-1, gpt-image-1.5
Nein
moderation enum Moderationsebene für das generierte Bild. Standardwert: auto.
Mögliche Werte: auto, low
Nein
Ausgabekomprimierung Integer Komprimierungsebene für das Ausgabebild. Standardwert: 100. Nein 100
Ausgabeformat enum Das Ausgabeformat des generierten Bilds. Einer der folgenden Werte: png, webp oder jpeg. Standardwert: png.
Mögliche Werte: png, , webpjpeg
Nein
unvollständige Bilder Integer Anzahl der Teilbilder, die im Streamingmodus generiert werden sollen, von 0 (Standardwert) bis 3. Nein 0
quality enum Die Qualität des generierten Bilds. Einer der folgenden Werte: low, medium, high oder auto. Standardwert: auto.
Mögliche Werte: low, , medium, highauto
Nein
Größe enum Die Größe des generierten Bilds. Einer der folgenden Werte: 1024x1024, 1024x1536, 1536x1024 oder auto. Standardwert: auto.
Mögliche Werte: 1024x1024, , 1024x1536, 1536x1024auto
Nein
type enum Der Typ des Tools zur Bildgenerierung. Immer image_generation.
Möglicher Wert: image_generation
Ja

OpenAI.ImageGenToolCallItemParam

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Typ Description Erforderlich Default
Ergebnis Schnur Das generierte Bild, das in Base64 codiert wurde. Ja
type enum
Möglicher Wert: image_generation_call
Ja

OpenAI.ImageGenToolCallItemResource

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Typ Description Erforderlich Default
Ergebnis Schnur Das generierte Bild, das in Base64 codiert wurde. Ja
status enum
Mögliche Werte: in_progress, , completed, generatingfailed
Ja
type enum
Möglicher Wert: image_generation_call
Ja

OpenAI.ImplicitUserMessage

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja

OpenAI.Includable

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:

  • code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
  • computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen.
  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
  • reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
Eigentum Wert
Beschreibung Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs
- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
Typ Schnur
Werte code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content

OpenAI.ItemContent

Diskriminator für OpenAI.ItemContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Name Typ Description Erforderlich Default
type OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. Ja

OpenAI.ItemContentInputAudio

Eine Audioeingabe für das Modell.

Name Typ Description Erforderlich Default
Daten Schnur Base64-codierte Audiodaten. Ja
format enum Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.
Mögliche Werte: mp3, wav
Ja
type enum Der Typ des Eingabeelements. Immer input_audio.
Möglicher Wert: input_audio
Ja

OpenAI.ItemContentInputFile

Eine Dateieingabe für das Modell.

Name Typ Description Erforderlich Default
file_data Schnur Der Inhalt der Datei, die an das Modell gesendet werden soll. Nein
Datei-ID Schnur Die ID der Datei, die an das Modell gesendet werden soll. Nein
filename Schnur Der Name der Datei, die an das Modell gesendet werden soll. Nein
type enum Der Typ des Eingabeelements. Immer input_file.
Möglicher Wert: input_file
Ja

OpenAI.ItemContentInputImage

Eine Bildeingabe für das Modell.

Name Typ Description Erforderlich Default
detail enum Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer der folgenden Werte: high, low oder auto. Wird standardmäßig auf auto festgelegt.
Mögliche Werte: low, , highauto
Nein
Datei-ID Schnur Die ID der Datei, die an das Modell gesendet werden soll. Nein
image_url Schnur Die URL des Bilds, das an das Modell gesendet werden soll. Ein vollständig qualifizierte URL oder ein base64-codiertes Bild innerhalb einer Daten-URL. Nein
type enum Der Typ des Eingabeelements. Immer input_image.
Möglicher Wert: input_image
Ja

OpenAI.ItemContentInputText

Eine Texteingabe für das Modell.

Name Typ Description Erforderlich Default
Text Schnur Die Texteingabe für das Modell. Ja
type enum Der Typ des Eingabeelements. Immer input_text.
Möglicher Wert: input_text
Ja

OpenAI.ItemContentOutputAudio

Eine Audioausgabe aus dem Modell.

Name Typ Description Erforderlich Default
Daten Schnur Base64-codierte Audiodaten aus dem Modell. Ja
Transkript Schnur Die Transkription der Audiodaten aus dem Modell. Ja
type enum Der Typ des Ausgabeaudios. Immer output_audio.
Möglicher Wert: output_audio
Ja

OpenAI.ItemContentOutputText

Eine Textausgabe aus dem Modell.

Name Typ Description Erforderlich Default
Anmerkungen Array Die Anmerkungen der Textausgabe Ja
logprobs Array Nein
Text Schnur Die Textausgabe aus dem Modell. Ja
type enum Der Typ des Ausgabetexts. Immer output_text.
Möglicher Wert: output_text
Ja

OpenAI.ItemContentRefusal

Eine Ablehnung des Modells

Name Typ Description Erforderlich Default
Ablehnung Schnur Die Erklärung der Ablehnung aus dem Modell. Ja
type enum Die Art der Ablehnung. Immer refusal.
Möglicher Wert: refusal
Ja

OpenAI.ItemContentType

Mehr modaler Eingabe- und Ausgabeinhalt.

Eigentum Wert
Beschreibung Mehr modaler Eingabe- und Ausgabeinhalt.
Typ Schnur
Werte input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
message OpenAI.ResponsesMessageItemParam
Name Typ Description Erforderlich Default
type OpenAI.ItemType Ja

OpenAI.ItemReferenceItemParam

Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.

Name Typ Description Erforderlich Default
id Schnur Die dienstseitig erzeugte ID des zuvor generierten Antwortelements, auf die verwiesen wird. Ja
type enum
Möglicher Wert: item_reference
Ja

OpenAI.ItemResource

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
mcp_call OpenAI.MCPCallItemResource
message OpenAI.ResponsesMessageItemResource
Name Typ Description Erforderlich Default
id Schnur Ja
type OpenAI.ItemType Ja

OpenAI.ItemType

Eigentum Wert
Typ Schnur
Werte message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ListFineTuningJobCheckpointsResponse

Name Typ Description Erforderlich Default
Daten Array Ja
first_id Schnur Nein
has_more boolean Ja
last_id Schnur Nein
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListFineTuningJobEventsResponse

Name Typ Description Erforderlich Default
Daten Array Ja
has_more boolean Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListModelsResponse

Name Typ Description Erforderlich Default
Daten Array Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListPaginatedFineTuningJobsResponse

Name Typ Description Erforderlich Default
Daten Array Ja
has_more boolean Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListVectorStoreFilesFilter

Eigentum Wert
Typ Schnur
Werte in_progress
completed
failed
cancelled

OpenAI.ListVectorStoreFilesResponse

Name Typ Description Erforderlich Default
Daten Array Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListVectorStoresResponse

Name Typ Description Erforderlich Default
Daten Array Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.LocalShellExecAction

Führen Sie einen Shellbefehl auf dem Server aus.

Name Typ Description Erforderlich Default
command Array Der auszuführende Befehl. Ja
Umgebung Objekt Umgebungsvariablen, die für den Befehl festgelegt werden sollen. Ja
timeout_ms Integer Optionales Zeitlimit in Millisekunden für den Befehl. Nein
type enum Der Typ der lokalen Shellaktion. Immer exec.
Möglicher Wert: exec
Ja
user Schnur Optionaler Benutzer, als welcher der Befehl ausgeführt werden soll. Nein
working_directory Schnur Optionales Arbeitsverzeichnis, in dem der Befehl ausgeführt werden soll. Nein

OpenAI.LocalShellTool

Ein Tool, mit dem das Modell Shellbefehle in einer lokalen Umgebung ausführen kann.

Name Typ Description Erforderlich Default
type enum Der Typ des lokalen Shelltools. Immer local_shell.
Möglicher Wert: local_shell
Ja

OpenAI.LocalShellToolCallItemParam

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ Description Erforderlich Default
Handlung OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
type enum
Möglicher Wert: local_shell_call
Ja

OpenAI.LocalShellToolCallItemResource

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ Description Erforderlich Default
Handlung OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
status enum
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: local_shell_call
Ja

OpenAI.LocalShellToolCallOutputItemParam

Die Ausgabe eines Aufrufs eines lokalen Shelltools.

Name Typ Description Erforderlich Default
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. Ja
type enum
Möglicher Wert: local_shell_call_output
Ja

OpenAI.LocalShellToolCallOutputItemResource

Die Ausgabe eines Aufrufs eines lokalen Shelltools.

Name Typ Description Erforderlich Default
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. Ja
status enum
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: local_shell_call_output
Ja

OpenAI.Location

Diskriminator für OpenAI.Location

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
approximate OpenAI.ApproximateLocation
Name Typ Description Erforderlich Default
type OpenAI.LocationType Ja

OpenAI.LocationType

Eigentum Wert
Typ Schnur
Werte approximate

OpenAI.LogProb

Die Protokollwahrscheinlichkeit eines Tokens.

Name Typ Description Erforderlich Default
Byte Array Ja
logprob number Ja
token Schnur Ja
top_logprobs Array Ja

OpenAI.MCPApprovalRequestItemParam

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
Name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Ja
type enum
Möglicher Wert: mcp_approval_request
Ja

OpenAI.MCPApprovalRequestItemResource

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
Name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Ja
type enum
Möglicher Wert: mcp_approval_request
Ja

OpenAI.MCPApprovalResponseItemParam

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Typ Description Erforderlich Default
approval_request_id Schnur Die ID der Genehmigungsanforderung, die beantwortet wird. Ja
Genehmigen boolean Gibt an, ob die Anforderung genehmigt wurde. Ja
Grund Schnur Optionaler Grund für die Entscheidung. Nein
type enum
Möglicher Wert: mcp_approval_response
Ja

OpenAI.MCPApprovalResponseItemResource

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Typ Description Erforderlich Default
approval_request_id Schnur Die ID der Genehmigungsanforderung, die beantwortet wird. Ja
Genehmigen boolean Gibt an, ob die Anforderung genehmigt wurde. Ja
Grund Schnur Optionaler Grund für die Entscheidung. Nein
type enum
Möglicher Wert: mcp_approval_response
Ja

OpenAI.MCPCallItemParam

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Schnur Der Fehler des Toolaufrufs( falls vorhanden). Nein
Name Schnur Der Name des tools, das ausgeführt wurde. Ja
output Schnur Die Ausgabe vom Toolaufruf. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
type enum
Möglicher Wert: mcp_call
Ja

OpenAI.MCPCallItemResource

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Schnur Der Fehler des Toolaufrufs( falls vorhanden). Nein
Name Schnur Der Name des tools, das ausgeführt wurde. Ja
output Schnur Die Ausgabe vom Toolaufruf. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
type enum
Möglicher Wert: mcp_call
Ja

OpenAI.MCPListToolsItemParam

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ Description Erforderlich Default
Fehler Schnur Fehlermeldung, wenn der Server keine Tools auflisten konnte. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge Array Die auf dem Server verfügbaren Tools. Ja
type enum
Möglicher Wert: mcp_list_tools
Ja

OpenAI.MCPListToolsItemResource

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ Description Erforderlich Default
Fehler Schnur Fehlermeldung, wenn der Server keine Tools auflisten konnte. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge Array Die auf dem Server verfügbaren Tools. Ja
type enum
Möglicher Wert: mcp_list_tools
Ja

OpenAI.MCPListToolsTool

Ein Tool, das auf einem MCP-Server verfügbar ist.

Name Typ Description Erforderlich Default
Anmerkungen Zusätzliche Anmerkungen zum Tool. Nein
Beschreibung Schnur Die Beschreibung des Tools. Nein
input_schema Das JSON-Schema, das die Eingabe des Tools beschreibt. Ja
Name Schnur Der Name des Tools. Ja

OpenAI.MCPTool

Weisen Sie dem Modell access zusätzliche Tools über MCP-Server (Remote Model Context Protocol) zu.

Name Typ Description Erforderlich Default
erlaubte_Werkzeuge Objekt Nein
└– tool_names Array Liste der zulässigen Toolnamen. Nein
headers Objekt Optionale HTTP-Header, die an den MCP-Server gesendet werden sollen. Wird für die Authentifizierung oder andere Zwecke verwendet. Nein
Genehmigung erforderlich Objekt (siehe unten für gültige Modelle) Geben Sie an, welche Tools des MCP-Servers eine Genehmigung erfordern. Nein
Serverbeschriftung Schnur Eine Bezeichnung für diesen MCP-Server, die verwendet wird, um sie in Toolaufrufen zu identifizieren. Ja
server_url Schnur Die URL für den MCP-Server. Ja
type enum Der Typ des MCP-Tools. Immer mcp.
Möglicher Wert: mcp
Ja

OpenAI.MetadataPropertyForRequest

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

Name Typ Description Erforderlich Default
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein

OpenAI.Model

Beschreibt ein OpenAI-Modellangebot, das mit der API verwendet werden kann.

Name Typ Description Erforderlich Default
erstellt Integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Modells. Ja
id Schnur Der Modellbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Objekt enum Der Objekttyp, der immer „model“ lautet.
Möglicher Wert: model
Ja
owned_by Schnur Die Organisation, die das Modell besitzt. Ja

OpenAI.OtherChunkingStrategyResponseParam

Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy-Konzepts in der API indiziert wurde.

Name Typ Description Erforderlich Default
type enum Immer other.
Möglicher Wert: other
Ja

OpenAI.ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Typ: boolean

OpenAI.Prompt

Verweisen Sie auf eine Promptvorlage und deren Variablen.

Name Typ Description Erforderlich Default
id Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Ja
variables Objekt Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. Nein
version Schnur Optionale Version der Promptvorlage. Nein

OpenAI.RankingOptions

Name Typ Description Erforderlich Default
Bewerter enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
Nein
score-threshold number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. Nein

OpenAI.Reasoning

Nur o-Serienmodelle

Name Typ Description Erforderlich Default
effort Objekt Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Nein
generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein

OpenAI.ReasoningEffort

Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

Eigentum Wert
Beschreibung Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Typ Schnur
Werte low
medium
high

OpenAI.ReasoningItemParam

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in Ihre input an die Antworten-API für die nächsten Gesprächsverläufe einzufügen, wenn Sie den Kontext manuell verwalten.

Name Typ Description Erforderlich Default
encrypted_content Schnur Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort im reasoning.encrypted_contentinclude Parameter generiert wird. Nein
summary Array Begründung der Textinhalte. Ja
type enum
Möglicher Wert: reasoning
Ja

OpenAI.ReasoningItemResource

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in Ihre input an die Antworten-API für die nächsten Gesprächsverläufe einzufügen, wenn Sie den Kontext manuell verwalten.

Name Typ Description Erforderlich Default
encrypted_content Schnur Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort im reasoning.encrypted_contentinclude Parameter generiert wird. Nein
summary Array Begründung der Textinhalte. Ja
type enum
Möglicher Wert: reasoning
Ja

OpenAI.ReasoningItemSummaryPart

Diskriminator für OpenAI.ReasoningItemSummaryPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
summary_text OpenAI.ReasoningItemSummaryTextPart
Name Typ Description Erforderlich Default
type OpenAI.ReasoningItemSummaryPartType Ja

OpenAI.ReasoningItemSummaryPartType

Eigentum Wert
Typ Schnur
Werte summary_text

OpenAI.ReasoningItemSummaryTextPart

Name Typ Description Erforderlich Default
Text Schnur Ja
type enum
Möglicher Wert: summary_text
Ja

OpenAI.Response

Name Typ Description Erforderlich Default
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
erstellt_am Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
Fehler Objekt Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Ja
└– Code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Nein
└– Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Nein
id Schnur Eindeutiger Bezeichner für diese Antwort Ja
incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Ja
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
instructions Zeichenfolge oder Array Ja
max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
output Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Ja
output_text Schnur SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– ID Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. Nein
└– Version Schnur Optionale Version der Promptvorlage. Nein
reasoning Objekt Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort Nur o-Serienmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Nein
└– generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
status enum Der Status der Antwortgenerierung. Einer von der folgenden Werte: completed, failed, in_progress, cancelled, queued oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Ja
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
tool_choice Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Nein
Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Ja
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Ja

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Wird ausgegeben, wenn ein partieller Codeschnipsel vom Code-Interpreter gestreamt wird.

Name Typ Description Erforderlich Default
delta Schnur Der partielle Codeschnipsel, der vom Code-Interpreter gestreamt wird. Ja
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Code gestreamt wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call_code.delta.
Möglicher Wert: response.code_interpreter_call_code.delta
Ja

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Wird ausgegeben, wenn der Codeschnipsel vom Code-Interpreter abgeschlossen wird.

Name Typ Description Erforderlich Default
Code Schnur Die endgültige Ausgabe des Codeausschnitts durch den Code-Interpreter. Ja
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Code abgeschlossen wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call_code.done.
Möglicher Wert: response.code_interpreter_call_code.done
Ja

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Wird ausgegeben, wenn der Codedolmetscheraufruf abgeschlossen ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters abgeschlossen wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call.completed.
Möglicher Wert: response.code_interpreter_call.completed
Ja

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters in Arbeit ist. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call.in_progress.
Möglicher Wert: response.code_interpreter_call.in_progress
Ja

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Code-Interpreter Code interpretiert. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call.interpreting.
Möglicher Wert: response.code_interpreter_call.interpreting
Ja

OpenAI.ResponseCompletedEvent

Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Nein
└─ Ausgabentext Schnur SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer von der folgenden Werte: completed, failed, in_progress, cancelled, queued oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein
type enum Typ des Ereignisses Immer response.completed.
Möglicher Wert: response.completed
Ja

OpenAI.ResponseContentPartAddedEvent

Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.

Name Typ Description Erforderlich Default
content_index Integer Der Index des hinzugefügten Inhaltsteils. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
output_index Integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
part Objekt Ja
└– Typ OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. Nein
type enum Typ des Ereignisses Immer response.content_part.added.
Möglicher Wert: response.content_part.added
Ja

OpenAI.ResponseContentPartDoneEvent

Wird ausgegeben, wenn ein Inhaltsteil abgeschlossen ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, der abgeschlossen ist. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
output_index Integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
part Objekt Ja
└– Typ OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. Nein
type enum Typ des Ereignisses Immer response.content_part.done.
Möglicher Wert: response.content_part.done
Ja

OpenAI.ResponseCreatedEvent

Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Nein
└─ Ausgabentext Schnur SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein
type enum Typ des Ereignisses Immer response.created.
Möglicher Wert: response.created
Ja

OpenAI.ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Name Typ Description Erforderlich Default
Code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Ja
Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Ja

OpenAI.ResponseErrorCode

Der Fehlercode für die Antwort.

Eigentum Wert
Beschreibung Der Fehlercode für die Antwort.
Typ Schnur
Werte server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Wird ausgegeben, wenn ein Fehler auftritt.

Name Typ Description Erforderlich Default
Code Schnur Der Fehlercode. Ja
Nachricht Schnur Die Fehlermeldung. Ja
param Schnur Der Fehlerparameter. Ja
type enum Typ des Ereignisses Immer error.
Möglicher Wert: error
Ja

OpenAI.ResponseFailedEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Nein
└─ Ausgabentext Schnur SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer von der folgenden Werte: completed, failed, in_progress, cancelled, queued oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein
type enum Typ des Ereignisses Immer response.failed.
Möglicher Wert: response.failed
Ja

OpenAI.ResponseFileSearchCallCompletedEvent

Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. Ja
output_index Integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
type enum Typ des Ereignisses Immer response.file_search_call.completed.
Möglicher Wert: response.file_search_call.completed
Ja

OpenAI.ResponseFileSearchCallInProgressEvent

Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. Ja
output_index Integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
type enum Typ des Ereignisses Immer response.file_search_call.in_progress.
Möglicher Wert: response.file_search_call.in_progress
Ja

OpenAI.ResponseFileSearchCallSearchingEvent

Wird ausgegeben, wenn eine Dateisuche aktuell ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. Ja
output_index Integer Der Index des Ausgabeelements, das der Dateisuchaufruf sucht. Ja
type enum Typ des Ereignisses Immer response.file_search_call.searching.
Möglicher Wert: response.file_search_call.searching
Ja

OpenAI.ResponseFormat

Diskriminator für OpenAI.ResponseFormat

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
text OpenAI.ResponseFormatText
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Name Typ Description Erforderlich Default
type enum
Mögliche Werte: text, , json_objectjson_schema
Ja

OpenAI.ResponseFormatJsonObject

JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten. Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, die es to do.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer json_object.
Möglicher Wert: json_object
Ja

OpenAI.ResponseFormatJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren.

Name Typ Description Erforderlich Default
JSON-Schema Objekt Konfigurationsoptionen für strukturierte Ausgaben, einschließlich eines JSON-Schemas. Ja
└– Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll. Nein
└– Name Schnur Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Nein
└- Schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Nein
└– streng boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist.
Nein Falsch
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Ja

OpenAI.ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen.

Typ: Objekt

OpenAI.ResponseFormatText

Standardantwortformat. Wird verwendet, um Textantworten zu generieren.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer text.
Möglicher Wert: text
Ja

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein partielles Argumentdelta eines Funktionsaufrufs vorhanden ist.

Name Typ Description Erforderlich Default
delta Schnur Das hinzugefügte Argumentdelta des Funktionsaufrufs Ja
item_id Schnur Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. Ja
output_index Integer Der Index des Ausgabeelements, dem das Argumentdelta des Funktionsaufrufs hinzugefügt wird Ja
type enum Typ des Ereignisses Immer response.function_call_arguments.delta.
Möglicher Wert: response.function_call_arguments.delta
Ja

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Wird ausgegeben, wenn Funktionsaufrufargumente finalisiert werden.

Name Typ Description Erforderlich Default
Argumente Schnur Die Funktionsaufrufargumente. Ja
item_id Schnur Die ID des Elements. Ja
output_index Integer Der Index des Ausgabeelements. Ja
type enum
Möglicher Wert: response.function_call_arguments.done
Ja

OpenAI.ResponseImageGenCallCompletedEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung abgeschlossen ist und das endgültige Bild verfügbar ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.completed”.
Möglicher Wert: response.image_generation_call.completed
Ja

OpenAI.ResponseImageGenCallGeneratingEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung aktiv ein Bild (Zwischenzustand) generiert.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.generating.
Möglicher Wert: response.image_generation_call.generating
Ja

OpenAI.ResponseImageGenCallInProgressEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.in_progress”.
Möglicher Wert: response.image_generation_call.in_progress
Ja

OpenAI.ResponseImageGenCallPartialImageEvent

Wird ausgegeben, wenn ein Teilbild während des Bildgenerierungsstreamings verfügbar ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
partial_image_b64 Schnur Base64-codierte Teilbilddaten, die für das Rendern als Bild geeignet sind. Ja
partial_image_index Integer 0-basierter Index für das Teilbild (Back-End ist 1-basiert, dies ist jedoch 0-basiert für den Benutzer). Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.partial_image”.
Möglicher Wert: response.image_generation_call.partial_image
Ja

OpenAI.ResponseInProgressEvent

Wird ausgegeben, wenn die Antwort derzeit verarbeitet wird.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Nein
└─ Ausgabentext Schnur SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer von der folgenden Werte: completed, failed, in_progress, cancelled, queued oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein
type enum Typ des Ereignisses Immer response.in_progress.
Möglicher Wert: response.in_progress
Ja

OpenAI.ResponseIncompleteEvent

Ein Ereignis, das ausgelöst wird, wenn eine Antwort als unvollständig beendet wird.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Nein
└─ Ausgabentext Schnur SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer von der folgenden Werte: completed, failed, in_progress, cancelled, queued oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein
type enum Typ des Ereignisses Immer response.incomplete.
Möglicher Wert: response.incomplete
Ja

OpenAI.ResponseItemList

Eine Liste der Antwortelemente.

Name Typ Description Erforderlich Default
Daten Array Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. Ja
first_id Schnur Die ID des ersten Elements in der Liste. Ja
has_more boolean Gibt an, ob weitere Elemente verfügbar sind. Ja
last_id Schnur Die ID des letzten Elements in der Liste. Ja
Objekt enum Der Typ des zurückgegebenen Objekts muss sein list.
Möglicher Wert: list
Ja

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein Delta (partielle Aktualisierung) für die Argumente eines MCP-Toolaufrufs vorhanden ist.

Name Typ Description Erforderlich Default
delta Die teilweise Aktualisierung der Argumente für den MCP-Toolaufruf. Ja
item_id Schnur Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.mcp_call.arguments_delta”.
Möglicher Wert: response.mcp_call.arguments_delta
Ja

OpenAI.ResponseMCPCallArgumentsDoneEvent

Wird ausgelöst, wenn die Argumente für einen MCP-Toolaufruf endgültig festgelegt sind.

Name Typ Description Erforderlich Default
Argumente Die finalen Argumente für den MCP-Tool-Aufruf. Ja
item_id Schnur Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.mcp_call.arguments_done”.
Möglicher Wert: response.mcp_call.arguments_done
Ja

OpenAI.ResponseMCPCallCompletedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf erfolgreich abgeschlossen wurde.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_call.completed“.
Möglicher Wert: response.mcp_call.completed
Ja

OpenAI.ResponseMCPCallFailedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf fehlgeschlagen ist.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_call.failed“.
Möglicher Wert: response.mcp_call.failed
Ja

OpenAI.ResponseMCPCallInProgressEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.mcp_call.in_progress”.
Möglicher Wert: response.mcp_call.in_progress
Ja

OpenAI.ResponseMCPListToolsCompletedEvent

Wird ausgegeben, wenn die Liste der verfügbaren MCP-Tools erfolgreich abgerufen wurde.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_list_tools.completed”.
Möglicher Wert: response.mcp_list_tools.completed
Ja

OpenAI.ResponseMCPListToolsFailedEvent

Wird ausgegeben, wenn der Versuch, die verfügbaren MCP-Tools auflisten, fehlgeschlagen ist.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_list_tools.failed”.
Möglicher Wert: response.mcp_list_tools.failed
Ja

OpenAI.ResponseMCPListToolsInProgressEvent

Wird ausgegeben, wenn sich das System im Prozess des Abrufens der Liste der verfügbaren MCP-Tools befindet.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_list_tools.in_progress”.
Möglicher Wert: response.mcp_list_tools.in_progress
Ja

OpenAI.ResponseOutputItemAddedEvent

Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.

Name Typ Description Erforderlich Default
item Objekt Inhaltselement, das zum Generieren einer Antwort verwendet wird. Ja
└– ID Schnur Nein
└– Typ OpenAI.ItemType Nein
output_index Integer Der Index des Ausgabeelements, das hinzugefügt wurde. Ja
type enum Typ des Ereignisses Immer response.output_item.added.
Möglicher Wert: response.output_item.added
Ja

OpenAI.ResponseOutputItemDoneEvent

Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.

Name Typ Description Erforderlich Default
item Objekt Inhaltselement, das zum Generieren einer Antwort verwendet wird. Ja
└– ID Schnur Nein
└– Typ OpenAI.ItemType Nein
output_index Integer Der Index des Ausgabeelements, das als erledigt markiert wurde. Ja
type enum Typ des Ereignisses Immer response.output_item.done.
Möglicher Wert: response.output_item.done
Ja

OpenAI.ResponsePromptVariables

Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

Typ: Objekt

OpenAI.ResponseQueuedEvent

Wird ausgegeben, wenn eine Antwort in die Warteschlange gestellt wird und darauf wartet, verarbeitet zu werden.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Nein Falsch
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Nein
└─ Ausgabentext Schnur SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen. Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer von der folgenden Werte: completed, failed, in_progress, cancelled, queued oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Nein
type enum Typ des Ereignisses Immer „response.queued”.
Möglicher Wert: response.queued
Ja

OpenAI.ResponseReasoningDeltaEvent

Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Begründungsinhalt vorhanden ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des inhaltlichen Begründungsteils innerhalb des Ausgabeelements. Ja
delta Die teilweise Aktualisierung des Begründungsinhalts. Ja
item_id Schnur Der eindeutige Bezeichner des Artikels, dessen Argumentation aktualisiert wird. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.reasoning.delta”.
Möglicher Wert: response.reasoning.delta
Ja

OpenAI.ResponseReasoningDoneEvent

Wird ausgegeben, wenn der Begründungsinhalt für ein Element abgeschlossen ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des inhaltlichen Begründungsteils innerhalb des Ausgabeelements. Ja
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Begründung abgeschlossen ist. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Text Schnur Der abschließende Text für die Begründung. Ja
type enum Typ des Ereignisses Immer „response.reasoning.delta”.
Möglicher Wert: response.reasoning.done
Ja

OpenAI.ResponseReasoningSummaryDeltaEvent

Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Begründungszusammenfassungsinhalt vorhanden ist.

Name Typ Description Erforderlich Default
delta Die partielle Aktualisierung der Begründungszusammenfassung. Ja
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Zusammenfassung der Gründe aktualisiert wird. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
summary_index Integer Der Index des Zusammenfassungsabschnitts innerhalb des Ausgabeelements. Ja
type enum Typ des Ereignisses Immer „response.reasoning_summary.delta”.
Möglicher Wert: response.reasoning_summary.delta
Ja

OpenAI.ResponseReasoningSummaryDoneEvent

Wird ausgegeben, wenn der Zusammenfassungsinhalt der Gründe für ein Element abgeschlossen ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Zusammenfassung der Gründe abgeschlossen ist. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
summary_index Integer Der Index des Zusammenfassungsabschnitts innerhalb des Ausgabeelements. Ja
Text Schnur Der abschließende Zusammenfassungstext für die Begründung. Ja
type enum Typ des Ereignisses Immer „response.reasoning_summary.done”.
Möglicher Wert: response.reasoning_summary.done
Ja

OpenAI.ResponseReasoningSummaryPartAddedEvent

Wird ausgegeben, wenn ein neuer Zusammenfassungsteil für die Begründung hinzugefügt wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
part Objekt Ja
└– Typ OpenAI.ReasoningItemSummaryPartType Nein
summary_index Integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_part.added.
Möglicher Wert: response.reasoning_summary_part.added
Ja

OpenAI.ResponseReasoningSummaryPartDoneEvent

Wird ausgelöst, wenn ein Teil der Argumentationszusammenfassung abgeschlossen ist.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
part Objekt Ja
└– Typ OpenAI.ReasoningItemSummaryPartType Nein
summary_index Integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_part.done.
Möglicher Wert: response.reasoning_summary_part.done
Ja

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Wird ausgegeben, wenn ein Delta zu einem Begründungszusammenfassungstext hinzugefügt wird.

Name Typ Description Erforderlich Default
delta Schnur Das Textdelta, das der Zusammenfassung hinzugefügt wurde. Ja
item_id Schnur Die ID des Elements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Ja
summary_index Integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_text.delta.
Möglicher Wert: response.reasoning_summary_text.delta
Ja

OpenAI.ResponseReasoningSummaryTextDoneEvent

Wird ausgegeben, wenn ein Grundübersichtstext abgeschlossen ist.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungstext zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem dieser Zusammenfassungstext zugeordnet ist. Ja
summary_index Integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
Text Schnur Der vollständige Text der vollständigen Zusammenfassung der Begründung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_text.done.
Möglicher Wert: response.reasoning_summary_text.done
Ja

OpenAI.ResponseRefusalDeltaEvent

Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. Ja
delta Schnur Der Verweigerungstext, der hinzugefügt wird. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Ja
output_index Integer Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Ja
type enum Typ des Ereignisses Immer response.refusal.delta.
Möglicher Wert: response.refusal.delta
Ja

OpenAI.ResponseRefusalDoneEvent

Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, dass der Ablehnungstext abgeschlossen wird Ja
item_id Schnur Die ID des Ausgabeelements, bei dem der Ablehnungstext finalisiert wurde. Ja
output_index Integer Der Index des Ausgabeelements, dass der Ablehnungstext abgeschlossen wird Ja
Ablehnung Schnur Der endgültige Ablehnungstext. Ja
type enum Typ des Ereignisses Immer response.refusal.done.
Möglicher Wert: response.refusal.done
Ja

OpenAI.ResponseStreamEvent

Diskriminator für OpenAI.ResponseStreamEvent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Name Typ Description Erforderlich Default
sequence_number Integer Die Sequenznummer für dieses Ereignis. Ja
type OpenAI.ResponseStreamEventType Ja

OpenAI.ResponseStreamEventType

Eigentum Wert
Typ Schnur
Werte response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde Ja
delta Schnur Das Textdelta, das hinzugefügt wurde Ja
item_id Schnur Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. Ja
output_index Integer Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde Ja
type enum Typ des Ereignisses Immer response.output_text.delta.
Möglicher Wert: response.output_text.delta
Ja

OpenAI.ResponseTextDoneEvent

Wird gesendet, wenn der Textinhalt finalisiert ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, dass der Textinhalt abgeschlossen wird Ja
item_id Schnur Die ID des Ausgabeelements, dessen Textinhalt abgeschlossen ist. Ja
output_index Integer Der Index des Ausgabeelements, dass der Textinhalt abgeschlossen wird Ja
Text Schnur Der textinhalt, der abgeschlossen ist. Ja
type enum Typ des Ereignisses Immer response.output_text.done.
Möglicher Wert: response.output_text.done
Ja

OpenAI.ResponseTextFormatConfiguration

Diskriminator für OpenAI.ResponseTextFormatConfiguration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Name Typ Description Erforderlich Default
type OpenAI.ResponseTextFormatConfigurationType Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
Ja

OpenAI.ResponseTextFormatConfigurationJsonObject

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: json_object
Ja

OpenAI.ResponseTextFormatConfigurationJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren.

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll. Nein
Name Schnur Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
Schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist.
Nein Falsch
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Ja

OpenAI.ResponseTextFormatConfigurationText

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: text
Ja

OpenAI.ResponseTextFormatConfigurationType

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Eigentum Wert
Beschreibung Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung von json_schema wird für Modelle bevorzugt, die dies unterstützen.

OpenAI.ResponseUsage

Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.

Name Typ Description Erforderlich Default
input_tokens Integer Die Anzahl der Eingabetoken. Ja
input_tokens_details Objekt Eine detaillierte Aufschlüsselung der Eingabetoken. Ja
└– zwischengespeicherte_Token Integer Die Anzahl der Token, die aus dem Cache abgerufen wurden. Nein
output_tokens Integer Die Anzahl der Ausgabetoken. Ja
output_tokens_details Objekt Eine detaillierte Aufschlüsselung der Ausgabetoken. Ja
└– reasoning_tokens Integer Die Anzahl der Begründungstoken Nein
Gesamtanzahl Tokens Integer Die Gesamtzahl der verwendeten Token. Ja

OpenAI.ResponseWebSearchCallCompletedEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
type enum Typ des Ereignisses Immer response.web_search_call.completed.
Möglicher Wert: response.web_search_call.completed
Ja

OpenAI.ResponseWebSearchCallInProgressEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
type enum Typ des Ereignisses Immer response.web_search_call.in_progress.
Möglicher Wert: response.web_search_call.in_progress
Ja

OpenAI.ResponseWebSearchCallSearchingEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
type enum Typ des Ereignisses Immer response.web_search_call.searching.
Möglicher Wert: response.web_search_call.searching
Ja

OpenAI.ResponsesAssistantMessageItemParam

Ein Nachrichtenparameterelement mit der assistant Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer assistant ist.
Möglicher Wert: assistant
Ja

OpenAI.ResponsesAssistantMessageItemResource

Ein Nachrichtenressourcenelement mit der assistant-Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer assistant ist.
Möglicher Wert: assistant
Ja

OpenAI.ResponsesDeveloperMessageItemParam

Ein Nachrichtenparameterelement mit der developer Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer developer ist.
Möglicher Wert: developer
Ja

OpenAI.ResponsesDeveloperMessageItemResource

Ein Nachrichtenressourcenelement mit der developer-Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer developer ist.
Möglicher Wert: developer
Ja

OpenAI.ResponsesMessageItemParam

Ein Antwortnachrichtelement, das eine Rolle und einen Inhalt darstellt, wie als Clientanforderungsparameter angegeben.

Diskriminator für OpenAI.ResponsesMessageItemParam

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Name Typ Description Erforderlich Default
role Objekt Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. Ja
type enum Der Typ des Antwortelements, das immer "Nachricht" ist.
Möglicher Wert: message
Ja

OpenAI.ResponsesMessageItemResource

Ein Ressourcenelement für Antwortnachrichten, das eine Rolle und inhalte darstellt, wie in Dienstantworten angegeben.

Diskriminator für OpenAI.ResponsesMessageItemResource

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Name Typ Description Erforderlich Default
role Objekt Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. Ja
status enum Der Status des Elements. Einer der folgenden Werte: in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Der Typ des Antwortelements, das immer "Nachricht" ist.
Möglicher Wert: message
Ja

OpenAI.ResponsesMessageRole

Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.

Eigentum Wert
Beschreibung Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.
Typ Schnur
Werte system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Ein Nachrichtenparameterelement mit der system Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer system ist.
Möglicher Wert: system
Ja

OpenAI.ResponsesSystemMessageItemResource

Ein Nachrichtenressourcenelement mit der system-Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer system ist.
Möglicher Wert: system
Ja

OpenAI.ResponsesUserMessageItemParam

Ein Nachrichtenparameterelement mit der user Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer user ist.
Möglicher Wert: user
Ja

OpenAI.ResponsesUserMessageItemResource

Ein Nachrichtenressourcenelement mit der user-Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer user ist.
Möglicher Wert: user
Ja

OpenAI.RunGraderRequest

Name Typ Description Erforderlich Default
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└– calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└– Noten Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein
item Das Datasetelement, das dem Bewerter bereitgestellt wird. Dies wird verwendet, um den item Namespace aufzufüllen. Nein
model_sample Schnur Das zu bewertende Modellbeispiel. Dieser Wert wird verwendet, um den sample Namespace aufzufüllen.
Die output_json Variable wird aufgefüllt, wenn das Modellbeispiel eine gültige JSON-Zeichenfolge ist.
Ja

OpenAI.RunGraderResponse

Name Typ Description Erforderlich Default
metadata Objekt Ja
└– Fehler Objekt Nein
└– Formelauswertungsfehler boolean Nein
└– ungültiger_Variablenfehler boolean Nein
└– model_grader_parse_error boolean Nein
└– model_grader_refusal_error boolean Nein
└– model_grader_server_error boolean Nein
└– model_grader_server_error_details Schnur Nein
└– other_error boolean Nein
└– python_grader_runtime_error boolean Nein
└– python_grader_runtime_error_details Schnur Nein
└– python_grader_server_error boolean Nein
└– python_grader_server_error_type Schnur Nein
└– sample_parse_error boolean Nein
└─ abgeschnittener_Beobachtungsfehler boolean Nein
└– nicht-reaktionsfähiger_Belohnungsfehler boolean Nein
└– Ausführungszeit number Nein
└– Name Schnur Nein
└- sampled_model_name Schnur Nein
└– Wertungen Nein
└– Tokenverwendung Integer Nein
└– Typ Schnur Nein
model_grader_token_usage_per_model Ja
reward number Ja
sub_rewards Ja

OpenAI.StaticChunkingStrategy

Name Typ Description Erforderlich Default
chunk_overlap_tokens Integer Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.

Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens-Werts sein darf.
Ja
max_chunk_size_tokens Integer Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Mindestwert ist 100, und der maximale Wert ist 4096. Ja

OpenAI.StaticChunkingStrategyRequestParam

Passen Sie Ihre eigene Blockerstellungsstrategie an, indem Sie die Blockgröße und die Blocküberlappung festlegen.

Name Typ Description Erforderlich Default
Statisch OpenAI.StaticChunkingStrategy Ja
type enum Immer static.
Möglicher Wert: static
Ja

OpenAI.StaticChunkingStrategyResponseParam

Name Typ Description Erforderlich Default
Statisch OpenAI.StaticChunkingStrategy Ja
type enum Immer static.
Möglicher Wert: static
Ja

OpenAI.StopConfiguration

Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.

Dieses Schema akzeptiert einen der folgenden Typen:

  • String
  • Anordnung

OpenAI.Tool

Diskriminator für OpenAI.Tool

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
Name Typ Description Erforderlich Default
type OpenAI.ToolType Ein Tool, das zum Generieren einer Antwort verwendet werden kann. Ja

OpenAI.ToolChoiceObject

Unterscheidungsmerkmal für OpenAI.ToolChoiceObject

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Name Typ Description Erforderlich Default
type OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Ja

OpenAI.ToolChoiceObjectCodeInterpreter

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: code_interpreter
Ja

OpenAI.ToolChoiceObjectComputer

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: computer_use_preview
Ja

OpenAI.ToolChoiceObjectFileSearch

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: file_search
Ja

OpenAI.ToolChoiceObjectFunction

Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ Description Erforderlich Default
Name Schnur Der Name der aufzurufenden Funktion. Ja
type enum Bei Funktionsaufrufen ist der Typ immer function.
Möglicher Wert: function
Ja

OpenAI.ToolChoiceObjectImageGen

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: image_generation
Ja

OpenAI.ToolChoiceObjectMCP

Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes Tool auf einem Remote-MCP-Server aufruft.

Name Typ Description Erforderlich Default
Name Schnur Der Name des Tools, das auf dem Server aufgerufen werden soll. Nein
Serverbeschriftung Schnur Die Bezeichnung des zu verwendenden MCP-Servers. Ja
type enum Bei MCP-Tools ist der Typ immer mcp.
Möglicher Wert: mcp
Ja

OpenAI.ToolChoiceObjectType

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.

Eigentum Wert
Beschreibung Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
Typ Schnur
Werte file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: web_search_preview
Ja

OpenAI.ToolChoiceOptions

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.

Eigentum Wert
Beschreibung Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Typ Schnur
Werte none
auto
required

OpenAI.ToolType

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

Eigentum Wert
Beschreibung Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
Typ Schnur
Werte file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell

OpenAI.TopLogProb

Die oberste Protokollwahrscheinlichkeit eines Tokens.

Name Typ Description Erforderlich Default
Byte Array Ja
logprob number Ja
token Schnur Ja

OpenAI.TranscriptionAudioResponseFormat

Referenzen: OpenAI.AudioResponseFormat

OpenAI.TranscriptionInclude

Eigentum Wert
Typ Schnur
Werte logprobs

OpenAI.TranscriptionSegment

Name Typ Description Erforderlich Default
avg_logprob number Durchschnittliche logprob des Segments. Wenn der Wert niedriger als -1 ist, betrachten Sie die Logprobs als gescheitert. Ja
Kompressionsverhältnis number Komprimierungsverhältnis des Segments. Wenn der Wert größer als 2,4 ist, sollten Sie die Komprimierung als fehlgeschlagen betrachten. Ja
Ende number Endzeit des Segments in Sekunden. Ja
id Integer Eindeutiger Bezeichner des Segments. Ja
no_speech_prob number Die Wahrscheinlichkeit, dass kein Wort im Segment gesprochen wird. Wenn der Wert höher als 1,0 ist und der avg_logprob Wert unter -1 liegt, sollten Sie dieses Segment unbeaufsichtigt betrachten. Ja
seek Integer Der Suchoffset des Segments. Ja
start number Startzeit des Abschnitts in Sekunden. Ja
Temperatur number Temperaturparameter, der zum Generieren des Segments verwendet wird. Ja
Text Schnur Textinhalt des Segments. Ja
tokens Array Array von Token-IDs für den Textinhalt. Ja

OpenAI.TranscriptionWord

Name Typ Description Erforderlich Default
Ende number Endzeit des Worts in Sekunden. Ja
start number Startzeit des Worts in Sekunden. Ja
word Schnur Der Textinhalt des Worts. Ja

OpenAI.TranslationAudioResponseFormat

Referenzen: OpenAI.AudioResponseFormat

OpenAI.UpdateVectorStoreFileAttributesRequest

Name Typ Description Erforderlich Default
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Ja

OpenAI.UpdateVectorStoreRequest

Name Typ Description Erforderlich Default
expires_after Objekt Die Ablaufrichtlinie für einen Vektorspeicher. Nein
└– Anker enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Möglicher Wert: last_active_at
Nein
└– Tage Integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Name Schnur Der Name des Vektorspeichers. Nein

OpenAI.VadConfig

Name Typ Description Erforderlich Default
prefix_padding_ms Integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Nein 300
Stille_Dauer_ms Integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden).
Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
Nein 200
threshold number Empfindlichkeitsschwellenwert (0,0 bis 1,0) für die Spracherkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. Nein 0,5
type enum Muss auf server_vad gesetzt werden, um manuelles Chunking mithilfe der serverseitigen VAD zu aktivieren.
Möglicher Wert: server_vad
Ja

OpenAI.ValidateGraderRequest

Name Typ Description Erforderlich Default
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└– calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└– Noten Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein

OpenAI.ValidateGraderResponse

Name Typ Description Erforderlich Default
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Nein
└– calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└– Noten Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein

OpenAI.VectorStoreExpirationAfter

Die Ablaufrichtlinie für einen Vektorspeicher.

Name Typ Description Erforderlich Default
anchor enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Möglicher Wert: last_active_at
Ja
Tage Integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Ja

OpenAI.VectorStoreFileAttributes

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.

Typ: Objekt

OpenAI.VectorStoreFileBatchObject

Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.

Name Typ Description Erforderlich Default
erstellt_am Integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. Ja
file_counts Objekt Ja
└– abgebrochen Integer Die Anzahl von Dateien, die abgebrochen wurden. Nein
└– abgeschlossen Integer Die Anzahl verarbeiteter Dateien. Nein
└– fehlgeschlagen Integer Die Anzahl von Dateien, die nicht verarbeitet werden konnten. Nein
└─ in Bearbeitung Integer Die Anzahl von Dateien, die derzeit verarbeitet werden. Nein
└– Gesamtsumme Integer Die Gesamtanzahl der Dateien. Nein
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt enum Der Objekttyp, der immer vector_store.file_batch ist.
Möglicher Wert: vector_store.files_batch
Ja
status enum Der Status des Vektorspeicher-Dateibatchs (in_progress, completed, cancelled oder failed).
Mögliche Werte: in_progress, , completed, cancelledfailed
Ja
vector_store_id Schnur Die ID des Vektorspeichers, an den die Datei angefügt ist. Ja

OpenAI.VectorStoreFileObject

Eine Liste der an einen Vektorspeicher angefügten Dateien.

Name Typ Description Erforderlich Default
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Nein
chunking_strategy Objekt Nein
└– Typ enum
Mögliche Werte: static, other
Nein
erstellt_am Integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. Ja
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
last_error Objekt Der letzte Fehler im Zusammenhang mit dieser Vektorspeicherdatei. Ist null, wenn keine Fehler vorliegen. Ja
└– Code enum Einer der folgenden Werte: server_error oder rate_limit_exceeded.
Mögliche Werte: server_error, , unsupported_fileinvalid_file
Nein
└– Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Nein
Objekt enum Der Objekttyp, der immer vector_store.file ist.
Möglicher Wert: vector_store.file
Ja
status enum Der Status der Vektorspeicherdatei (in_progress, completed, cancelled oder failed). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist.
Mögliche Werte: in_progress, , completed, cancelledfailed
Ja
usage_bytes Integer Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. Ja
vector_store_id Schnur Die ID des Vektorspeichers, an den die Datei angefügt ist. Ja

OpenAI.VectorStoreObject

Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.

Name Typ Description Erforderlich Default
erstellt_am Integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. Ja
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
läuft_ab_am Integer Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher abläuft. Nein
file_counts Objekt Ja
└– abgebrochen Integer Die Anzahl von Dateien, die abgebrochen wurden. Nein
└– abgeschlossen Integer Die Anzahl erfolgreich verarbeiteter Dateien. Nein
└– fehlgeschlagen Integer Die Anzahl von Dateien, die nicht verarbeitet werden konnten. Nein
└─ in Bearbeitung Integer Die Anzahl von Dateien, die derzeit verarbeitet werden. Nein
└– Gesamtsumme Integer Die Gesamtanzahl der Dateien. Nein
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
last_active_at Integer Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Name Schnur Der Name des Vektorspeichers. Ja
Objekt enum Der Objekttyp, der immer vector_store ist.
Möglicher Wert: vector_store
Ja
status enum Der Status des Vektorspeichers (expired, in_progress oder completed). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist.
Mögliche Werte: expired, , in_progresscompleted
Ja
usage_bytes Integer Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. Ja

OpenAI.VoiceIdsShared

Eigentum Wert
Typ Schnur
Werte alloy
ash
ballad
coral
echo
fable
onyx
nova
sage
shimmer
verse

OpenAI.WebSearchAction

Diskriminator für OpenAI.WebSearchAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Name Typ Description Erforderlich Default
type OpenAI.WebSearchActionType Ja

OpenAI.WebSearchActionFind

Aktionstyp „find“: Sucht innerhalb einer geladenen Seite nach einem Muster.

Name Typ Description Erforderlich Default
pattern Schnur Das Muster oder der Text, nach dem innerhalb der Seite gesucht werden soll. Ja
type enum Der Aktionstyp.
Möglicher Wert: find
Ja
url Schnur Die URL der Seite, die nach dem Muster durchsucht wird. Ja

OpenAI.WebSearchActionOpenPage

Aktionstyp „open_page“ – Öffnet eine bestimmte URL aus Suchergebnissen.

Name Typ Description Erforderlich Default
type enum Der Aktionstyp.
Möglicher Wert: open_page
Ja
url Schnur Die URL, die vom Modell geöffnet wird. Ja

OpenAI.WebSearchActionSearch

Aktionstyp „search“ – Führt eine Websuchabfrage aus.

Name Typ Description Erforderlich Default
Anfrage Schnur Die Suchabfrage Ja
type enum Der Aktionstyp.
Möglicher Wert: search
Ja

OpenAI.WebSearchActionType

Eigentum Wert
Typ Schnur
Werte search
open_page
find

OpenAI.WebSearchPreviewTool

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
Suchkontextgröße enum Allgemeine Richtlinie für die Menge des Kontextfensterbereichs, der für die Suche verwendet werden soll. Einer der folgenden Werte: low, medium oder high. medium ist die Standardoption.
Mögliche Werte: low, , mediumhigh
Nein
type enum Der Typ des Websuchtools. Einer der folgenden Werte: web_search_preview oder web_search_preview_2025_03_11.
Möglicher Wert: web_search_preview
Ja
Benutzerstandort Objekt Nein
└– Typ OpenAI.LocationType Nein

OpenAI.WebSearchToolCallItemParam

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
Handlung Objekt Ja
└– Typ OpenAI.WebSearchActionType Nein
type enum
Möglicher Wert: web_search_call
Ja

OpenAI.WebSearchToolCallItemResource

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
Handlung Objekt Ja
└– Typ OpenAI.WebSearchActionType Nein
status enum Der Status des Aufrufs des Websuchtools.
Mögliche Werte: in_progress, , searching, completedfailed
Ja
type enum
Möglicher Wert: web_search_call
Ja

PineconeChatDataSource

Name Typ Description Erforderlich Default
parameters Objekt Die Parameterinformationen zum Steuern der Verwendung der Pinecone-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht spezifiziert oder als "false" angegeben wird, schlägt die Anfrage fehl, wenn eine Suchabfrage fehlschlägt. Nein Falsch
└– Authentifizierung Objekt Nein
└– Schlüssel Schnur Nein
└– Typ enum
Möglicher Wert: api_key
Nein
└– embedding_dependency Objekt Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. Nein
└– Typ AzureChatDataSourceVectorizationSourceType Der Unterscheidungsbezeichner für die konkrete Vektorisierungsquelle. Nein
└– Umwelt Schnur Der mit Pinecone zu verwendende Umgebungsname. Nein
└– fields_mapping Objekt Feldzuordnungen, die auf Daten angewendet werden, die von der Pinecone-Datenquelle verwendet werden.
Beachten Sie, dass Inhaltsfeldzuordnungen für Pinecone erforderlich sind.
Nein
└– content_fields Array Nein
└─ Inhalt_Feldtrenner Schnur Nein
└– filepath_field Schnur Nein
└– Titel_Feld Schnur Nein
└– url_field Schnur Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen Array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Der Name des zu verwendenden Pinecone-Datenbankindex. Nein
└– max_search_queries Integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
Nein
└– Striktheit Integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Striktheit erhöht die Genauigkeit, aber verringert den Abruf der Antwort.
Nein
└– top_n_documents Integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. Nein
type enum Der diskriminierte Typbezeichner, der immer „pinecone” ist.
Möglicher Wert: pinecone
Ja

Qualität

Die Qualität des abzurufenden Videoinhalts. Dadurch wird die Qualität des Videoinhalts angegeben, der zurückgegeben werden soll.

Eigentum Wert
Beschreibung Die Qualität des abzurufenden Videoinhalts.
Dadurch wird die Qualität des Videoinhalts angegeben, der zurückgegeben werden soll.
Typ Schnur
Werte high
low

ResponseFormatJSONSchemaRequest

Name Typ Description Erforderlich Default
JSON-Schema Objekt JSON-Schema für das Antwortformat Ja
type enum Typ des Antwortformats
Möglicher Wert: json_schema
Ja

ResponseModalities

Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:

["text", "audio"]

Array von: Zeichenfolge

SpeechGenerationResponseFormat

Die unterstützten Audioausgabeformate für Text-zu-Sprache.

Mögliche Werte für diese Komponente:

VideoGeneration

Ergebnis der Videogenerierung.

Name Typ Description Erforderlich Default
erstellt_am Integer Der Zeitpunkt, zu dem die Videogenerierung stattfand. Ja
height Integer Die Höhe des Videos. Ja
id Schnur Die ID der Videogenerierung. Ja
job_id Schnur Die ID des Videogenerierungsauftrags für dieses Video. Ja
n_seconds Integer Die Dauer der Videogenerierung. Ja
Objekt enum
Möglicher Wert: video.generation
Ja
prompt Schnur Der Prompt für diese Videogenerierung Ja
width Integer Die Breite des Videos. Ja

VideoGenerationJob

Ein Auftrag zur Videogenerierung.

Name Typ Description Erforderlich Default
erstellt_am Integer Der Zeitpunkt, zu dem der Auftrag erstellt wurde Ja
läuft_ab_am Integer Der Zeitpunkt, zu dem der Auftrag automatisch aus dem Dienst gelöscht wird. Der Videoinhalt und die Metadaten des Auftrags sollten vor diesem Datum gespeichert werden, um Datenverluste zu vermeiden. Nein
failure_reason string (siehe gültige Modelle unten) Nein
finished_at Integer Der Zeitpunkt, zu dem der Auftrag mit allen Videogenerierungen abgeschlossen wurde Nein
Generationen Array Die generierten Videos für diesen Auftrag. Die Anzahl hängt von den angegebenen Elementen vom Typ „n_variants“ und dem Erstellungserfolg der Generierungen ab. Nein
height Integer Die Höhe des Videos. Ja
id Schnur Die ID des Auftrags. Ja
inpaint_items Array Optionale Inpainting-Elemente für diesen Auftrag zur Videogenerierung. Nein
Modell Schnur Der Name der Bereitstellung, die für diesen Videogenerierungsauftrag verwendet werden soll Ja
n_seconds Integer Die Dauer des Auftrags zur Videogenerierung. Ja
n_variants Integer Die Anzahl der Videos, die als Varianten für diesen Auftrag zur Videogenerierung erstellt werden sollen. Ja
Objekt enum
Möglicher Wert: video.generation.job
Ja
prompt Schnur Der Prompt für diesen Auftrag zur Videogenerierung Ja
status Objekt Der Status eines Auftrags zur Videogenerierung. Ja
width Integer Die Höhe des Videos. Ja

VideoGenerationJobList

Eine Liste der Aufträge zur Videogenerierung.

Name Typ Description Erforderlich Default
Daten Array Die Liste der Aufträge zur Videogenerierung. Ja
first_id Schnur Die ID des ersten Auftrags auf der aktuellen Seite, falls verfügbar. Nein
has_more boolean Ein Kennzeichen, das angibt, ob nach der Liste weitere Aufträge verfügbar sind. Ja
last_id Schnur Die ID des letzten Auftrags auf der aktuellen Seite, falls verfügbar. Nein
Objekt enum
Möglicher Wert: list
Ja

Nächste Schritte

Erfahren Sie mehr über Modelle und die Feinabstimmung mit der REST-API. Erfahren Sie mehr über die modelle underlying that power Azure OpenAI.