Freigeben über


Referenz zur Vorschauversion der REST-API von Azure OpenAI Service

Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.

API-Spezifikationen

Die Verwaltung von Azure OpenAI-Modellen und -Ressourcen und die Interaktion mit ihnen ist auf drei primäre API-Oberflächen aufgeteilt:

  • Steuerungsebene
  • Datenebene: Erstellung
  • Datenebene: Rückschluss

Jede API-Oberfläche/-Spezifikation kapselt eine andere Gruppe von Azure OpenAI-Funktionen. Jede API verfügt über individuelle Vorschau-API-Releases und stabile/allgemein verfügbare API-Releases. Vorschaureleases folgen derzeit in der Regel einem monatlichen Rhythmus.

API Neuestes Vorschaurelease Neuestes allgemein verfügbares Release Spezifikationen Beschreibung
Steuerungsebene 2024-06-01-preview 2024-10-01 Spezifikationsdateien Azure OpenAI teilt sich eine gemeinsame Steuerungsebene mit allen anderen Azure KI Services-Instanzen. Die Steuerungsebenen-API wird unter anderem zum Erstellen von Azure OpenAI-Ressourcen, für die Modellimplementierung und für andere übergeordnete Ressourcenverwaltungsaufgaben verwendet. Die Steuerungsebene steuert auch, was mit Komponenten wie Azure Resource Manager, Bicep, Terraform und der Azure CLI möglich ist.
Datenebene: Erstellung 2024-10-01-preview 2024-10-21 Spezifikationsdateien Die Erstellungs-API der Datenebene steuert die Optimierung, Dateiuploads, Datenerfassungsaufträge, Batchvorgänge und bestimmte Abfragen auf Modellebene.
Datenebene: Rückschluss 2024-10-01-preview 2024-10-21 Spezifikationsdateien Die Datenebenen-API für Rückschlüsse stellt die Rückschlussfunktionen/-endpunkte für Features wie Vervollständigungen, Chatvervollständigungen, Einbettungen, Speech/Whisper, „On Your Data“, DALL-E, Assistenten usw. bereit.

Authentifizierung

Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.

  • API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den api-key-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.

  • Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als Authorization-Header in eine Anforderung eingefügt. Dem bereitgestellten Token muss Bearer vorangestellt werden. Beispiel: Bearer YOUR_AUTH_TOKEN. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Zum Beispiel:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Datenebene: Rückschluss

Der Rest des Artikels behandelt das neueste Vorschaurelease der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse: 2024-10-01-preview. In diesem Artikel werden die neuesten Vorschaufunktionen wie Assistenten, Threads und Vektorspeicher dokumentiert.

Eine Dokumentation für das neueste allgemein verfügbare API-Release der Datenebenen-API für Rückschlüsse finden Sie hier.

Vervollständigungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des -Modells, das bereitgestellt wurde
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
prompt Zeichenfolge oder Array Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden.

Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, wird die Generierung des Modells wie am Anfang eines neuen Dokuments durchgeführt.
Ja
best_of integer Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als n sein.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
No 1
Echo boolean Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück.
No False
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
No 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.

Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird.
No Keine
logprobs integer Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Tokens zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.

Der Höchstwert für logprobs ist 5.
No Keine
max_tokens integer Die maximale Anzahl von Token, die in der Vervollständigung generiert werden können.

Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
Nein 16
n integer Wie viele Vervollständigungen für jede Äußerung generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
No 1
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
No 0
seed integer Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Array Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten.
No
Datenstrom boolean Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn dieser Parameter festgelegt wird, werden Token als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch die Nachricht data: [DONE] beendet wird.
No False
Suffix Zeichenfolge Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.

Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt.
No Keine
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json createCompletionResponse Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dieselbe Form (im Gegensatz zum Chatendpunkt).

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Typ Beschreibung
application/json errorResponse

Beispiele

Beispiel

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Einbettungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine Learning-Modellen und anderen Algorithmen problemlos verarbeitet werden kann.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
input Zeichenfolge oder Array Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für text-embedding-ada-002), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder weniger umfassen. Ja
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No
input_type Zeichenfolge Eingabetyp der zu verwendenden Einbettungssuche No
encoding_format Zeichenfolge Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. No
Dimensionen integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. No

Antworten

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
Modell Zeichenfolge Ja
data array Ja
Nutzung Objekt Ja

Eigenschaften für „usage“

prompt_tokens

Name Typ Beschreibung Standard
prompt_tokens integer

total_tokens

Name Typ Beschreibung Standard
total_tokens integer

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json Objekt

Beispiele

Beispiel

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chatvervollständigungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

Erstellt eine Vervollständigung für die Chatnachricht.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des -Modells, das bereitgestellt wurde
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE]-Nachricht beendet wird
No False
stop Zeichenfolge oder Array Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren.
No
max_tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt.
No
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Dies wird nur bei Modellen der o1-Serie unterstützt. Die Unterstützung wird in einer zukünftigen API-Version auf andere Modelle ausgeweitet. No
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
No 0
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
No 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
No Keine
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
No
Cloud an das Gerät array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Ja
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das in der content von message zurückgegeben wird. No False
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. No
n integer Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. No 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein True
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.

Die Einstellung auf { "type": "json_schema", "json_schema": {...} } ermöglicht strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stream_options chatCompletionStreamOptions Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
No Keine
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt.
No
Toolauswahl chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. No
function_call string oder chatCompletionFunctionCallOption Zugunsten von tool_choice eingestellt.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
No
functions array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json createChatCompletionResponse oder createChatCompletionStreamResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Typ Beschreibung
application/json errorResponse

Beispiele

Beispiel

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Daten und der systemseitig zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Bildvektordaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Vektordaten, der vorherigen Assistentennachricht und der systemseitig zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung für die angegebene Azure Cosmos DB-Instanz

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung für die angegebene Mongo DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung für die angegebene Elasticsearch-Instanz.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Beispiel

Erstellt eine Vervollständigung für die angegebene Pinecone-Ressource.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

Transkribiert Audio in die Eingabesprache.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des Whisper-Modells
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: multipart/form-data

Name Typ Beschreibung Erforderlich Standard
datei Zeichenfolge Das zu transkribierende Audiodateiobjekt Ja
prompt Zeichenfolge Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
Temperatur Zahl Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
language Zeichenfolge Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. No
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Durch Segmentzeitstempel entsteht keine zusätzliche Wartezeit, aber das Generieren von Wortzeitstempeln führt zu zusätzlicher Wartezeit. No ['segment']

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json audioResponse oder audioVerboseResponse
text/plain Zeichenfolge Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war)

Beispiele

Beispiel

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Beispiel

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

Transkribiert Audioeingaben und übersetzt sie in englischen Text.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des Whisper-Modells, das bereitgestellt wurde
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: multipart/form-data

Name Typ Beschreibung Erforderlich Standard
datei Zeichenfolge Die zu übersetzende Audiodatei Ja
prompt Zeichenfolge Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt muss in englischer Sprache formuliert werden. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
Temperatur Zahl Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json audioResponse oder audioVerboseResponse
text/plain Zeichenfolge Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war)

Beispiele

Beispiel

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Beispiel

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Sprache: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview

Generiert Audio aus dem Eingabetext.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des Text-zu-Sprache-Modells, das bereitgestellt wurde
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: multipart/form-data

Name Typ Beschreibung Erforderlich Standard
input Zeichenfolge Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. Ja
voice enum Die Stimme, die für die Sprachsynthese verwendet werden soll.
Mögliche Werte: alloy, echo, fable, onyx, nova, shimmer
Ja
response_format enum Das Format für die Audiosynthetisierung.
Mögliche Werte: mp3, opus, aac, flac, wav, pcm
No
Geschwindigkeit Zahl Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von 0.25 bis 4.0 aus. 1.0 ist die Standardoption. No 1.0

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/octet-stream Zeichenfolge

Beispiele

Beispiel

Synthetisiert Audio aus dem bereitgestellten Text.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Antworten: Statuscode: 200

{
  "body": "101010101"
}

Bildgenerierungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview

Generiert eine Reihe von Bildern auf der Grundlage einer Textbeschriftung für eine bestimmte DALL-E-Modellimplementierung

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
Bereitstellungs-ID path Ja Zeichenfolge Bereitstellungs-ID des dall-e-Modells, das bereitgestellt wurde.
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
prompt Zeichenfolge Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. Ja
n integer Die Anzahl der zu generierenden Bilder. No 1
size imageSize Die Größe der generierten Bilder. No 1\.024 × 1.024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No
qualität imageQuality Die Qualität des zu generierenden Bilds No Standard
style imageStyle Die Größe der generierten Bilder. No vivid

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Content-Type Typ Beschreibung
application/json dalleErrorResponse

Beispiele

Beispiel

Erstellt Bilder auf der Grundlage eines Prompts.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Auflisten: Assistenten

GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Gibt eine Liste mit Assistenten zurück.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
limit query No integer
Reihenfolge query No Zeichenfolge
after query No Zeichenfolge
before query No Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json listAssistantsResponse

Beispiele

Beispiel

Gibt eine Liste mit Assistenten zurück.

GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Erstellen: Assistent

POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
model Yes
Name Zeichenfolge Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
Beschreibung string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
Setup Zeichenfolge Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein.
No []
tool_resources Objekt Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]
Name Typ Beschreibung Standard
vector_store_ids array Der an diesen Assistenten angefügte Vektorspeicher. An den Assistenten kann maximal ein Vektorspeicher angefügt werden.
vector_stores array Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Assistenten anzufügen. An den Assistenten kann maximal ein Vektorspeicher angefügt werden.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json assistantObject Stellt einen Assistenten (assistant) dar, der das Modell aufrufen und Tools verwenden kann.

Beispiele

Beispiel

Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.

POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Abrufen: Assistent

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Ruft einen Assistenten ab.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
assistant_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json assistantObject Stellt einen Assistenten (assistant) dar, der das Modell aufrufen und Tools verwenden kann.

Beispiele

Beispiel

Ruft einen Assistenten ab.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Ändern: Assistent

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Ändert einen Assistenten.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
assistant_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
model No
name Zeichenfolge Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
Beschreibung string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
Setup Zeichenfolge Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein.
No []
tool_resources Objekt Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Überschreibt die Liste mit den Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Überschreibt den an diesen Assistenten angefügten Vektorspeicher. An den Assistenten kann maximal ein Vektorspeicher angefügt werden.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json assistantObject Stellt einen Assistenten (assistant) dar, der das Modell aufrufen und Tools verwenden kann.

Beispiele

Beispiel

Ändert einen Assistenten.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Löschen: Assistent

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Löscht einen Assistenten.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
assistant_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json deleteAssistantResponse

Beispiele

Beispiel

Löscht einen Assistenten.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Erstellen: Thread

POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview

Erstellen Sie einen Thread.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
Cloud an das Gerät array Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. No
tool_resources Objekt Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
vector_stores array Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Thread anzufügen. An den Thread kann maximal ein Vektorspeicher angefügt werden.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json threadObject Stellt einen Thread dar, der Nachrichten enthält.

Beispiele

Beispiel

Erstellt einen Thread.

POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Abrufen: Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Ruft einen Thread ab.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json threadObject Stellt einen Thread dar, der Nachrichten enthält.

Beispiele

Beispiel

Ruft einen Thread ab.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Ändern: Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Ändert einen Thread.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
tool_resources Objekt Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein Vektorspeicher angefügt werden.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json threadObject Stellt einen Thread dar, der Nachrichten enthält.

Beispiele

Beispiel

Ändert einen Thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Löschen: Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Löscht einen Thread.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json deleteThreadResponse

Beispiele

Beispiel

Löscht einen Thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Auflisten: Nachrichten

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Gibt eine Liste von Nachrichten für einen bestimmten Thread zurück.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
limit query No integer
Reihenfolge query No Zeichenfolge
after query No Zeichenfolge
before query No Zeichenfolge
run_id query No Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json listMessagesResponse

Beispiele

Beispiel

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Erstellen: Nachricht

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Erstellen Sie eine Nachricht.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
role Zeichenfolge Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind:
- user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.
- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.
Ja
content Zeichenfolge Der Inhalt der Nachricht. Ja
Anhänge array Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt werden sollen. No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json messageObject Stellt eine Nachricht in einem Thread dar.

Beispiele

Beispiel

Erstellen Sie eine Nachricht.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Abrufen: Nachricht

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Rufen Sie eine Nachricht ab.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
message_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json messageObject Stellt eine Nachricht in einem Thread dar.

Beispiele

Beispiel

Rufen Sie eine Nachricht ab.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Ändern: Nachricht

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Ändert eine Nachricht.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
message_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json messageObject Stellt eine Nachricht in einem Thread dar.

Beispiele

Beispiel

Ändern Sie eine Nachricht.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Erstellen: Thread und Ausführung

POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview

Dient dazu, einen Thread in einer einzelnen Anforderung zu erstellen und auszuführen.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
assistant_id Zeichenfolge Die ID des Assistenten, der für diese Ausführung verwendet werden soll Ja
Thread createThreadRequest No
model Zeichenfolge Der Bereitstellungsname des Modells, die für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. No
Setup Zeichenfolge Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
tools array Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
tool_resources Objekt Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
Datenstrom boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
stream_options chatCompletionStreamOptions Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
No Keine
max_prompt_tokens integer Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
max_completion_tokens integer Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. No
Toolauswahl assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein Vektorspeicher angefügt werden.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.

Beispiele

Beispiel

Dient dazu, einen Thread in einer einzelnen Anforderung zu erstellen und auszuführen.

POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Auflisten: Ausführungen

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Gibt eine Liste von Ausführungen zurück, die zu einem Thread gehören.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
limit query No integer
Reihenfolge query No Zeichenfolge
after query No Zeichenfolge
before query No Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json listRunsResponse

Beispiele

Beispiel

Gibt eine Liste von Ausführungen zurück, die zu einem Thread gehören.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Erstellen: Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Erstellen Sie eine Ausführung.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
assistant_id Zeichenfolge Die ID des Assistenten, der für diese Ausführung verwendet werden soll Ja
Modell Zeichenfolge Die ID des Modells, das für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. No
Setup Zeichenfolge Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
additional_instructions Zeichenfolge Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. No
additional_messages array Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. No
tools array Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
Datenstrom boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
max_prompt_tokens integer Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
max_completion_tokens integer Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. No
Toolauswahl assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.

Beispiele

Beispiel

Erstellen Sie eine Ausführung.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

{
 "assistant_id": "asst_abc123"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Abrufen: Ausführung

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Ruft eine Ausführung ab.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
run_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.

Beispiele

Beispiel

Ruft eine Ausführung ab.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Ändern: Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Ändert eine Ausführung.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
run_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.

Beispiele

Beispiel

Ändert eine Ausführung.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Übermitteln: Toolausgaben für die Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview

Wenn eine Ausführung den Status status: "requires_action" hat und required_action.type auf submit_tool_outputs festgelegt ist, kann dieser Endpunkt zum Übermitteln der Ausgaben aus den Toolaufrufen verwendet werden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzelnen Anforderung übermittelt werden.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
run_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
tool_outputs array Eine Liste der Tools, für die die Ausgaben übermittelt werden Ja
Datenstrom boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.

Beispiele

Beispiel

Wenn eine Ausführung den Status status: "requires_action" hat und required_action.type auf submit_tool_outputs festgelegt ist, kann dieser Endpunkt zum Übermitteln der Ausgaben aus den Toolaufrufen verwendet werden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzelnen Anforderung übermittelt werden.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Abbrechen: Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview

Bricht eine Ausführung ab, die den Status in_progress aufweist.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
run_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.

Beispiele

Beispiel

Bricht eine Ausführung ab, die den Status in_progress aufweist.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Auflisten: Ausführungsschritte

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview

Gibt eine Liste von Ausführungsschritten zurück, die zu einer Ausführung gehören.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
run_id path Ja Zeichenfolge
limit query No integer
Reihenfolge query No Zeichenfolge
after query No Zeichenfolge
before query No Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json listRunStepsResponse

Beispiele

Beispiel

Gibt eine Liste von Ausführungsschritten zurück, die zu einer Ausführung gehören.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Abrufen: Ausführungsschritt

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview

Ruft einen Ausführungsschritt ab.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
thread_id path Ja Zeichenfolge
run_id path Ja Zeichenfolge
step_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge API-Version

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json runStepObject Stellt einen Schritt in einer Ausführung dar.

Beispiele

Beispiel

Ruft einen Ausführungsschritt ab.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Auflisten: Vektorspeicher

GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Gibt eine Liste mit Vektorspeichern zurück.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
limit query No integer
Reihenfolge query No Zeichenfolge
after query No Zeichenfolge
before query No Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json listVectorStoresResponse

Beispiele

Beispiel

Gibt eine Liste mit Vektorspeichern zurück.

GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Erstellen: Vektorspeicher

POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Erstellen Sie einen Vektorspeicher.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
file_ids array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. No
name Zeichenfolge Der Name des Vektorspeichers. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json vectorStoreObject Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.

Beispiele

Beispiel

Erstellt einen Vektorspeicher.

POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Abrufen: Vektorspeicher

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Ruft einen Vektorspeicher ab.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json vectorStoreObject Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.

Beispiele

Beispiel

Ruft einen Vektorspeicher ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Ändern: Vektorspeicher

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Ändert einen Vektorspeicher.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
name Zeichenfolge Der Name des Vektorspeichers. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json vectorStoreObject Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.

Beispiele

Beispiel

Ändert einen Vektorspeicher.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

{
 "name": "Support FAQ"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Löschen: Vektorspeicher

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Löschen Sie einen Vektorspeicher.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json deleteVectorStoreResponse

Beispiele

Beispiel

Löscht einen Vektorspeicher.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Auflisten: Vektorspeicherdateien

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Gibt eine Liste mit Vektorspeicherdateien zurück.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
limit query No integer
Reihenfolge query No Zeichenfolge
after query No Zeichenfolge
before query No Zeichenfolge
filter query No Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json listVectorStoreFilesResponse

Beispiele

Beispiel

Gibt eine Liste mit Vektorspeicherdateien zurück.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Erstellen: Vektorspeicherdatei

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
file_id Zeichenfolge Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja
chunking_strategy chunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json vectorStoreFileObject Eine Liste der an einen Vektorspeicher angefügten Dateien.

Beispiele

Beispiel

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

{
 "file_id": "file-abc123"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Abrufen: Vektorspeicherdatei

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Ruft eine Vektorspeicherdatei ab.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
file_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json vectorStoreFileObject Eine Liste der an einen Vektorspeicher angefügten Dateien.

Beispiele

Beispiel

Ruft eine Vektorspeicherdatei ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Löschen: Vektorspeicherdatei

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt. Die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
file_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json deleteVectorStoreFileResponse

Beispiele

Beispiel

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt. Die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Erstellen: Vektorspeicher-Dateibatch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview

Erstellen Sie einen Vektorspeicher-Dateibatch.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ Beschreibung Erforderlich Standard
file_ids array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja
chunking_strategy chunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. No

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json vectorStoreFileBatchObject Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.

Beispiele

Beispiel

Erstellen Sie einen Vektorspeicher-Dateibatch.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Antworten: Statuscode: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Abrufen: Vektorspeicher-Dateibatch

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview

Ruft einen Vektorspeicher-Dateibatch ab.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
batch_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json vectorStoreFileBatchObject Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.

Beispiele

Beispiel

Ruft einen Vektorspeicher-Dateibatch ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Abbrechen: Vektorspeicher-Dateibatch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview

Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
batch_id path Ja Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json vectorStoreFileBatchObject Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.

Beispiele

Beispiel

Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Auflisten: Dateien eines Vektorspeicher-Dateibatchs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview

Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.

URI-Parameter

Name Geben Sie in Erforderlich Type Beschreibung
endpoint path Ja Zeichenfolge
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com
vector_store_id path Ja Zeichenfolge
batch_id path Ja Zeichenfolge
limit query No integer
Reihenfolge query No Zeichenfolge
after query No Zeichenfolge
before query No Zeichenfolge
filter query No Zeichenfolge
api-version query Ja Zeichenfolge

Anforderungsheader

Name Erforderlich Type Beschreibung
api-key True Zeichenfolge Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: OK

Content-Type Typ Beschreibung
application/json listVectorStoreFilesResponse

Beispiele

Beispiel

Gibt eine Liste mit Vektorspeicherdateien zurück.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Komponenten

errorResponse

Name Typ Beschreibung Erforderlich Standard
error error No

errorBase

Name Typ Beschreibung Erforderlich Standard
Code string Nein
message Zeichenfolge No

error

Name Typ Beschreibung Erforderlich Standard
param Zeichenfolge Nein
Typ Zeichenfolge No
inner_error innerError Innerer Fehler mit zusätzlichen Details. No

innerError

Innerer Fehler mit zusätzlichen Details.

Name Typ Beschreibung Erforderlich Standard
code innerErrorCode Fehlercodes für das innere Fehlerobjekt No
content_filter_results contentFilterPromptResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. No

innerErrorCode

Fehlercodes für das innere Fehlerobjekt

Beschreibung: Fehlercodes für das innere Fehlerobjekt

Typ: string

Standardwert:

Enumerationsname: InnerErrorCode

Enumerationswerte:

Wert Beschreibung
ResponsibleAIPolicyViolation Der Prompt verstieß gegen eine von mehreren Inhaltsfilterregeln.

dalleErrorResponse

Name Typ Beschreibung Erforderlich Standard
error dalleError No

dalleError

Name Typ Beschreibung Erforderlich Standard
param Zeichenfolge Nein
Typ Zeichenfolge No
inner_error dalleInnerError Innerer Fehler mit zusätzlichen Details. No

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Name Typ Beschreibung Erforderlich Standard
code innerErrorCode Fehlercodes für das innere Fehlerobjekt No
content_filter_results dalleFilterResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. No
revised_prompt Zeichenfolge Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde No

contentFilterCompletionTextSpan

Beschreibt eine Spanne innerhalb des generierten Vervollständigungstexts. Offset 0 ist der erste UTF32-Codepunkt des Vervollständigungstexts.

Name Typ Beschreibung Erforderlich Standard
completion_start_offset integer Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. Ja
completion_end_offset integer Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist bei nicht leeren Spannen immer größer als „completion_start_offset“. Ja

contentFilterResultBase

Name Typ Beschreibung Erforderlich Standard
filtered boolean Ja

contentFilterSeverityResult

Name Typ Beschreibung Erforderlich Standard
filtered boolean Ja
severity Zeichenfolge No

contentFilterDetectedResult

Name Typ Beschreibung Erforderlich Standard
filtered boolean Ja
detected boolean Nein

contentFilterDetectedWithCitationResult

Name Typ Beschreibung Erforderlich Standard
citation Objekt No

Eigenschaften für „citation“

URL

Name Typ Beschreibung Standard
URL Zeichenfolge

license

Name Typ Beschreibung Standard
license Zeichenfolge

contentFilterDetectedWithCompletionTextSpansResult

Name Typ Beschreibung Erforderlich Standard
details array No

contentFilterIdResult

Name Typ Beschreibung Erforderlich Standard
filtered boolean Ja
id Zeichenfolge No

contentFilterResultsBase

Informationen zu den Ergebnissen der Inhaltsfilterung

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. No
error errorBase No

contentFilterPromptResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. No
error errorBase No
Jailbreak contentFilterDetectedResult No
indirect_attack contentFilterDetectedResult No

contentFilterChoiceResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), zur Erkennung und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob eine Filterung erfolgt ist. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Außerdem Informationen zur Kundensperrliste und zur Filterung sowie die zugehörige ID.

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No

contentFilterDetailedResults

Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation.

Name Typ Beschreibung Erforderlich Standard
filtered boolean Ja
details array No

promptFilterResult

Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung

Name Typ Beschreibung Erforderlich Standard
prompt_index integer No
content_filter_results contentFilterPromptResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. No

promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

Für diese Komponente sind keine Eigenschaften definiert.

dalleContentFilterResults

Informationen zu den Ergebnissen der Inhaltsfilterung

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.

Name Typ Beschreibung Erforderlich Standard
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
Jailbreak contentFilterDetectedResult No
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. No

chatCompletionsRequestCommon

Name Typ Beschreibung Erforderlich Standard
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE]-Nachricht beendet. No False
stop Zeichenfolge oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. No
max_tokens integer Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). Dies ist nicht mit Modellen der o1-Serie kompatibel. No 4096
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Dies wird nur bei Modellen der o1-Serie unterstützt. Die Unterstützung wird in einer zukünftigen API-Version auf andere Modelle ausgeweitet. No
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. No 0
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. No 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. No
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. No

createCompletionRequest

Name Typ Beschreibung Erforderlich Standard
prompt Zeichenfolge oder Array Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden.

Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, wird die Generierung des Modells wie am Anfang eines neuen Dokuments durchgeführt.
Ja
best_of integer Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als n sein.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
No 1
Echo boolean Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück.
No False
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
No 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.

Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird.
No Keine
logprobs integer Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Token zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.

Der Höchstwert für logprobs ist 5.
No Keine
max_tokens integer Die maximale Anzahl von Token, die in der Vervollständigung generiert werden können.

Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
Nein 16
n integer Wie viele Vervollständigungen für jede Äußerung generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
No 1
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
No 0
seed integer Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten.
No
Datenstrom boolean Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn dieser Parameter festgelegt wird, werden Token als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch die Nachricht data: [DONE] beendet wird.
No False
Suffix Zeichenfolge Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.

Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt.
No Keine
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
No

createCompletionResponse

Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dieselbe Form (im Gegensatz zum Chatendpunkt).

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Eindeutiger Bezeichner für die Vervollständigung Ja
Optionen array Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat Ja
erstellte integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Vervollständigung erstellt wurde Ja
Modell Zeichenfolge Das für die Vervollständigung verwendete Modell Ja
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
system_fingerprint Zeichenfolge Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
No
Objekt enum Der Objekttyp, der immer „text_completion“ lautet
Mögliche Werte: text_completion
Ja
Nutzung completionUsage Nutzungsstatistiken für die Vervollständigungsanforderung No

createChatCompletionRequest

Name Typ Beschreibung Erforderlich Standard
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
Datenstrom boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE]-Nachricht beendet wird
No False
stop Zeichenfolge oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
No
max_tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt.
No
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Dies wird nur bei Modellen der o1-Serie unterstützt. Die Unterstützung wird in einer zukünftigen API-Version auf andere Modelle ausgeweitet. No
presence_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
No 0
frequency_penalty Zahl Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
No 0
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
No Keine
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
No
Cloud an das Gerät array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Ja
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das in der content von message zurückgegeben wird. No False
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. No
n integer Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. No 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein True
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.

Die Einstellung auf { "type": "json_schema", "json_schema": {...} } ermöglicht strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stream_options chatCompletionStreamOptions Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
No Keine
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt.
No
Toolauswahl chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. No
function_call string oder chatCompletionFunctionCallOption Zugunsten von tool_choice eingestellt.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
No
functions array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No

chatCompletionFunctions

Name Typ Beschreibung Erforderlich Standard
Beschreibung string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
Parameter FunctionParameters Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Die Dokumentation zum Format finden Sie in der Anleitung](/azure/ai-services/openai/how-to/function-calling) und der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
No

chatCompletionFunctionCallOption

Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

Name Typ Beschreibung Erforderlich Standard
name Zeichenfolge Der Name der aufzurufenden Funktion. Ja

chatCompletionFunctionParameters

Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Beispiele finden Sie in der Anleitung guide/ und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionRequestMessage

Mögliche Werte für diese Komponente:

chatCompletionRequestSystemMessage

Name Typ Beschreibung Erforderlich Standard
Inhalt Zeichenfolge oder Array Die Inhalte der Systemnachricht. Ja
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: system).
Mögliche Werte: system
Yes
Name Zeichenfolge Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No

chatCompletionRequestUserMessage

Name Typ Beschreibung Erforderlich Standard
Inhalt Zeichenfolge oder Array Die Inhalte der Benutzernachricht.
Ja
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: user).
Mögliche Werte: user
Yes
Name Zeichenfolge Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No

chatCompletionRequestAssistantMessage

Name Typ Beschreibung Erforderlich Standard
Inhalt Zeichenfolge oder Array Die Inhalte der Assistentennachricht. Erforderlich, es sei denn, tool_calls oder function_call ist angegeben.
No
Ablehnung Zeichenfolge Die Ablehnungsnachricht des Assistenten. No
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).
Mögliche Werte: assistant
Yes
Name Zeichenfolge Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
tool_calls chatCompletionMessageToolCalls Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. No
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. No

Eigenschaften für function_call

Argumente

Name Typ Beschreibung Standard
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen.

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der aufzurufenden Funktion.

chatCompletionRequestToolMessage

Name Typ Beschreibung Erforderlich Standard
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).
Mögliche Werte: tool
Ja
content Zeichenfolge oder Array Die Inhalte der Toolnachricht. Ja
tool_call_id Zeichenfolge Toolaufruf, auf den diese Nachricht reagiert. Ja

chatCompletionRequestFunctionMessage

Name Typ Beschreibung Erforderlich Standard
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Mögliche Werte: function
Ja
content Zeichenfolge Die Inhalte der Funktionsmeldung. Yes
Name Zeichenfolge Der Name der aufzurufenden Funktion. Ja

chatCompletionRequestSystemMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestUserMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestAssistantMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestToolMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestMessageContentPartText

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des Inhaltsteils
Mögliche Werte: text
Ja
Text Zeichenfolge Der Textinhalt. Ja

chatCompletionRequestMessageContentPartImage

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des Inhaltsteils
Mögliche Werte: image_url
Ja
image_url Objekt Ja

Eigenschaften für image_url

url

Name Typ Beschreibung Standard
url Zeichenfolge Entweder eine URL des Bilds oder die base64-codierten Bilddaten

detail

Name Typ Beschreibung Standard
detail Zeichenfolge Gibt den Detailgrad des Bilds an. Weitere Informationen finden Sie im Leitfaden für Vision. auto

chatCompletionRequestMessageContentPartRefusal

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des Inhaltsteils
Mögliche Werte: refusal
Ja
Ablehnung Zeichenfolge Eine vom Modell generierte Ablehnungsmeldung. Ja

azureChatExtensionConfiguration

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja

azureChatExtensionType

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Beschreibung: Eine Darstellung der Konfigurationsdaten einer einzelnen Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Typ: string

Standardwert:

Enumerationsname: AzureChatExtensionType

Enumerationswerte:

Wert Beschreibung
azure_search Stellt die Verwendung von Azure Search als Azure OpenAI-Chaterweiterung dar
azure_cosmos_db Stellt die Verwendung von Azure Cosmos DB als Azure OpenAI-Chaterweiterung dar.
elasticsearch Stellt die Verwendung des Elasticsearch®-Index als Azure OpenAI-Chaterweiterung dar.
mongo_db Stellt die Verwendung von Mongo DB als Azure OpenAI-Chaterweiterung dar.
pinecone Stellt die Verwendung des Pinecone-Index als Azure OpenAI-Chaterweiterung dar.

azureSearchChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter azureSearchChatExtensionParameters Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird No

azureSearchChatExtensionParameters

Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ Beschreibung Erforderlich Standard
authentication onYourDataApiKeyAuthenticationOptions, onYourDataSystemAssignedManagedIdentityAuthenticationOptions, onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
max_search_queries integer Die maximale Anzahl umgeschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollte. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
endpoint Zeichenfolge Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. Ja
index_name Zeichenfolge Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource. Ja
fields_mapping azureSearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. No
query_type azureSearchQueryType Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll No
semantic_configuration Zeichenfolge Die zusätzliche semantische Konfiguration für die Abfrage. No
filter Zeichenfolge Suchfilter. No
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataIntegratedVectorizationSource No
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No

azureSearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.

Name Typ Beschreibung Erforderlich Standard
title_field Zeichenfolge Der Name des Indexfelds, das als Titel verwendet werden soll No
url_field Zeichenfolge Der Name des Indexfelds, das als URL verwendet werden soll No
filepath_field Zeichenfolge Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
content_fields_separator Zeichenfolge Das Trennmuster, das Inhaltsfelder verwenden sollen. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No
image_vector_fields array Die Namen von Feldern, die Bildvektordaten darstellen. No

azureSearchQueryType

Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll

Beschreibung: Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll

Typ: string

Standardwert:

Enumerationsname: AzureSearchQueryType

Enumerationswerte:

Wert Beschreibung
Einfach Stellt den standardmäßigen einfachen Abfrageparser dar.
semantisch Stellt den Semantikabfrageparser für die erweiterte semantische Modellierung dar.
vector Stellt die Vektorsuche über berechnete Daten dar.
vector_simple_hybrid Stellt eine Kombination der einfachen Abfragestrategie mit Vektordaten dar.
vector_semantic_hybrid Stellt eine Kombination aus semantischer Suche und Vektordatenabfrage dar.

azureCosmosDBChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn Azure Cosmos DB als Azure OpenAI-Chaterweiterung verwendet wird

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter azureCosmosDBChatExtensionParameters Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for
MongoDB vCore verwenden.
No

azureCosmosDBChatExtensionParameters

Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden

Name Typ Beschreibung Erforderlich Standard
authentication onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
max_search_queries integer Die maximale Anzahl umgeschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollte. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
database_name Zeichenfolge Der Name der MongoDB vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll Ja
container_name Zeichenfolge Der Name des Azure Cosmos DB-Ressourcencontainers Ja
index_name Zeichenfolge Der Name des MongoDB vCore-Index, der mit Azure Cosmos DB verwendet werden soll Ja
fields_mapping azureCosmosDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource Ja
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Ja
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No

azureCosmosDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource

Name Typ Beschreibung Erforderlich Standard
title_field Zeichenfolge Der Name des Indexfelds, das als Titel verwendet werden soll No
url_field Zeichenfolge Der Name des Indexfelds, das als URL verwendet werden soll No
filepath_field Zeichenfolge Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Ja
content_fields_separator Zeichenfolge Das Trennmuster, das Inhaltsfelder verwenden sollen. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. Ja

elasticsearchChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Elasticsearch, wenn Elasticsearch als Azure OpenAI-Chaterweiterung verwendet wird.

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter elasticsearchChatExtensionParameters Zu verwendende Parameter beim Konfigurieren von Elasticsearch® als Azure OpenAI-Chaterweiterung. No

elasticsearchChatExtensionParameters

Zu verwendende Parameter beim Konfigurieren von Elasticsearch® als Azure OpenAI-Chaterweiterung.

Name Typ Beschreibung Erforderlich Standard
authentication onYourDataKeyAndKeyIdAuthenticationOptions oder onYourDataEncodedApiKeyAuthenticationOptions Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
max_search_queries integer Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
endpoint Zeichenfolge Der Endpunkt von Elasticsearch®. Ja
index_name Zeichenfolge Der Indexname von Elasticsearch®. Ja
fields_mapping elasticsearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Elasticsearch®-Ressource. No
query_type elasticsearchQueryType Der Typ der Elasticsearch®-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll. No
embedding_dependency onYourDataEndpointVectorizationSource, onYourDataDeploymentNameVectorizationSource oder onYourDataModelIdVectorizationSource No
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No

elasticsearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Elasticsearch®-Ressource.

Name Typ Beschreibung Erforderlich Standard
title_field Zeichenfolge Der Name des Indexfelds, das als Titel verwendet werden soll No
url_field Zeichenfolge Der Name des Indexfelds, das als URL verwendet werden soll No
filepath_field Zeichenfolge Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
content_fields_separator Zeichenfolge Das Trennmuster, das Inhaltsfelder verwenden sollen. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No

elasticsearchQueryType

Der Typ der Elasticsearch®-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.

Beschreibung: Der Typ der Elasticsearch®-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.

Typ: string

Standardwert:

Enumerationsname: ElasticsearchQueryType

Enumerationswerte:

Wert Beschreibung
Einfach Stellt den standardmäßigen einfachen Abfrageparser dar.
vector Stellt die Vektorsuche über berechnete Daten dar.

mongoDBChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Mongo DB, wenn Mongo DB als Azure OpenAI-Chaterweiterung verwendet wird.

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter mongoDBChatExtensionParameters Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Mongo DB verwenden. No

mongoDBChatExtensionParameters

Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Mongo DB verwenden.

Name Typ Beschreibung Erforderlich Standard
authentication onYourDataUsernameAndPasswordAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Benutzername und Kennwort. Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
max_search_queries integer Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
endpoint Zeichenfolge Der Name des Mongo DB-Clusterendpunkts. Ja
database_name Zeichenfolge Der Name der Mongo DB-Datenbank. Ja
collection_name Zeichenfolge Der Name der Mongo DB-Collection. Ja
app_name Zeichenfolge Der Name der Mongo DB-Anwendung. Ja
index_name Zeichenfolge Der Name des Mongo DB-Index. Ja
fields_mapping mongoDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource. Ja
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Ja
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No

mongoDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource.

Name Typ Beschreibung Erforderlich Standard
title_field Zeichenfolge Der Name des Indexfelds, das als Titel verwendet werden soll No
url_field Zeichenfolge Der Name des Indexfelds, das als URL verwendet werden soll No
filepath_field Zeichenfolge Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Ja
content_fields_separator Zeichenfolge Das Trennmuster, das Inhaltsfelder verwenden sollen. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. Ja

pineconeChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Pinecone, wenn Pinecone als Azure OpenAI-Chaterweiterung verwendet wird.

Name Typ Beschreibung Erforderlich Standard
Typ azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Ja
Parameter pineconeChatExtensionParameters Parameter zum Konfigurieren von Azure OpenAI-Chaterweiterungen vom Typ „Pinecone“. No

pineconeChatExtensionParameters

Parameter zum Konfigurieren von Azure OpenAI-Chaterweiterungen vom Typ „Pinecone“.

Name Typ Beschreibung Erforderlich Standard
authentication onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. Ja
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No
max_search_queries integer Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
Umgebung Zeichenfolge Der Umgebungsname von Pinecone. Ja
index_name Zeichenfolge Der Name des Pinecone-Datenbankindex. Ja
fields_mapping pineconeFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource. Ja
embedding_dependency onYourDataDeploymentNameVectorizationSource Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend
auf einem internen Namen der Einbettung der Modellimplementierung in der gleichen Azure OpenAI-Ressource.
Ja
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No

pineconeFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource.

Name Typ Beschreibung Erforderlich Standard
title_field Zeichenfolge Der Name des Indexfelds, das als Titel verwendet werden soll No
url_field Zeichenfolge Der Name des Indexfelds, das als URL verwendet werden soll No
filepath_field Zeichenfolge Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Ja
content_fields_separator Zeichenfolge Das Trennmuster, das Inhaltsfelder verwenden sollen. No

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja

onYourDataContextProperty

Die Kontexteigenschaft.

Beschreibung: Die Kontexteigenschaft.

Typ: string

Standardwert:

Enumerationsname: OnYourDataContextProperty

Enumerationswerte:

Wert Beschreibung
citations Die citations-Eigenschaft
Absicht Die intent-Eigenschaft
all_retrieved_documents Die all_retrieved_documents-Eigenschaft

onYourDataAuthenticationType

Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data

Beschreibung: Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data

Typ: string

Standardwert:

Enumerationsname: OnYourDataAuthenticationType

Enumerationswerte:

Wert Beschreibung
api_key Authentifizierung per API-Schlüssel
connection_string Authentifizierung per Verbindungszeichenfolge.
key_and_key_id Authentifizierung per Schlüssel- und Schlüssel-ID-Paar.
encoded_api_key Authentifizierung per codiertem API-Schlüssel.
access_token Authentifizierung per Zugriffstoken.
system_assigned_managed_identity Authentifizierung per systemseitig zugewiesener verwalteter Identität
user_assigned_managed_identity Authentifizierung per benutzerseitig zugewiesener verwalteter Identität
username_and_password Authentifizierung per Benutzername und Kennwort

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
Schlüssel Zeichenfolge Der für die Authentifizierung zu verwendende API-Schlüssel. No

onYourDataConnectionStringAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
connection_string Zeichenfolge Die Verbindungszeichenfolge für die Authentifizierung No

onYourDataKeyAndKeyIdAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Schlüssel- und Schlüssel-ID-Paars von Elasticsearch.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
Schlüssel Zeichenfolge Der für die Authentifizierung zu verwendende Elasticsearch-Schlüssel No
key_id Zeichenfolge Die für die Authentifizierung zu verwendende Elasticsearch-Schlüssel-ID No

onYourDataEncodedApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines elasticsearch-codierten API-Schlüssels

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
encoded_api_key Zeichenfolge Der für die Authentifizierung zu verwendende elasticsearch-codierte API-Schlüssel No

onYourDataAccessTokenAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Zugriffstoken

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
access_token Zeichenfolge Das Zugriffstoken zur Verwendung bei der Authentifizierung No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
managed_identity_resource_id Zeichenfolge Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. No

onYourDataUsernameAndPasswordAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Benutzername und Kennwort.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data Ja
username Zeichenfolge Der Benutzername, der für die Authentifizierung verwendet wird. No
Kennwort Zeichenfolge Das Kennwort. der für die Authentifizierung verwendet wird. No

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja

onYourDataVectorizationSourceType

Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren

Beschreibung: Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren.

Typ: string

Standardwert:

Enumerationsname: OnYourDataVectorizationSourceType

Enumerationswerte:

Wert Beschreibung
endpoint Stellt die Vektorisierung dar, die von Aufrufen durchgeführt wird, die von öffentlichen Diensten an ein Azure OpenAI-Einbettungsmodell gerichtet werden
deployment_name Stellt den zu verwendenden Namen einer Ada-Modellimplementierung dar. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden.
On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche
auch in privaten Netzwerken ermöglicht.
integriert Stellt den integrierten Vektorizer dar, der in der Suchressource definiert ist.
model_id Stellt eine spezifische Einbettungsmodell-ID gemäß Definition im Suchdienst dar.
Wird derzeit nur von Elasticsearch® unterstützt.

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einem Azure OpenAI-Endpunktaufruf für Einbettungen.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja
endpoint Zeichenfolge Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Sie sollte im Format https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings sein. Der Abfrageparameter der API-Version ist nicht zulässig. No
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions No
Dimensionen integer Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. No

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Namen der Modellimplementierung für Einbettungen in der gleichen Azure OpenAI-Ressource basiert.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja
deployment_name Zeichenfolge Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. No
Dimensionen integer Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. No

onYourDataIntegratedVectorizationSource

Stellt den integrierten Vektorizer dar, der in der Suchressource definiert ist.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja

onYourDataModelIdVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einer Suchdienstmodell-ID. Wird derzeit nur von Elasticsearch® unterstützt.

Name Typ Beschreibung Erforderlich Standard
Typ onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren
Ja
model_id Zeichenfolge Gibt die Modell-ID an, die für die Vektorisierung verwendet werden soll. Diese Modell-ID muss im Suchdienst definiert werden. No

azureChatExtensionsMessageContext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.

Name Typ Beschreibung Erforderlich Standard
citations array Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. No
Absicht Zeichenfolge Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. No
all_retrieved_documents array Alle abgerufenen Dokumente. No

citation

Zitatinformationen für eine Antwortnachricht für Chatvervollständigungen.

Name Typ Beschreibung Erforderlich Standard
content Zeichenfolge Der Inhalt des Zitats. Ja
title Zeichenfolge Der Titel des Zitats. No
url Zeichenfolge Die URL des Zitats. No
filepath Zeichenfolge Der Dateipfad des Zitats. No
chunk_id Zeichenfolge Die Segment-ID des Zitats. No
rerank_score Zahl Die neue Rangpunktzahl des abgerufenen Dokuments. No

retrievedDocument

Das abgerufene Dokument.

Name Typ Beschreibung Erforderlich Standard
content Zeichenfolge Der Inhalt des Zitats. Ja
title Zeichenfolge Der Titel des Zitats. No
url Zeichenfolge Die URL des Zitats. No
filepath Zeichenfolge Der Dateipfad des Zitats. No
chunk_id Zeichenfolge Die Segment-ID des Zitats. No
rerank_score Zahl Die neue Rangpunktzahl des abgerufenen Dokuments. No
search_queries array Die zum Abrufen des Dokuments verwendeten Suchabfragen. No
data_source_index integer Der Index der Datenquelle. No
original_search_score Zahl Die ursprüngliche Suchbewertung des abgerufenen Dokuments. No
filter_reason filterReason Der Filtergrund für das abgerufene Dokument. No

filterReason

Der Filtergrund für das abgerufene Dokument.

Beschreibung: Der Filtergrund für das abgerufene Dokument.

Typ: string

Standardwert:

Enumerationsname: FilterReason

Enumerationswerte:

Wert Beschreibung
Ergebnis Ihrer App Das Dokument wird nach dem Schwellenwert der ursprünglichen Suchbewertung gefiltert, der durch die Konfiguration von strictness definiert ist.
rerank Das Dokument wird nicht nach dem Schwellenwert der ursprünglichen Suchbewertung, sondern nach dem Neubewertungswert und der Konfiguration von top_n_documents gefiltert.

chatCompletionMessageToolCall

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Die ID des Toolaufrufs Ja
Typ toolCallType Der Typ des Toolaufrufs (in diesem Fall: function). Ja
Funktion Objekt Die Funktion, die das Modell aufgerufen hat Ja

Eigenschaften für „function“

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der aufzurufenden Funktion.

Argumente

Name Typ Beschreibung Standard
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen.

toolCallType

Der Typ des Toolaufrufs (in diesem Fall: function).

Beschreibung: Der Typ des Toolaufrufs (in diesem Fall: function)

Typ: string

Standardwert:

Enumerationsname: ToolCallType

Enumerationswerte:

Wert BESCHREIBUNG
Funktion Der Typ des Toolaufrufs ist „function“.

chatCompletionRequestMessageTool

Name Typ Beschreibung Erforderlich Standard
tool_call_id Zeichenfolge Toolaufruf, auf den diese Nachricht reagiert. No
content Zeichenfolge Der Inhalt der Nachricht. No

chatCompletionRequestMessageFunction

Name Typ Beschreibung Erforderlich Standard
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Mögliche Werte: function
No
name Zeichenfolge Der Inhalt der Nachricht. No
content Zeichenfolge Der Inhalt der Nachricht. No

createChatCompletionResponse

Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ein eindeutiger Bezeichner für die Chatvervollständigung Ja
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
Optionen array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n größer als 1 ist. Ja
erstellte integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Ja
Modell Zeichenfolge Das Modell, das für die Chatvervollständigung verwendet wird Ja
system_fingerprint Zeichenfolge Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
No
Objekt enum Der Objekttyp, der immer chat.completion ist.
Mögliche Werte: chat.completion
Ja
Nutzung completionUsage Nutzungsstatistiken für die Vervollständigungsanforderung No

createChatCompletionStreamResponse

Repräsentiert einen gestreamten Block einer Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ein eindeutiger Bezeichner für die Chatvervollständigung Jeder Block weist die gleiche ID auf. Ja
Optionen array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere Elemente enthalten, wenn n größer als 1 ist.
Ja
erstellte integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Alle Blöcke weisen den gleichen Zeitstempel auf. Ja
Modell Zeichenfolge Das Modell, das die Vervollständigung generiert. Ja
system_fingerprint Zeichenfolge Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
No
Objekt enum Der Objekttyp, der immer chat.completion.chunk ist.
Mögliche Werte: chat.completion.chunk
Ja

chatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.

Name Typ Beschreibung Erforderlich Standard
content Zeichenfolge Die Inhalte der Blocknachricht. No
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. No
tool_calls array No
role enum Die Rolle des Autors dieser Nachricht
Mögliche Werte: system, user, assistant, tool
No
Ablehnung Zeichenfolge Eine vom Modell generierte Ablehnungsmeldung. No

Eigenschaften für function_call

Argumente

Name Typ Beschreibung Standard
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen.

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der aufzurufenden Funktion.

chatCompletionMessageToolCallChunk

Name Typ Beschreibung Erforderlich Standard
Index integer Ja
id Zeichenfolge Die ID des Toolaufrufs No
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
No
Funktion Objekt No

Eigenschaften für „function“

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der aufzurufenden Funktion.

Argumente

Name Typ Beschreibung Standard
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen.

chatCompletionStreamOptions

Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.

Name Typ Beschreibung Erforderlich Standard
include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor der data: [DONE]-Nachricht gestreamt. Das Feld usage in diesem Block zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das Feld choices ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein Feld usage, jedoch mit einem NULL-Wert.
No

chatCompletionChoiceLogProbs

Logarithmierte Wahrscheinlichkeit für die Auswahl

Name Typ Beschreibung Erforderlich Standard
content array Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit Ja
Ablehnung array Eine Liste der Nachrichtenablehnungstoken mit Informationen zur logarithmierten Wahrscheinlichkeit. No

chatCompletionTokenLogprob

Name Typ Beschreibung Erforderlich Standard
token Zeichenfolge Das Token. Ja
logprob Zahl Die logarithmierte Wahrscheinlichkeit dieses Tokens Ja
Byte array Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. Ja
top_logprobs array Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. Ja

ChatCompletionResponseMessage

Eine vom Modell generierte Chatvervollständigungsnachricht

Name Typ Beschreibung Erforderlich Standard
role chatCompletionResponseMessageRole Die Rolle des Antwortnachrichterstellers Ja
Ablehnung Zeichenfolge Eine vom Modell generierte Ablehnungsmeldung. Ja
content Zeichenfolge Der Inhalt der Nachricht. Ja
tool_calls array Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. No
function_call chatCompletionFunctionCall Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. No
context azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen
an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn
eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer entsprechenden Erweiterung konfiguriert ist.
No

chatCompletionResponseMessageRole

Die Rolle des Antwortnachrichterstellers

Beschreibung: Die Rolle des Autors der Antwortnachricht

Typ: string

Standardwert:

Enumerationswerte:

  • assistant

chatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Mögliche Werte für diese Komponente:

chatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Ja
Funktion Objekt Ja

Eigenschaften für „function“

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der aufzurufenden Funktion.

ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionMessageToolCalls

Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionFunctionCall

Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden.

Name Typ Beschreibung Erforderlich Standard
name Zeichenfolge Der Name der aufzurufenden Funktion. Ja
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. Ja

completionUsage

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Typ Beschreibung Erforderlich Standard
prompt_tokens integer Anzahl der Token im Prompt. Ja
completion_tokens integer Anzahl der Token in der generierten Vervollständigung Ja
total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Ja
prompt_tokens_details Objekt Details der Prompttoken. No
completion_tokens_details Objekt Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. No

Eigenschaften für prompt_tokens_details

cached_tokens

Name Typ Beschreibung Standard
cached_tokens integer Die Anzahl der zwischengespeicherten Prompttoken.

Eigenschaften für completion_tokens_details

reasoning_tokens

Name Typ Beschreibung Standard
reasoning_tokens integer Vom Modell generierte Tokens zur Begründung.

chatCompletionTool

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Ja
Funktion FunctionObject Ja

FunctionParameters

Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.

Für diese Komponente sind keine Eigenschaften definiert.

FunctionObject

Name Typ Beschreibung Erforderlich Standard
Beschreibung string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
Parameter FunctionParameters Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
No
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict true ist. No False

ResponseFormatText

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des zu definierenden Antwortformats: text
Mögliche Werte: text
Ja

ResponseFormatJsonObject

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des zu definierenden Antwortformats: json_object
Mögliche Werte: json_object
Ja

ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseFormatJsonSchema

Name Typ Beschreibung Erforderlich Standard
Typ enum Der Typ des zu definierenden Antwortformats: json_schema
Mögliche Werte: json_schema
Ja
json_schema Objekt Ja

Eigenschaften für json_schema

Beschreibung

Name Typ Beschreibung Default
Beschreibung string Eine Beschreibung, wofür das Antwortformat gedacht ist, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll.

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64.

schema

Name Typ Beschreibung Standard
schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

strict

Name Typ Beschreibung Standard
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict true ist. False

chatCompletionChoiceCommon

Name Typ Beschreibung Erforderlich Standard
Index integer No
finish_reason Zeichenfolge No

createTranslationRequest

Übersetzungsanforderung

Name Typ Beschreibung Erforderlich Standard
datei Zeichenfolge Die zu übersetzende Audiodatei Ja
prompt Zeichenfolge Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt muss in englischer Sprache formuliert werden. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
Temperatur Zahl Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

audioResponse

Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „json“ war

Name Typ Beschreibung Erforderlich Standard
Text Zeichenfolge Übersetzter oder transkribierter Text Ja

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „verbose_json“ war

Name Typ Beschreibung Erforderlich Standard
Text Zeichenfolge Übersetzter oder transkribierter Text Ja
task Zeichenfolge Die Art von Audiotask No
language Zeichenfolge Sprache. No
duration Zahl Dauer. No
Segmente array No
words array No

audioResponseFormat

Definiert das Format der Ausgabe

Beschreibung: Definiert das Format der Ausgabe

Typ: string

Standardwert:

Enumerationswerte:

  • json
  • Text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transkriptionsanforderung

Name Typ Beschreibung Erforderlich Standard
datei Zeichenfolge Das zu transkribierende Audiodateiobjekt Ja
prompt Zeichenfolge Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
Temperatur Zahl Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
language Zeichenfolge Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. No
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Durch Segmentzeitstempel entsteht keine zusätzliche Wartezeit, aber das Generieren von Wortzeitstempeln führt zu zusätzlicher Wartezeit. No ['segment']

audioSegment

Transkriptions- oder Übersetzungssegment

Name Typ Beschreibung Erforderlich Standard
id integer Segmentbezeichner No
seek Zahl Der Offset des Segments No
start Zahl Der Offset für den Segmentbeginn. No
end Zahl Der Offset für das Segmentende No
Text Zeichenfolge Segmenttext No
tokens array Token des Texts No
Temperatur Zahl Temperatur No
avg_logprob Zahl Durchschnittliche logarithmierte Wahrscheinlichkeit No
compression_ratio Zahl Komprimierungsverhältnis No
no_speech_prob Zahl Wahrscheinlichkeit von „keine Sprache“ No

audioWord

Transkriptions- oder Übersetzungswort.

Name Typ Beschreibung Erforderlich Standard
word Zeichenfolge Word No
start Zahl Der Offset für den Wortbeginn. No
end Zahl Der Offset für das Wortende. No

createSpeechRequest

Sprachanforderung

Name Typ Beschreibung Erforderlich Standard
input Zeichenfolge Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Ja
voice enum Die Stimme, die für die Sprachsynthese verwendet werden soll.
Mögliche Werte: alloy, echo, fable, onyx, nova, shimmer
Ja
response_format enum Das Format für die Audiosynthetisierung.
Mögliche Werte: mp3, opus, aac, flac, wav, pcm
No
Geschwindigkeit Zahl Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von 0.25 bis 4.0 aus. 1.0 ist die Standardoption. No 1.0

imageQuality

Die Qualität des zu generierenden Bilds

Beschreibung: Die Qualität des zu generierenden Bilds

Typ: string

Standard: standard

Enumerationsname: Quality

Enumerationswerte:

Wert BESCHREIBUNG
Standard Bei Verwendung von Standardqualität werden Bilder mit Standardqualität erstellt.
hd Bei Verwendung von HD-Qualität werden Bilder mit mehr Details und höherer Konsistenz im gesamten Bild erstellt.

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden

Typ: string

Standard: url

Enumerationsname: ImagesResponseFormat

Enumerationswerte:

Wert Beschreibung
url Die URL für temporären Zugriff zum Herunterladen der generierten Bilder
b64_json Die generierten Bilder werden als base64-codierte Zeichenfolge zurückgegeben.

imageSize

Die Größe der generierten Bilder.

Beschreibung: Die Größe der generierten Bilder

Typ: string

Standard: 1024x1024

Enumerationsname: Size

Enumerationswerte:

Wert Beschreibung
256x256 Die gewünschte Größe des generierten Bilds beträgt 256 × 256 Pixel. Wird nur für DALL-E 2 unterstützt.
512 × 512 Die gewünschte Größe des generierten Bilds beträgt 512 × 512 Pixel. Wird nur für DALL-E 2 unterstützt.
1792x1024 Die gewünschte Größe des generierten Bilds beträgt 1.792 × 1.024 Pixel. Wird nur für DALL-E 3 unterstützt.
1024x1792 Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.792 Pixel. Wird nur für DALL-E 3 unterstützt.
1\.024 × 1.024 Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.024 Pixel.

imageStyle

Die Größe der generierten Bilder.

Beschreibung: Der Stil der generierten Bilder

Typ: string

Standard: vivid

Enumerationsname: Style

Enumerationswerte:

Wert Beschreibung
vivid Mit „vivid“ werden hyperrealistische und spektakuläre Bilder erstellt.
natural Mit „natural“ werden natürlichere und weniger hyperrealistische Bilder erstellt.

imageGenerationsRequest

Name Typ Beschreibung Erforderlich Standard
prompt Zeichenfolge Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen. Ja
n integer Die Anzahl der zu generierenden Bilder. No 1
size imageSize Die Größe der generierten Bilder. No 1\.024 × 1.024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
user Zeichenfolge Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No
qualität imageQuality Die Qualität des zu generierenden Bilds No Standard
style imageStyle Die Größe der generierten Bilder. No vivid

generateImagesResponse

Name Typ Beschreibung Erforderlich Standard
erstellte integer Der UNIX-Zeitstempel, der angibt, wann der Vorgang erstellt wurde Ja
data array Die Ergebnisdaten des Vorgangs, sofern der Vorgang erfolgreich war Ja

imageResult

Die Bild-URL oder das codierte Bild, sofern der Vorgang erfolgreich war. Andernfalls ein Fehler.

Name Typ Beschreibung Erforderlich Standard
url Zeichenfolge Die Bild-URL No
b64_json Zeichenfolge Das base64-codierte Bild No
content_filter_results dalleContentFilterResults Informationen zu den Ergebnissen der Inhaltsfilterung No
revised_prompt Zeichenfolge Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde No
prompt_filter_results dalleFilterResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. No

line

Ein Inhaltszeilenobjekt, bestehend aus einer zusammenhängenden Sequenz von Inhaltselementen (z. B. Wörter und Auswahlmarkierungen).

Name Typ Beschreibung Erforderlich Standard
Text Zeichenfolge Ja
spans array Ein Array von span-Objekten, die erkannte Objekte und die zugehörigen Angaben zum umgebenden Rechteck darstellen. Ja

span

Ein span-Objekt, das ein erkanntes Objekt und die zugehörigen Angaben zum umgebenden Rechteck darstellt.

Name Typ Beschreibung Erforderlich Standard
Text Zeichenfolge Der Textinhalt des span-Objekts, das das erkannte Objekt darstellt. Ja
offset integer Der Zeichenoffset innerhalb des Texts, der angibt, wo das span-Objekt beginnt. Dieser Offset ist als die Position des ersten Zeichens des span-Objekts definiert. Gezählt wird dabei vom Anfang des Texts in Unicode-Codepunkten. Ja
length integer Die Länge des span-Objekts in Zeichen, gemessen in Unicode-Codepunkten. Ja
polygon array Ein Array von Objekten, die Punkte in dem Polygon darstellen, das das erkannte Objekt umschließt. Ja

runCompletionUsage

Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht in einem Endzustand (d. h. in_progress, queued usw.) befindet.

Name Typ Beschreibung Erforderlich Standard
completion_tokens integer Die Anzahl von Vervollständigungstoken, die im Laufe der Ausführung verwendet wurden. Ja
prompt_tokens integer Die Anzahl von Prompttoken, die im Laufe der Ausführung verwendet wurden. Ja
total_tokens integer Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). Ja

runStepCompletionUsage

Verwendungsstatistik im Zusammenhang mit dem Ausführungsschritt. Dieser Wert ist null, solange der Ausführungsschritt den Status in_progress hat.

Name Typ Beschreibung Erforderlich Standard
completion_tokens integer Die Anzahl von Vervollständigungstoken, die im Laufe des Ausführungsschritts verwendet wurden. Ja
prompt_tokens integer Die Anzahl von Prompttoken, die im Laufe des Ausführungsschritts verwendet wurden. Ja
total_tokens integer Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). Ja

assistantsApiResponseFormatOption

Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.

Mögliche Werte für diese Komponente:

assistantsApiResponseFormat

Ein Objekt, das die erwartete Ausgabe des Modells beschreibt. Bei json_object darf nur der function-Typ tools an die Ausführung übergeben werden. Bei text kann das Modell Text oder einen beliebigen benötigten Wert zurückgeben.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Muss text oder json_object sein. No Text

Typenumeration: AssistantsApiResponseFormat

Wert Beschreibung
Text
json_object

assistantObject

Stellt einen Assistenten (assistant) dar, der das Modell aufrufen und Tools verwenden kann.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer assistant ist. Ja
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Assistent erstellt wurde. Yes
Name Zeichenfolge Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
Ja
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
Ja
Modell Zeichenfolge Die ID des zu verwendenden Modells. Sie können die Listenmodelle-API verwenden, um alle verfügbaren Modelle anzuzeigen.
Ja
Setup Zeichenfolge Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen.
Ja
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, file_search oder function sein.
Ja []
tool_resources Objekt Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Ja
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.

Objektenumeration: AssistantObjectType

Wert Beschreibung
assistant Der Objekttyp (immer „assistant“).

createAssistantRequest

Name Typ Beschreibung Erforderlich Standard
model Yes
Name Zeichenfolge Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
Beschreibung string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
Setup Zeichenfolge Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein.
No []
tool_resources Objekt Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Der an diesen Assistenten angefügte Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
vector_stores array Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Assistenten anzufügen. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.

modifyAssistantRequest

Name Typ Beschreibung Erforderlich Standard
model No
name Zeichenfolge Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
Beschreibung string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
Setup Zeichenfolge Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein.
No []
tool_resources Objekt Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Überschreibt die Liste mit den Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Überschreibt den an diesen Assistenten angefügten Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.

deleteAssistantResponse

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ja
deleted boolean Ja
Objekt Zeichenfolge Ja

Objektenumeration: DeleteAssistantResponseState

Wert Beschreibung
assistant.deleted

listAssistantsResponse

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
data array Ja
first_id Zeichenfolge Ja
last_id Zeichenfolge Ja
has_more boolean Ja

assistantToolsCode

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Die Art des Tools, das definiert wird: code_interpreter Ja

Typenumeration: assistantToolsCodeType

Wert Beschreibung
code_interpreter

assistantToolsFileSearch

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Die Art des Tools, das definiert wird: file_search Ja
file_search Objekt Überschreibungen für das Dateisuchtool No

max_num_results

Name Typ Beschreibung Standard
max_num_results integer Die maximale Anzahl von Ergebnissen, die das Dateisuchtool ausgeben soll. Der Standardwert ist 20 für GPT-4*-Modelle und 5 für GPT-3.5-Turbo. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen.

Beachten Sie, dass das Dateisuchtool möglicherweise weniger als max_num_results Ergebnisse ausgibt.

Typenumeration: assistantToolsFileSearchType

Wert Beschreibung
file_search

assistantToolsFileSearchTypeOnly

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Die Art des Tools, das definiert wird: file_search Ja

Typenumeration: assistantToolsFileSearchType

Wert Beschreibung
file_search

assistantToolsFunction

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Die Art des Tools, das definiert wird: function Ja
Funktion Objekt Die Funktionsdefinition. Ja

Eigenschaften für „function“

Beschreibung

Name Typ Beschreibung Default
Beschreibung string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird.

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64.

Parameter

Name Typ Beschreibung Standard
Parameter chatCompletionFunctionParameters Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Typenumeration: assistantToolsFunction

Wert BESCHREIBUNG
Funktion

truncationObject

Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Die für den Thread zu verwendende Kürzungsstrategie. Der Standardwert ist auto. Bei Verwendung von last_messages wird der Thread auf die n neuesten Nachrichten im Thread gekürzt. Bei Verwendung von auto werden Nachrichten in der Mitte des Threads gelöscht, um der Kontextlänge des Modells (max_prompt_tokens) zu entsprechen. Ja
last_messages integer Die Anzahl der neuesten Nachrichten aus dem Thread, wenn der Kontext für die Ausführung konstruiert wird. No

Typenumeration: TruncationType

Wert BESCHREIBUNG
auto
last_messages

assistantsApiToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert. auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.

Mögliche Werte für diese Komponente:

assistantsNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes Tool aufruft.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Der Typ des Tools. Wenn der Typ function ist, muss der Funktionsname festgelegt werden. Ja
Funktion Objekt No

Eigenschaften für „function“

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der aufzurufenden Funktion.

Typenumeration: AssistantsNamedToolChoiceType

Wert BESCHREIBUNG
Funktion
code_interpreter
file_search

runObject

Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer thread.run ist. Ja
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde Ja
thread_id Zeichenfolge Die ID des Threads, der als Teil dieser Ausführung ausgeführt wurde Ja
assistant_id Zeichenfolge Die ID des Assistenten, der für diese Ausführung verwendet wird Ja
Status Zeichenfolge Der Status der Ausführung, entweder queued, in_progress, requires_action, cancelling, cancelled, failed, completed oder expired Ja
required_action Objekt Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist. Ja
last_error Objekt Der letzte Fehler im Zusammenhang mit dieser Ausführung. Ist null, wenn keine Fehler vorliegen. Ja
expires_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft Ja
started_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde Ja
cancelled_at integer Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgebrochen wurde. Ja
failed_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist Ja
completed_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde Ja
incomplete_details Objekt Details zum Grund für die unvollständige Ausführung. Ist null, wenn die Ausführung nicht unvollständig ist. Ja
Modell Zeichenfolge Das Modell, das der Assistent für diese Ausführung verwendet hat. Ja
Setup Zeichenfolge Die Anweisungen, die der Assistent für diese Ausführung verwendet hat Ja
tools array Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat Ja []
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Ja
Nutzung runCompletionUsage Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht in einem Endzustand (d. h. in_progress, queued usw.) befindet. Ja
Temperatur Zahl Die für diese Ausführung verwendete Temperatur für die Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. No
top_p Zahl Der für diese Ausführung verwendete Wert für die Nukleus-Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. No
max_prompt_tokens integer Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden
Ja
max_completion_tokens integer Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden
Ja
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. Ja
Toolauswahl assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Ja
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Ja

Eigenschaften für „required_action“

Typ

Name Typ Beschreibung Standard
Typ Zeichenfolge Dieser Wert ist vorerst immer submit_tool_outputs.

submit_tool_outputs

Name Typ Beschreibung Standard
tool_calls array Eine Liste mit den relevanten Toolaufrufen.

Eigenschaften für „last_error“

code

Name Typ Beschreibung Standard
Code Zeichenfolge Einer der folgenden Werte: server_error oder rate_limit_exceeded.

message

Name Typ Beschreibung Standard
message Zeichenfolge Eine für Menschen lesbare Beschreibung des Fehlers.

Eigenschaften für „incomplete_details“

reason

Name Typ Beschreibung Standard
reason Zeichenfolge Der Grund für die unvollständige Ausführung. Gibt an, welcher spezifische Tokengrenzwert im Laufe der Ausführung erreicht wurde.

Objektenumeration: runObjectType

Wert Beschreibung
thread.run Der Ausführungsobjekttyp (immer „thread.run“).

Statusenumeration: RunObjectStatus

Wert Beschreibung
queued Der Zustand „queued“
in_progress Der Zustand „in_progress“
requires_action Der Zustand „required_action“
cancelling Der Zustand „cancelling“
cancelled Der Zustand „cancelled“
„Fehlgeschlagen“ Der Zustand „failed“
abgeschlossen Der Zustand „completed“
abgelaufen Der Zustand „abgelaufen“

createRunRequest

Name Typ Beschreibung Erforderlich Standard
assistant_id Zeichenfolge Die ID des Assistenten, der für diese Ausführung verwendet werden soll Ja
Modell Zeichenfolge Die Bereitstellungs-ID des Modells, das für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. No
Setup Zeichenfolge Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
additional_instructions Zeichenfolge Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. No
additional_messages array Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. No
tools array Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
Datenstrom boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
max_prompt_tokens integer Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
max_completion_tokens integer Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. No
Toolauswahl assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

listRunsResponse

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
data array Ja
first_id Zeichenfolge Ja
last_id Zeichenfolge Ja
has_more boolean Ja

modifyRunRequest

Name Typ Beschreibung Erforderlich Standard
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

submitToolOutputsRunRequest

Name Typ Beschreibung Erforderlich Standard
tool_outputs array Eine Liste der Tools, für die die Ausgaben übermittelt werden Ja
Datenstrom boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No

runToolCallObject

Toolaufrufobjekte

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Die ID des Toolaufrufs Auf diese ID muss verwiesen werden, wenn Sie die Toolausgaben mit „Toolausgaben übermitteln“ zum Ausführen des Endpunkts übermitteln. Ja
Typ Zeichenfolge Der Typ des Toolaufrufs, für den die Ausgabe erforderlich ist. Dieser Wert ist vorerst immer function. Ja
Funktion Objekt Die Funktionsdefinition. Ja

Eigenschaften für „function“

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der Funktion.

Argumente

Name Typ Beschreibung Standard
Argumente Zeichenfolge Die Argumente, von denen das Modell erwartet, dass Sie sie an die Funktion übergeben.

Typenumeration: RunToolCallObjectType

Wert BESCHREIBUNG
Funktion

createThreadAndRunRequest

Name Typ Beschreibung Erforderlich Standard
assistant_id Zeichenfolge Die ID des Assistenten, der für diese Ausführung verwendet werden soll Ja
Thread createThreadRequest No
model Zeichenfolge Der Bereitstellungsname des Modells, die für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. No
Setup Zeichenfolge Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
tools array Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
tool_resources Objekt Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
Temperatur Zahl Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
top_p Zahl Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
Datenstrom boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
stream_options chatCompletionStreamOptions Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
No Keine
max_prompt_tokens integer Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
max_completion_tokens integer Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. No
Toolauswahl assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.

threadObject

Stellt einen Thread dar, der Nachrichten enthält.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer thread ist. Ja
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Thread erstellt wurde. Ja
tool_resources Objekt Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Ja

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.

Objektenumeration: ThreadObjectType

Wert Beschreibung
Thread Die Art des Threadobjekts (immer thread).

createThreadRequest

Name Typ Beschreibung Erforderlich Standard
Cloud an das Gerät array Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. No
tool_resources Objekt Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
vector_stores array Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Thread anzufügen. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.

modifyThreadRequest

Name Typ Beschreibung Erforderlich Standard
tool_resources Objekt Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Eigenschaften für „tool_resources“

code_interpreter

Name Typ Beschreibung Standard
file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
[]

file_search

Name Typ Beschreibung Standard
vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.

deleteThreadResponse

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ja
deleted boolean Ja
Objekt Zeichenfolge Ja

Objektenumeration: DeleteThreadResponseObjectState

Wert Beschreibung
thread.deleted Der Zustand des gelöschten Threadantwortobjekts (thread.deleted)

listThreadsResponse

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
data array Ja
first_id Zeichenfolge Ja
last_id Zeichenfolge Ja
has_more boolean Ja

messageObject

Stellt eine Nachricht in einem Thread dar.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer thread.message ist. Ja
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht erstellt wurde. Ja
thread_id Zeichenfolge Die Thread-ID, zu der diese Nachricht gehört. Ja
Status Zeichenfolge Der Status der Nachricht (entweder in_progress, incomplete oder completed). Ja
incomplete_details Objekt Gibt im Falle einer unvollständigen Nachricht an, warum die Nachricht unvollständig ist. Ja
completed_at integer Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht vervollständigt wurde. Ja
incomplete_at integer Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht als unvollständig markiert wurde. Ja
role Zeichenfolge Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant. Ja
content array Der Inhalt der Nachricht im Textarray und/oder Bildern. Ja
assistant_id Zeichenfolge Falls zutreffend, die ID des Assistenten, der diese Nachricht erstellt hat. Ja
run_id Zeichenfolge Falls zutreffend, die ID der Ausführung, die der Erstellung dieser Nachricht zugeordnet ist. Ja
Anhänge array Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt wurden. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Ja

Eigenschaften für „incomplete_details“

reason

Name Typ Beschreibung Standard
reason Zeichenfolge Der Grund, warum die Nachricht unvollständig ist.

Objektenumeration: MessageObjectType

Wert Beschreibung
thread.message Der Nachrichtenobjekttyp (thread.message).

Statusenumeration: MessageObjectStatus

Wert Beschreibung
in_progress
incomplete
abgeschlossen

Rollenenumeration: MessageObjectRole

Wert Beschreibung
user
assistant

messageDeltaObject

Stellt ein Nachrichtendelta dar (also alle Felder für eine Nachricht, die ggf. während des Streamings geändert wurden).

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner der Nachricht, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer thread.message.delta ist. Ja
delta Objekt Das Delta, das die Felder enthält, die sich in der Nachricht geändert haben Ja

Eigenschaften für „delta“

role

Name Typ Beschreibung Standard
role Zeichenfolge Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant.

Inhalt

Name Typ Beschreibung Standard
content array Der Inhalt der Nachricht im Textarray und/oder Bildern.

Objektenumeration: MessageDeltaObjectType

Wert Beschreibung
thread.message.delta

createMessageRequest

Name Typ Beschreibung Erforderlich Standard
role Zeichenfolge Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind:
- user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.
- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.
Ja
content Zeichenfolge Der Inhalt der Nachricht. Ja
Anhänge array Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt werden sollen. No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Rollenenumeration: CreateMessageRequestRole

Wert Beschreibung
user
assistant

modifyMessageRequest

Name Typ Beschreibung Erforderlich Standard
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

deleteMessageResponse

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ja
deleted boolean Ja
Objekt Zeichenfolge Ja

Objektenumeration: DeleteMessageResponseObject

Wert Beschreibung
thread.message.deleted Der Status des Antwortobjekts für das Löschen einer Nachricht

listMessagesResponse

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
data array Ja
first_id Zeichenfolge Ja
last_id Zeichenfolge Ja
has_more boolean Ja

messageContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer image_file. Ja
image_file Objekt Ja

Eigenschaften für „image_file“

file_id

Name Typ Beschreibung Standard
file_id Zeichenfolge Die Datei-ID des Bilds im Nachrichteninhalt.

Typenumeration: MessageContentImageFileObjectType

Wert Beschreibung
image_file Der Bilddateityp des Nachrichteninhalts.

messageContentTextObject

Der Textinhalt, der Teil einer Nachricht ist.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer text. Ja
Text Objekt Ja

Eigenschaften für „text“

value

Name Typ Beschreibung Standard
value Zeichenfolge Die Daten, aus denen der Text besteht.

annotations

Name Typ Beschreibung Standard
annotations array

Typenumeration: messageContentTextObjectType

Wert Beschreibung
Text Der Objekttyp des Texts im Nachrichteninhalt.

messageContentTextAnnotationsFileCitationObject

Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „retrieval“ für die Dateisuche verwendet.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer file_citation. Ja
Text Zeichenfolge Der Text im Nachrichteninhalt, der ersetzt werden muss. Ja
file_citation Objekt Ja
start_index integer Ja
end_index integer Ja

Eigenschaften für „file_citation“

file_id

Name Typ Beschreibung Standard
file_id Zeichenfolge Die ID der spezifischen Datei, aus der das Zitat stammt.

Typenumeration: FileCitationObjectType

Wert Beschreibung
file_citation Der Objekttyp des Dateizitats.

messageContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter zum Generieren einer Datei verwendet hat.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer file_path. Ja
Text Zeichenfolge Der Text im Nachrichteninhalt, der ersetzt werden muss. Ja
file_path Objekt Ja
start_index integer Ja
end_index integer Ja

Eigenschaften für „file_path“

file_id

Name Typ Beschreibung Standard
file_id Zeichenfolge Die ID der generierten Datei.

Typenumeration: FilePathObjectType

Wert Beschreibung
file_path Der Objekttyp des Dateipfads.

messageDeltaContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index des Inhaltsteils in der Nachricht. Ja
Typ Zeichenfolge Immer image_file. Ja
image_file Objekt No

Eigenschaften für „image_file“

file_id

Name Typ Beschreibung Standard
file_id Zeichenfolge Die Datei-ID des Bilds im Nachrichteninhalt.

Typenumeration: MessageDeltaContentImageFileObjectType

Wert Beschreibung
image_file

messageDeltaContentTextObject

Der Textinhalt, der Teil einer Nachricht ist.

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index des Inhaltsteils in der Nachricht. Ja
Typ Zeichenfolge Immer text. Ja
Text Objekt No

Eigenschaften für „text“

value

Name Typ Beschreibung Standard
value Zeichenfolge Die Daten, aus denen der Text besteht.

annotations

Name Typ Beschreibung Standard
annotations array

Typenumeration: MessageDeltaContentTextObjectType

Wert Beschreibung
Text

messageDeltaContentTextAnnotationsFileCitationObject

Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „file_search“ für die Dateisuche verwendet.

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index der Anmerkung im Textinhaltsteil. Ja
Typ Zeichenfolge Immer file_citation. Ja
Text Zeichenfolge Der Text im Nachrichteninhalt, der ersetzt werden muss. No
file_citation Objekt No
start_index integer No
end_index integer No

Eigenschaften für „file_citation“

file_id

Name Typ Beschreibung Standard
file_id Zeichenfolge Die ID der spezifischen Datei, aus der das Zitat stammt.

Quote

Name Typ Beschreibung Standard
Quote Zeichenfolge Das spezifische Zitat in der Datei.

Typenumeration: MessageDeltaContentTextAnnotationsFileCitationObjectType

Wert Beschreibung
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter zum Generieren einer Datei verwendet hat.

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index der Anmerkung im Textinhaltsteil. Ja
Typ Zeichenfolge Immer file_path. Ja
Text Zeichenfolge Der Text im Nachrichteninhalt, der ersetzt werden muss. No
file_path Objekt No
start_index integer No
end_index integer No

Eigenschaften für „file_path“

file_id

Name Typ Beschreibung Standard
file_id Zeichenfolge Die ID der generierten Datei.

Typenumeration: MessageDeltaContentTextAnnotationsFilePathObjectType

Wert Beschreibung
file_path

runStepObject

Stellt einen Schritt in einer Ausführung dar.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer assistant.run.step ist. Ja
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt erstellt wurde Ja
assistant_id Zeichenfolge Die ID des Assistenten, der dem Ausführungsschritt zugeordnet ist Ja
thread_id Zeichenfolge Die ID des ausgeführten Threads Ja
run_id Zeichenfolge Die ID der Ausführung, zu der dieser Ausführungsschritt gehört Ja
Typ Zeichenfolge Die Art des Ausführungsschritts (message_creation oder tool_calls). Ja
Status Zeichenfolge Der Status der Ausführung (in_progress, cancelled, failed, completed oder expired). Ja
step_details runStepDetailsMessageCreationObject oder runStepDetailsToolCallsObject Die Details des Ausführungsschritts Ja
last_error Objekt Der letzte Fehler im Zusammenhang mit diesem Ausführungsschritt. Ist null, wenn keine Fehler vorliegen. Ja
expired_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgelaufen ist. Ein Schritt gilt als abgelaufen, wenn die übergeordnete Ausführung abgelaufen ist. Ja
cancelled_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgebrochen wurde Ja
failed_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt fehlgeschlagen ist Ja
completed_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgeschlossen wurde Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Ja

Eigenschaften für „last_error“

code

Name Typ Beschreibung Standard
Code Zeichenfolge Einer der folgenden Werte: server_error oder rate_limit_exceeded.

message

Name Typ Beschreibung Standard
message Zeichenfolge Eine für Menschen lesbare Beschreibung des Fehlers.

Objektenumeration: RunStepObjectType

Wert Beschreibung
assistant.run.step Der Objekttyp, der immer assistant.run.step ist.

Typenumeration: RunStepObjectType

Wert Beschreibung
message_creation Der Ausführungsschritt „message_creation“
tool_calls Der Ausführungsschritt „tool_calls“

Statusenumeration: RunStepObjectStatus

Wert Beschreibung
in_progress Der Ausführungsstatus „in_progress“
cancelled Der Ausführungsstatus „cancelled“
„Fehlgeschlagen“ Der Ausführungsstatus „cancelled“
abgeschlossen Der Ausführungsstatus „cancelled“
abgelaufen Der Ausführungsstatus „cancelled“

runStepDeltaObject

Stellt ein Ausführungsschrittdelta dar (also alle Felder für einen Ausführungsschritt, die ggf. während des Streamings geändert wurden).

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer thread.run.step.delta ist. Ja
delta Objekt Das Delta mit den Feldern, die sich im Ausführungsschritt geändert haben. Ja

Eigenschaften für „delta“

step_details

Name Typ Beschreibung Standard
step_details runStepDeltaStepDetailsMessageCreationObject oder runStepDeltaStepDetailsToolCallsObject Die Details des Ausführungsschritts

Objektenumeration: RunStepDeltaObjectType

Wert Beschreibung
thread.run.step.delta

listRunStepsResponse

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
data array Ja
first_id Zeichenfolge Ja
last_id Zeichenfolge Ja
has_more boolean Ja

runStepDetailsMessageCreationObject

Details zur Nachrichterstellung durch den Ausführungsschritt.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer message_creation. Ja
message_creation Objekt Ja

Eigenschaften für „message_creation“

message_id

Name Typ Beschreibung Standard
message_id Zeichenfolge Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde.

Typenumeration: RunStepDetailsMessageCreationObjectType

Wert Beschreibung
message_creation

runStepDeltaStepDetailsMessageCreationObject

Details zur Nachrichterstellung durch den Ausführungsschritt.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer message_creation. Ja
message_creation Objekt No

Eigenschaften für „message_creation“

message_id

Name Typ Beschreibung Standard
message_id Zeichenfolge Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde.

Typenumeration: RunStepDeltaStepDetailsMessageCreationObjectType

Wert Beschreibung
message_creation

runStepDetailsToolCallsObject

Details des Toolaufrufs.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer tool_calls. Ja
tool_calls array Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Tooltypen zugeordnet sein: code_interpreter, retrieval oder function.
Ja

Typenumeration: RunStepDetailsToolCallsObjectType

Wert Beschreibung
tool_calls

runStepDeltaStepDetailsToolCallsObject

Details des Toolaufrufs.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer tool_calls. Ja
tool_calls array Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Tooltypen zugeordnet sein: code_interpreter, file_search oder function.
No

Typenumeration: RunStepDeltaStepDetailsToolCallsObjectType

Wert Beschreibung
tool_calls

runStepDetailsToolCallsCodeObject

Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Die ID des Toolaufrufs Ja
Typ Zeichenfolge Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter. Ja
code_interpreter Objekt Die Definition des Code-Interpreter-Tools. Ja

Eigenschaften für „code_interpreter“

input

Name Typ Beschreibung Standard
input Zeichenfolge Die Eingabe für den Code-Interpreter-Toolaufruf.

outputs

Name Typ Beschreibung Standard
outputs array Die Ausgaben des Code-Interpreter-Toolaufrufs. Der Code-Interpreter kann eines oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bilder (image). Jedes dieser Elemente wird durch einen anderen Objekttyp dargestellt.

Typenumeration: RunStepDetailsToolCallsCodeObjectType

Wert Beschreibung
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index des Toolaufrufs im Toolaufruf-Array. Ja
id Zeichenfolge Die ID des Toolaufrufs No
Typ Zeichenfolge Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter. Ja
code_interpreter Objekt Die Definition des Code-Interpreter-Tools. No

Eigenschaften für „code_interpreter“

input

Name Typ Beschreibung Standard
input Zeichenfolge Die Eingabe für den Code-Interpreter-Toolaufruf.

outputs

Name Typ Beschreibung Standard
outputs array Die Ausgaben des Code-Interpreter-Toolaufrufs. Der Code-Interpreter kann eines oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bilder (image). Jedes dieser Elemente wird durch einen anderen Objekttyp dargestellt.

Typenumeration: RunStepDeltaStepDetailsToolCallsCodeObjectType

Wert Beschreibung
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer logs. Ja
logs Zeichenfolge Die Textausgabe des Code-Interpreter-Toolaufrufs. Ja

Typenumeration: RunStepDetailsToolCallsCodeOutputLogsObjectType

Wert Beschreibung
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index der Ausgabe im Ausgaben-Array. Ja
Typ Zeichenfolge Immer logs. Ja
logs Zeichenfolge Die Textausgabe des Code-Interpreter-Toolaufrufs. No

Typenumeration: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Wert Beschreibung
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer image. Ja
image Objekt Ja

Eigenschaften für „image“

file_id

Name Typ Beschreibung Standard
file_id Zeichenfolge Die Datei-ID des Bilds.

Typenumeration: RunStepDetailsToolCallsCodeOutputImageObjectType

Wert Beschreibung
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index der Ausgabe im Ausgaben-Array. Ja
Typ Zeichenfolge Immer image. Ja
image Objekt No

Eigenschaften für „image“

file_id

Name Typ Beschreibung Standard
file_id Zeichenfolge Die Datei-ID des Bilds.

Typenumeration: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Wert Beschreibung
image

runStepDetailsToolCallsFileSearchObject

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Die ID des Toolaufrufobjekts. Ja
Typ Zeichenfolge Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer file_search. Ja
file_search Objekt Ist vorerst immer ein leeres Objekt. Ja

Typenumeration: RunStepDetailsToolCallsFileSearchObjectType

Wert Beschreibung
file_search

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index des Toolaufrufs im Toolaufruf-Array. Ja
id Zeichenfolge Die ID des Toolaufrufobjekts. No
Typ Zeichenfolge Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer retrieval. Ja
file_search Objekt Ist vorerst immer ein leeres Objekt. Ja

Typenumeration: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Wert Beschreibung
file_search

runStepDetailsToolCallsFunctionObject

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Die ID des Toolaufrufobjekts. Ja
Typ Zeichenfolge Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function. Ja
Funktion Objekt Die Definition der aufgerufenen Funktion. Ja

Eigenschaften für „function“

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der Funktion.

Argumente

Name Typ Beschreibung Standard
Argumente Zeichenfolge Die an die Funktion übergebenen Argumente.

output

Name Typ Beschreibung Standard
output Zeichenfolge Die Ausgabe der Funktion. Ist null, wenn die Ausgaben noch nicht übermittelt wurden.

Typenumeration: RunStepDetailsToolCallsFunctionObjectType

Wert BESCHREIBUNG
Funktion

runStepDeltaStepDetailsToolCallsFunctionObject

Name Typ Beschreibung Erforderlich Standard
Index integer Der Index des Toolaufrufs im Toolaufruf-Array. Ja
id Zeichenfolge Die ID des Toolaufrufobjekts. No
Typ Zeichenfolge Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function. Ja
Funktion Objekt Die Definition der aufgerufenen Funktion. No

Eigenschaften für „function“

name

Name Typ Beschreibung Standard
name Zeichenfolge Der Name der Funktion.

Argumente

Name Typ Beschreibung Standard
Argumente Zeichenfolge Die an die Funktion übergebenen Argumente.

output

Name Typ Beschreibung Standard
output Zeichenfolge Die Ausgabe der Funktion. Ist null, wenn die Ausgaben noch nicht übermittelt wurden.

Typenumeration: RunStepDetailsToolCallsFunctionObjectType

Wert BESCHREIBUNG
Funktion

vectorStoreExpirationAfter

Die Ablaufrichtlinie für einen Vektorspeicher.

Name Typ Beschreibung Erforderlich Standard
Anker Zeichenfolge Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at. Ja
days integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Ja

Ankerenumeration: VectorStoreExpirationAfterAnchor

Wert Beschreibung
last_active_at Der Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird.

vectorStoreObject

Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt enum Der Objekttyp, der immer vector_store ist.
Mögliche Werte: vector_store
Ja
created_at integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. Yes
Name Zeichenfolge Der Name des Vektorspeichers. Ja
usage_bytes integer Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. Ja
file_counts Objekt Ja
Status Zeichenfolge Der Status des Vektorspeichers (expired, in_progress oder completed). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist. Ja
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
expires_at integer Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher abläuft. No
last_active_at integer Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Ja

Eigenschaften für „file_counts“

in_progress

Name Typ Beschreibung Standard
in_progress integer Die Anzahl von Dateien, die derzeit verarbeitet werden.

abgeschlossen

Name Typ Beschreibung Standard
abgeschlossen integer Die Anzahl erfolgreich verarbeiteter Dateien.

„Fehlgeschlagen“

Name Typ Beschreibung Standard
„Fehlgeschlagen“ integer Die Anzahl von Dateien, die nicht verarbeitet werden konnten.

cancelled

Name Typ Beschreibung Standard
cancelled integer Die Anzahl von Dateien, die abgebrochen wurden.

total

Name Typ Beschreibung Standard
total integer Die Gesamtanzahl der Dateien.

Statusenumeration: VectorStoreObjectStatus

Wert Beschreibung
abgelaufen
in_progress
abgeschlossen

createVectorStoreRequest

Name Typ Beschreibung Erforderlich Standard
file_ids array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. No
name Zeichenfolge Der Name des Vektorspeichers. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

updateVectorStoreRequest

Name Typ Beschreibung Erforderlich Standard
name Zeichenfolge Der Name des Vektorspeichers. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

listVectorStoresResponse

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
data array Ja
first_id Zeichenfolge Ja
last_id Zeichenfolge Ja
has_more boolean Ja

deleteVectorStoreResponse

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ja
deleted boolean Ja
Objekt Zeichenfolge Ja

Objektenumeration: DeleteVectorStoreResponseObject

Wert Beschreibung
vector_store.deleted Der Status des Antwortobjekts für das Löschen eines Vektorspeichers

vectorStoreFileObject

Eine Liste der an einen Vektorspeicher angefügten Dateien.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer vector_store.file ist. Ja
usage_bytes integer Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. Ja
created_at integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. Ja
vector_store_id Zeichenfolge Die ID des Vektorspeichers, an den die Datei angefügt ist. Ja
Status Zeichenfolge Der Status der Vektorspeicherdatei (in_progress, completed, cancelled oder failed). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist. Ja
last_error Objekt Der letzte Fehler im Zusammenhang mit dieser Vektorspeicherdatei. Ist null, wenn keine Fehler vorliegen. Ja
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. No

Eigenschaften für „last_error“

code

Name Typ Beschreibung Standard
Code Zeichenfolge Einer der folgenden Werte: server_error oder rate_limit_exceeded.

message

Name Typ Beschreibung Standard
message Zeichenfolge Eine für Menschen lesbare Beschreibung des Fehlers.

Objektenumeration: VectorStoreFileObjectType

Wert Beschreibung
vector_store.file

Statusenumeration: VectorStoreFileObjectStatus

Wert Beschreibung
in_progress
abgeschlossen
cancelled
„Fehlgeschlagen“

otherChunkingStrategyResponseParam

Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy-Konzepts in der API indiziert wurde.

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer other. Ja

Typenumeration: OtherChunkingStrategyResponseParamType

Wert Beschreibung
Andere

staticChunkingStrategyResponseParam

Name Typ Beschreibung Erforderlich Standard
Typ Zeichenfolge Immer static. Ja
static staticChunkingStrategy Ja

Typenumeration: StaticChunkingStrategyResponseParamType

Wert Beschreibung
static

staticChunkingStrategy

Name Typ Beschreibung Erforderlich Standard
max_chunk_size_tokens integer Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Mindestwert ist 100, und der maximale Wert ist 4096. Ja
chunk_overlap_tokens integer Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.

Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens-Werts sein darf.
Ja

autoChunkingStrategyRequestParam

Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400.

Name Typ Beschreibung Erforderlich Standard
Typ enum Immer auto.
Mögliche Werte: auto
Ja

staticChunkingStrategyRequestParam

Name Typ Beschreibung Erforderlich Standard
Typ enum Immer static.
Mögliche Werte: static
Ja
static staticChunkingStrategy Ja

chunkingStrategyRequestParam

Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet.

Mögliche Werte für diese Komponente:

createVectorStoreFileRequest

Name Typ Beschreibung Erforderlich Standard
file_id Zeichenfolge Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja
chunking_strategy chunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. No

listVectorStoreFilesResponse

Name Typ Beschreibung Erforderlich Standard
Objekt Zeichenfolge Ja
data array Ja
first_id Zeichenfolge Ja
last_id Zeichenfolge Ja
has_more boolean Ja

deleteVectorStoreFileResponse

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Ja
deleted boolean Ja
Objekt Zeichenfolge Ja

Objektenumeration: DeleteVectorStoreFileResponseObject

Wert Beschreibung
vector_store.file.deleted

vectorStoreFileBatchObject

Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.

Name Typ Beschreibung Erforderlich Standard
id Zeichenfolge Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt Zeichenfolge Der Objekttyp, der immer vector_store.file_batch ist. Ja
created_at integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. Ja
vector_store_id Zeichenfolge Die ID des Vektorspeichers, an den die Datei angefügt ist. Ja
Status Zeichenfolge Der Status des Vektorspeicher-Dateibatchs (in_progress, completed, cancelled oder failed). Ja
file_counts Objekt Ja

Eigenschaften für „file_counts“

in_progress

Name Typ Beschreibung Standard
in_progress integer Die Anzahl von Dateien, die derzeit verarbeitet werden.

abgeschlossen

Name Typ Beschreibung Standard
abgeschlossen integer Die Anzahl verarbeiteter Dateien.

„Fehlgeschlagen“

Name Typ Beschreibung Standard
„Fehlgeschlagen“ integer Die Anzahl von Dateien, die nicht verarbeitet werden konnten.

cancelled

Name Typ Beschreibung Standard
cancelled integer Die Anzahl von Dateien, die abgebrochen wurden.

total

Name Typ Beschreibung Standard
total integer Die Gesamtanzahl der Dateien.

Objektenumeration: VectorStoreFileBatchObjectType

Wert Beschreibung
vector_store.files_batch

Statusenumeration: VectorStoreFileBatchObjectStatus

Wert Beschreibung
in_progress
abgeschlossen
cancelled
„Fehlgeschlagen“

createVectorStoreFileBatchRequest

Name Typ Beschreibung Erforderlich Standard
file_ids array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja
chunking_strategy chunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. No

assistantStreamEvent

Stellt ein Ereignis dar, das beim Streamen einer Ausführung ausgegeben wird.

Jedes Ereignis in einem vom Server gesendeten Ereignisdatenstrom verfügt über eine event-Eigenschaft und über eine data-Eigenschaft:

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Ereignisse werden ausgegeben, wenn ein neues Objekt erstellt wird, in einen neuen Zustand übergeht oder in Teilen (Deltas) gestreamt wird. Beispielsweise wird thread.run.created ausgegeben, wenn eine neue Ausführung erstellt wird, und thread.run.completed, wenn eine Ausführung abgeschlossen wird. Wenn sich ein Assistent entscheidet, während einer Ausführung eine Nachricht zu erstellen, wird Folgendes in der angegebenen Reihenfolge ausgegeben: thread.message.created event, ein thread.message.in_progress-Ereignis, mehrere thread.message.delta-Ereignisse und schließlich ein thread.message.completed-Ereignis.

Im Laufe der Zeit kommen ggf. noch weitere Ereignisse hinzu. Daher empfiehlt es sich, unbekannte Ereignisse ordnungsgemäß in Ihrem Code zu behandeln.

Mögliche Werte für diese Komponente:

threadStreamEvent

Mögliche Werte für diese Komponente:

thread.created

Tritt auf, wenn ein neuer Thread erstellt wird.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data threadObject Stellt einen Thread dar, der Nachrichten enthält. Ja

Daten: threadObject

Ereignisenumeration: ThreadStreamEventEnum

Wert Beschreibung
thread.created Das Threaderstellungsereignis.

runStreamEvent

Mögliche Werte für diese Komponente:

thread.run.created

Tritt auf, wenn eine neue Ausführung erstellt wird.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventCreated

Wert Beschreibung
thread.run.created

thread.run.queued

Tritt auf, wenn eine Ausführung in den queued-Status wechselt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventQueued

Wert Beschreibung
thread.run.queued

thread.run.in_progress

Tritt auf, wenn eine Ausführung in einen Status vom Typ in_progress wechselt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventInProgress

Wert Beschreibung
thread.run.in_progress

thread.run.requires_action

Tritt auf, wenn eine Ausführung in den requires_action-Status wechselt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventRequiresAction

Wert Beschreibung
thread.run.requires_action

thread.run.completed

Tritt auf, wenn eine Ausführung abgeschlossen ist.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventCompleted

Wert Beschreibung
thread.run.completed

thread.run.failed

Tritt auf, wenn eine Ausführung fehlschlägt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventFailed

Wert Beschreibung
thread.run.failed

thread.run.cancelling

Tritt auf, wenn eine Ausführung in den cancelling-Status wechselt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventCancelling

Wert Beschreibung
thread.run.cancelling

thread.run.cancelled

Tritt auf, wenn eine Ausführung abgebrochen wird.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventCancelled

Wert Beschreibung
thread.run.cancelled

thread.run.expired

Tritt auf, wenn eine Ausführung verfällt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runObject Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. Ja

Daten: runObject

Ereignisenumeration: RunStreamEventExpired

Wert Beschreibung
thread.run.expired

runStepStreamEvent

Mögliche Werte für diese Komponente:

thread.run.step.created

Tritt auf, wenn ein Ausführungsschritt erstellt wird.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Ja

Daten: runStepObject

Ereignisenumeration: RunStepStreamEventCreated

Wert Beschreibung
thread.run.step.created

thread.run.step.in_progress

Tritt auf, wenn ein Ausführungsschritt in den in_progress-Zustand übergeht.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Ja

Daten: runStepObject

Ereignisenumeration: RunStepStreamEventInProgress

Wert Beschreibung
thread.run.step.in_progress

thread.run.step.delta

Tritt auf, wenn Teile eines Ausführungsschritts gestreamt werden.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runStepDeltaObject Stellt ein Ausführungsschrittdelta dar (also alle Felder für einen Ausführungsschritt, die ggf. während des Streamings geändert wurden).
Ja

Daten: runStepDeltaObject

Ereignisenumeration: RunStepStreamEventDelta

Wert Beschreibung
thread.run.step.delta

thread.run.step.completed

Tritt auf, wenn ein Ausführungsschritt abgeschlossen ist.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Ja

Daten: runStepObject

Ereignisenumeration: RunStepStreamEventCompleted

Wert Beschreibung
thread.run.step.completed

thread.run.step.failed

Tritt auf, wenn ein Ausführungsschritt fehlschlägt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Ja

Daten: runStepObject

Ereignisenumeration: RunStepStreamEventFailed

Wert Beschreibung
thread.run.step.failed

thread.run.step.cancelled

Tritt auf, wenn ein Ausführungsschritt abgebrochen wird.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Ja

Daten: runStepObject

Ereignisenumeration: RunStepStreamEventCancelled

Wert Beschreibung
thread.run.step.cancelled

thread.run.step.expired

Tritt auf, wenn ein Ausführungsschritt verfällt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Ja

Daten: runStepObject

Ereignisenumeration: RunStepStreamEventExpired

Wert Beschreibung
thread.run.step.expired

messageStreamEvent

Mögliche Werte für diese Komponente:

thread.message.created

Tritt auf, wenn eine Nachricht erstellt wird.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data messageObject Stellt eine Nachricht in einem Thread dar. Ja

Daten: messageObject

Ereignisenumeration: MessageStreamEventCreated

Wert Beschreibung
thread.message.created

thread.message.in_progress

Tritt auf, wenn eine Nachricht in einen Zustand vom Typ in_progress wechselt.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data messageObject Stellt eine Nachricht in einem Thread dar. Ja

Daten: messageObject

Ereignisenumeration: MessageStreamEventInProgress

Wert Beschreibung
thread.message.in_progress

thread.message.delta

Tritt auf, wenn Teile einer Nachricht gestreamt werden.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data messageDeltaObject Stellt ein Nachrichtendelta dar (also alle Felder für eine Nachricht, die ggf. während des Streamings geändert wurden).
Ja

Daten: messageDeltaObject

Ereignisenumeration: MessageStreamEventDelta

Wert Beschreibung
thread.message.delta

thread.message.completed

Tritt auf, wenn eine Nachricht abgeschlossen ist.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data messageObject Stellt eine Nachricht in einem Thread dar. Ja

Daten: messageObject

Ereignisenumeration: MessageStreamEventCompleted

Wert Beschreibung
thread.message.completed

thread.message.incomplete

Tritt auf, wenn eine Nachricht endet, bevor sie abgeschlossen ist.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data messageObject Stellt eine Nachricht in einem Thread dar. Ja

Daten: messageObject

Ereignisenumeration: MessageStreamEventIncomplete

Wert Beschreibung
thread.message.incomplete

errorEvent

Tritt auf, wenn ein Fehler auftritt. Dies kann aufgrund eines internen Serverfehlers oder eines Timeouts eintreten.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data error Ja

Ereignisenumeration: ErrorEventEnum

Wert Beschreibung
error

doneEvent

Tritt auf, wenn ein Datenstrom endet.

Name Typ Beschreibung Erforderlich Standard
event Zeichenfolge Ja
data Zeichenfolge Ja

Ereignisenumeration: DoneEventEnum

Wert Beschreibung
done

Datenenumeration: DoneEventDataEnum

Wert Beschreibung
[DONE]

Nächste Schritte

Erfahren Sie mehr über Modelle und die Optimierung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.