Referenz zur Vorschauversion der REST-API von Azure OpenAI Service
Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.
API-Spezifikationen
Die Verwaltung von Azure OpenAI-Modellen und -Ressourcen und die Interaktion mit ihnen ist auf drei primäre API-Oberflächen aufgeteilt:
- Steuerungsebene
- Datenebene: Erstellung
- Datenebene: Rückschluss
Jede API-Oberfläche/-Spezifikation kapselt eine andere Gruppe von Azure OpenAI-Funktionen. Jede API verfügt über individuelle Vorschau-API-Releases und stabile/allgemein verfügbare API-Releases. Vorschaureleases folgen derzeit in der Regel einem monatlichen Rhythmus.
API | Neuestes Vorschaurelease | Neuestes allgemein verfügbares Release | Spezifikationen | Beschreibung |
---|---|---|---|---|
Steuerungsebene | 2024-06-01-preview |
2024-10-01 |
Spezifikationsdateien | Azure OpenAI teilt sich eine gemeinsame Steuerungsebene mit allen anderen Azure KI Services-Instanzen. Die Steuerungsebenen-API wird unter anderem zum Erstellen von Azure OpenAI-Ressourcen, für die Modellimplementierung und für andere übergeordnete Ressourcenverwaltungsaufgaben verwendet. Die Steuerungsebene steuert auch, was mit Komponenten wie Azure Resource Manager, Bicep, Terraform und der Azure CLI möglich ist. |
Datenebene: Erstellung | 2024-10-01-preview |
2024-10-21 |
Spezifikationsdateien | Die Erstellungs-API der Datenebene steuert die Optimierung, Dateiuploads, Datenerfassungsaufträge, Batchvorgänge und bestimmte Abfragen auf Modellebene. |
Datenebene: Rückschluss | 2024-10-01-preview |
2024-10-21 |
Spezifikationsdateien | Die Datenebenen-API für Rückschlüsse stellt die Rückschlussfunktionen/-endpunkte für Features wie Vervollständigungen, Chatvervollständigungen, Einbettungen, Speech/Whisper, „On Your Data“, DALL-E, Assistenten usw. bereit. |
Authentifizierung
Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.
API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den
api-key
-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als
Authorization
-Header in eine Anforderung eingefügt. Dem bereitgestellten Token mussBearer
vorangestellt werden. Beispiel:Bearer YOUR_AUTH_TOKEN
. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.
REST-API-Versionsverwaltung
Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version
ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Zum Beispiel:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Datenebene: Rückschluss
Der Rest des Artikels behandelt das neueste Vorschaurelease der Azure OpenAI-Datenebenenspezifikation für Rückschlüsse: 2024-10-01-preview
. In diesem Artikel werden die neuesten Vorschaufunktionen wie Assistenten, Threads und Vektorspeicher dokumentiert.
Eine Dokumentation für das neueste allgemein verfügbare API-Release der Datenebenen-API für Rückschlüsse finden Sie hier.
Vervollständigungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des -Modells, das bereitgestellt wurde |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt | Zeichenfolge oder Array | Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden. Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, wird die Generierung des Modells wie am Anfang eines neuen Dokuments durchgeführt. |
Ja | |
best_of | integer | Generiert serverseitige best_of -Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als n sein.Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
No | 1 |
Echo | boolean | Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. |
No | False |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
No | 0 |
logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird. |
No | Keine |
logprobs | integer | Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Tokens zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.Der Höchstwert für logprobs ist 5. |
No | Keine |
max_tokens | integer | Die maximale Anzahl von Token, die in der Vervollständigung generiert werden können. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
Nein | 16 |
n | integer | Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
No | 1 |
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
No | 0 |
seed | integer | Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. |
No | |
Datenstrom | boolean | Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn dieser Parameter festgelegt wird, werden Token als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch die Nachricht data: [DONE] beendet wird. |
No | False |
Suffix | Zeichenfolge | Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt. |
No | Keine |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | createCompletionResponse | Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dieselbe Form (im Gegensatz zum Chatendpunkt). |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | errorResponse |
Beispiele
Beispiel
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antworten: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Einbettungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine Learning-Modellen und anderen Algorithmen problemlos verarbeitet werden kann.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
input | Zeichenfolge oder Array | Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für text-embedding-ada-002 ), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder weniger umfassen. |
Ja | |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
input_type | Zeichenfolge | Eingabetyp der zu verwendenden Einbettungssuche | No | |
encoding_format | Zeichenfolge | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. |
No | |
Dimensionen | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No |
Antworten
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
Modell | Zeichenfolge | Ja | ||
data | array | Ja | ||
Nutzung | Objekt | Ja |
Eigenschaften für „usage“
prompt_tokens
Name | Typ | Beschreibung | Standard |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Name | Typ | Beschreibung | Standard |
---|---|---|---|
total_tokens | integer |
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | Objekt |
Beispiele
Beispiel
Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
{
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chatvervollständigungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
Erstellt eine Vervollständigung für die Chatnachricht.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des -Modells, das bereitgestellt wurde |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] -Nachricht beendet wird |
No | False |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. |
No | |
max_tokens | integer | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt. |
No | |
max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Dies wird nur bei Modellen der o1-Serie unterstützt. Die Unterstützung wird in einer zukünftigen API-Version auf andere Modelle ausgeweitet. | No | |
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
No | 0 |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
No | 0 |
logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
No | Keine |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
No | |
Cloud an das Gerät | array | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. | Ja | |
data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das in der content von message zurückgegeben wird. |
No | False |
top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. |
No | |
n | integer | Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1 , um die Kosten zu minimieren. |
No | 1 |
parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | True |
response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.Die Einstellung auf { "type": "json_schema", "json_schema": {...} } ermöglicht strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
stream_options | chatCompletionStreamOptions | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
No | Keine |
tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. |
No | |
Toolauswahl | chatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
No | |
function_call | string oder chatCompletionFunctionCallOption | Zugunsten von tool_choice eingestellt.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
No | |
functions | array | Zugunsten von tools eingestellt.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | createChatCompletionResponse oder createChatCompletionStreamResponse |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | errorResponse |
Beispiele
Beispiel
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Daten und der systemseitig zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Bildvektordaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Vektordaten, der vorherigen Assistentennachricht und der systemseitig zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung für die angegebene Azure Cosmos DB-Instanz
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung für die angegebene Mongo DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung für die angegebene Elasticsearch-Instanz.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Beispiel
Erstellt eine Vervollständigung für die angegebene Pinecone-Ressource.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptionen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Transkribiert Audio in die Eingabesprache.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des Whisper-Modells |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: multipart/form-data
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
datei | Zeichenfolge | Das zu transkribierende Audiodateiobjekt | Ja | |
prompt | Zeichenfolge | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. | No | |
response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
Temperatur | Zahl | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
language | Zeichenfolge | Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. | No | |
timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment . Hinweis: Durch Segmentzeitstempel entsteht keine zusätzliche Wartezeit, aber das Generieren von Wortzeitstempeln führt zu zusätzlicher Wartezeit. |
No | ['segment'] |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | audioResponse oder audioVerboseResponse | |
text/plain | Zeichenfolge | Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war) |
Beispiele
Beispiel
Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Beispiel
Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Übersetzungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
Transkribiert Audioeingaben und übersetzt sie in englischen Text.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des Whisper-Modells, das bereitgestellt wurde |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: multipart/form-data
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
datei | Zeichenfolge | Die zu übersetzende Audiodatei | Ja | |
prompt | Zeichenfolge | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt muss in englischer Sprache formuliert werden. | No | |
response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
Temperatur | Zahl | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | audioResponse oder audioVerboseResponse | |
text/plain | Zeichenfolge | Transkribierter Text im Ausgabeformat (wenn „response_format“ entweder „text“, „vtt“ oder „srt“ war) |
Beispiele
Beispiel
Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Beispiel
Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Sprache: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
Generiert Audio aus dem Eingabetext.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des Text-zu-Sprache-Modells, das bereitgestellt wurde |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: multipart/form-data
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
input | Zeichenfolge | Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. | Ja | |
voice | enum | Die Stimme, die für die Sprachsynthese verwendet werden soll. Mögliche Werte: alloy, echo, fable, onyx, nova, shimmer |
Ja | |
response_format | enum | Das Format für die Audiosynthetisierung. Mögliche Werte: mp3, opus, aac, flac, wav, pcm |
No | |
Geschwindigkeit | Zahl | Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von 0.25 bis 4.0 aus. 1.0 ist die Standardoption. |
No | 1.0 |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/octet-stream | Zeichenfolge |
Beispiele
Beispiel
Synthetisiert Audio aus dem bereitgestellten Text.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Antworten: Statuscode: 200
{
"body": "101010101"
}
Bildgenerierungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
Generiert eine Reihe von Bildern auf der Grundlage einer Textbeschriftung für eine bestimmte DALL-E-Modellimplementierung
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
Bereitstellungs-ID | path | Ja | Zeichenfolge | Bereitstellungs-ID des dall-e-Modells, das bereitgestellt wurde. |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt | Zeichenfolge | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4.000 Zeichen. | Ja | |
n | integer | Die Anzahl der zu generierenden Bilder. | No | 1 |
size | imageSize | Die Größe der generierten Bilder. | No | 1\.024 × 1.024 |
response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
qualität | imageQuality | Die Qualität des zu generierenden Bilds | No | Standard |
style | imageStyle | Die Größe der generierten Bilder. | No | vivid |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Fehler.
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | dalleErrorResponse |
Beispiele
Beispiel
Erstellt Bilder auf der Grundlage eines Prompts.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antworten: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Auflisten: Assistenten
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Gibt eine Liste mit Assistenten zurück.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
limit | query | No | integer | |
Reihenfolge | query | No | Zeichenfolge | |
after | query | No | Zeichenfolge | |
before | query | No | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | listAssistantsResponse |
Beispiele
Beispiel
Gibt eine Liste mit Assistenten zurück.
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Erstellen: Assistent
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
model | Yes | |||
Name | Zeichenfolge | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
Beschreibung | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
Setup | Zeichenfolge | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen. |
No | |
tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter , retrieval oder function sein. |
No | [] |
tool_resources | Objekt | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Der an diesen Assistenten angefügte Vektorspeicher. An den Assistenten kann maximal ein Vektorspeicher angefügt werden. |
|
vector_stores | array | Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Assistenten anzufügen. An den Assistenten kann maximal ein Vektorspeicher angefügt werden. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | assistantObject | Stellt einen Assistenten (assistant ) dar, der das Modell aufrufen und Tools verwenden kann. |
Beispiele
Beispiel
Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Antworten: Statuscode: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Abrufen: Assistent
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Ruft einen Assistenten ab.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
assistant_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | assistantObject | Stellt einen Assistenten (assistant ) dar, der das Modell aufrufen und Tools verwenden kann. |
Beispiele
Beispiel
Ruft einen Assistenten ab.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Ändern: Assistent
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Ändert einen Assistenten.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
assistant_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
model | No | |||
name | Zeichenfolge | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
Beschreibung | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
Setup | Zeichenfolge | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen. |
No | |
tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter , retrieval oder function sein. |
No | [] |
tool_resources | Objekt | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Überschreibt die Liste mit den Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Überschreibt den an diesen Assistenten angefügten Vektorspeicher. An den Assistenten kann maximal ein Vektorspeicher angefügt werden. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | assistantObject | Stellt einen Assistenten (assistant ) dar, der das Modell aufrufen und Tools verwenden kann. |
Beispiele
Beispiel
Ändert einen Assistenten.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Antworten: Statuscode: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Löschen: Assistent
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Löscht einen Assistenten.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
assistant_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | deleteAssistantResponse |
Beispiele
Beispiel
Löscht einen Assistenten.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Erstellen: Thread
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Erstellen Sie einen Thread.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Cloud an das Gerät | array | Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. | No | |
tool_resources | Objekt | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
|
vector_stores | array | Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Thread anzufügen. An den Thread kann maximal ein Vektorspeicher angefügt werden. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | threadObject | Stellt einen Thread dar, der Nachrichten enthält. |
Beispiele
Beispiel
Erstellt einen Thread.
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Abrufen: Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Ruft einen Thread ab.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | threadObject | Stellt einen Thread dar, der Nachrichten enthält. |
Beispiele
Beispiel
Ruft einen Thread ab.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Ändern: Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Ändert einen Thread.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
tool_resources | Objekt | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein Vektorspeicher angefügt werden. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | threadObject | Stellt einen Thread dar, der Nachrichten enthält. |
Beispiele
Beispiel
Ändert einen Thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Löschen: Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Löscht einen Thread.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | deleteThreadResponse |
Beispiele
Beispiel
Löscht einen Thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Auflisten: Nachrichten
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Gibt eine Liste von Nachrichten für einen bestimmten Thread zurück.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
limit | query | No | integer | |
Reihenfolge | query | No | Zeichenfolge | |
after | query | No | Zeichenfolge | |
before | query | No | Zeichenfolge | |
run_id | query | No | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | listMessagesResponse |
Beispiele
Beispiel
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Erstellen: Nachricht
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Erstellen Sie eine Nachricht.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | Zeichenfolge | Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind: - user : Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.- assistant : Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen. |
Ja | |
content | Zeichenfolge | Der Inhalt der Nachricht. | Ja | |
Anhänge | array | Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt werden sollen. | No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | messageObject | Stellt eine Nachricht in einem Thread dar. |
Beispiele
Beispiel
Erstellen Sie eine Nachricht.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Antworten: Statuscode: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Abrufen: Nachricht
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Rufen Sie eine Nachricht ab.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
message_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | messageObject | Stellt eine Nachricht in einem Thread dar. |
Beispiele
Beispiel
Rufen Sie eine Nachricht ab.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Ändern: Nachricht
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Ändert eine Nachricht.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
message_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | messageObject | Stellt eine Nachricht in einem Thread dar. |
Beispiele
Beispiel
Ändern Sie eine Nachricht.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Erstellen: Thread und Ausführung
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
Dient dazu, einen Thread in einer einzelnen Anforderung zu erstellen und auszuführen.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
assistant_id | Zeichenfolge | Die ID des Assistenten, der für diese Ausführung verwendet werden soll | Ja | |
Thread | createThreadRequest | No | ||
model | Zeichenfolge | Der Bereitstellungsname des Modells, die für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | No | |
Setup | Zeichenfolge | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
tools | array | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
tool_resources | Objekt | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
stream_options | chatCompletionStreamOptions | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
No | Keine |
max_prompt_tokens | integer | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete . Weitere Informationen finden Sie unter incomplete_details . |
No | |
max_completion_tokens | integer | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete . Weitere Informationen finden Sie unter incomplete_details . |
No | |
truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | No | |
Toolauswahl | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
No | |
parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | True |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein Vektorspeicher angefügt werden. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. |
Beispiele
Beispiel
Dient dazu, einen Thread in einer einzelnen Anforderung zu erstellen und auszuführen.
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Auflisten: Ausführungen
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Gibt eine Liste von Ausführungen zurück, die zu einem Thread gehören.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
limit | query | No | integer | |
Reihenfolge | query | No | Zeichenfolge | |
after | query | No | Zeichenfolge | |
before | query | No | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | listRunsResponse |
Beispiele
Beispiel
Gibt eine Liste von Ausführungen zurück, die zu einem Thread gehören.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Erstellen: Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Erstellen Sie eine Ausführung.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
assistant_id | Zeichenfolge | Die ID des Assistenten, der für diese Ausführung verwendet werden soll | Ja | |
Modell | Zeichenfolge | Die ID des Modells, das für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | No | |
Setup | Zeichenfolge | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
additional_instructions | Zeichenfolge | Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. | No | |
additional_messages | array | Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. | No | |
tools | array | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
max_prompt_tokens | integer | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete . Weitere Informationen finden Sie unter incomplete_details . |
No | |
max_completion_tokens | integer | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete . Weitere Informationen finden Sie unter incomplete_details . |
No | |
truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | No | |
Toolauswahl | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
No | |
parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | True |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. |
Beispiele
Beispiel
Erstellen Sie eine Ausführung.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123"
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Abrufen: Ausführung
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Ruft eine Ausführung ab.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
run_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. |
Beispiele
Beispiel
Ruft eine Ausführung ab.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Ändern: Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Ändert eine Ausführung.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
run_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. |
Beispiele
Beispiel
Ändert eine Ausführung.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Übermitteln: Toolausgaben für die Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
Wenn eine Ausführung den Status status: "requires_action"
hat und required_action.type
auf submit_tool_outputs
festgelegt ist, kann dieser Endpunkt zum Übermitteln der Ausgaben aus den Toolaufrufen verwendet werden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzelnen Anforderung übermittelt werden.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
run_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
tool_outputs | array | Eine Liste der Tools, für die die Ausgaben übermittelt werden | Ja | |
Datenstrom | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. |
Beispiele
Beispiel
Wenn eine Ausführung den Status status: "requires_action"
hat und required_action.type
auf submit_tool_outputs
festgelegt ist, kann dieser Endpunkt zum Übermitteln der Ausgaben aus den Toolaufrufen verwendet werden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzelnen Anforderung übermittelt werden.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Abbrechen: Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Bricht eine Ausführung ab, die den Status in_progress
aufweist.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
run_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. |
Beispiele
Beispiel
Bricht eine Ausführung ab, die den Status in_progress
aufweist.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Auflisten: Ausführungsschritte
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Gibt eine Liste von Ausführungsschritten zurück, die zu einer Ausführung gehören.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
run_id | path | Ja | Zeichenfolge | |
limit | query | No | integer | |
Reihenfolge | query | No | Zeichenfolge | |
after | query | No | Zeichenfolge | |
before | query | No | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | listRunStepsResponse |
Beispiele
Beispiel
Gibt eine Liste von Ausführungsschritten zurück, die zu einer Ausführung gehören.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Abrufen: Ausführungsschritt
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Ruft einen Ausführungsschritt ab.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
thread_id | path | Ja | Zeichenfolge | |
run_id | path | Ja | Zeichenfolge | |
step_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge | API-Version |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Beispiele
Beispiel
Ruft einen Ausführungsschritt ab.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Auflisten: Vektorspeicher
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Gibt eine Liste mit Vektorspeichern zurück.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
limit | query | No | integer | |
Reihenfolge | query | No | Zeichenfolge | |
after | query | No | Zeichenfolge | |
before | query | No | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | listVectorStoresResponse |
Beispiele
Beispiel
Gibt eine Liste mit Vektorspeichern zurück.
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Erstellen: Vektorspeicher
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Erstellen Sie einen Vektorspeicher.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search , die auf Dateien zugreifen können. |
No | |
name | Zeichenfolge | Der Name des Vektorspeichers. | No | |
expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | vectorStoreObject | Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können. |
Beispiele
Beispiel
Erstellt einen Vektorspeicher.
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Abrufen: Vektorspeicher
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Ruft einen Vektorspeicher ab.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | vectorStoreObject | Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können. |
Beispiele
Beispiel
Ruft einen Vektorspeicher ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Ändern: Vektorspeicher
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Ändert einen Vektorspeicher.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
name | Zeichenfolge | Der Name des Vektorspeichers. | No | |
expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | vectorStoreObject | Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können. |
Beispiele
Beispiel
Ändert einen Vektorspeicher.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
{
"name": "Support FAQ"
}
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Löschen: Vektorspeicher
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Löschen Sie einen Vektorspeicher.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | deleteVectorStoreResponse |
Beispiele
Beispiel
Löscht einen Vektorspeicher.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Auflisten: Vektorspeicherdateien
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Gibt eine Liste mit Vektorspeicherdateien zurück.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
limit | query | No | integer | |
Reihenfolge | query | No | Zeichenfolge | |
after | query | No | Zeichenfolge | |
before | query | No | Zeichenfolge | |
filter | query | No | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | listVectorStoreFilesResponse |
Beispiele
Beispiel
Gibt eine Liste mit Vektorspeicherdateien zurück.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Erstellen: Vektorspeicherdatei
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
file_id | Zeichenfolge | Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search , die auf Dateien zugreifen können. |
Ja | |
chunking_strategy | chunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | vectorStoreFileObject | Eine Liste der an einen Vektorspeicher angefügten Dateien. |
Beispiele
Beispiel
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
{
"file_id": "file-abc123"
}
Antworten: Statuscode: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Abrufen: Vektorspeicherdatei
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Ruft eine Vektorspeicherdatei ab.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
file_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | vectorStoreFileObject | Eine Liste der an einen Vektorspeicher angefügten Dateien. |
Beispiele
Beispiel
Ruft eine Vektorspeicherdatei ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Löschen: Vektorspeicherdatei
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt. Die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
file_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | deleteVectorStoreFileResponse |
Beispiele
Beispiel
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt. Die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Erstellen: Vektorspeicher-Dateibatch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
Erstellen Sie einen Vektorspeicher-Dateibatch.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search , die auf Dateien zugreifen können. |
Ja | |
chunking_strategy | chunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
No |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | vectorStoreFileBatchObject | Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind. |
Beispiele
Beispiel
Erstellen Sie einen Vektorspeicher-Dateibatch.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Antworten: Statuscode: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Abrufen: Vektorspeicher-Dateibatch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Ruft einen Vektorspeicher-Dateibatch ab.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
batch_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | vectorStoreFileBatchObject | Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind. |
Beispiele
Beispiel
Ruft einen Vektorspeicher-Dateibatch ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Abbrechen: Vektorspeicher-Dateibatch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
batch_id | path | Ja | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | vectorStoreFileBatchObject | Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind. |
Beispiele
Beispiel
Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Auflisten: Dateien eines Vektorspeicher-Dateibatchs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.
URI-Parameter
Name | Geben Sie in | Erforderlich | Type | Beschreibung |
---|---|---|---|---|
endpoint | path | Ja | Zeichenfolge url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B. https://aoairesource.openai.azure.com . Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource.) https://{Name Ihrer Ressource}.openai.azure.com |
vector_store_id | path | Ja | Zeichenfolge | |
batch_id | path | Ja | Zeichenfolge | |
limit | query | No | integer | |
Reihenfolge | query | No | Zeichenfolge | |
after | query | No | Zeichenfolge | |
before | query | No | Zeichenfolge | |
filter | query | No | Zeichenfolge | |
api-version | query | Ja | Zeichenfolge |
Anforderungsheader
Name | Erforderlich | Type | Beschreibung |
---|---|---|---|
api-key | True | Zeichenfolge | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: OK
Content-Type | Typ | Beschreibung |
---|---|---|
application/json | listVectorStoreFilesResponse |
Beispiele
Beispiel
Gibt eine Liste mit Vektorspeicherdateien zurück.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Komponenten
errorResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
error | error | No |
errorBase
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Code | string | Nein | ||
message | Zeichenfolge | No |
error
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
param | Zeichenfolge | Nein | ||
Typ | Zeichenfolge | No | ||
inner_error | innerError | Innerer Fehler mit zusätzlichen Details. | No |
innerError
Innerer Fehler mit zusätzlichen Details.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt | No | |
content_filter_results | contentFilterPromptResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. | No |
innerErrorCode
Fehlercodes für das innere Fehlerobjekt
Beschreibung: Fehlercodes für das innere Fehlerobjekt
Typ: string
Standardwert:
Enumerationsname: InnerErrorCode
Enumerationswerte:
Wert | Beschreibung |
---|---|
ResponsibleAIPolicyViolation | Der Prompt verstieß gegen eine von mehreren Inhaltsfilterregeln. |
dalleErrorResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
error | dalleError | No |
dalleError
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
param | Zeichenfolge | Nein | ||
Typ | Zeichenfolge | No | ||
inner_error | dalleInnerError | Innerer Fehler mit zusätzlichen Details. | No |
dalleInnerError
Innerer Fehler mit zusätzlichen Details.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt | No | |
content_filter_results | dalleFilterResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. | No | |
revised_prompt | Zeichenfolge | Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde | No |
contentFilterCompletionTextSpan
Beschreibt eine Spanne innerhalb des generierten Vervollständigungstexts. Offset 0 ist der erste UTF32-Codepunkt des Vervollständigungstexts.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
completion_start_offset | integer | Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. | Ja | |
completion_end_offset | integer | Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist bei nicht leeren Spannen immer größer als „completion_start_offset“. | Ja |
contentFilterResultBase
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
filtered | boolean | Ja |
contentFilterSeverityResult
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
filtered | boolean | Ja | ||
severity | Zeichenfolge | No |
contentFilterDetectedResult
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
filtered | boolean | Ja | ||
detected | boolean | Nein |
contentFilterDetectedWithCitationResult
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
citation | Objekt | No |
Eigenschaften für „citation“
URL
Name | Typ | Beschreibung | Standard |
---|---|---|---|
URL | Zeichenfolge |
license
Name | Typ | Beschreibung | Standard |
---|---|---|---|
license | Zeichenfolge |
contentFilterDetectedWithCompletionTextSpansResult
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
details | array | No |
contentFilterIdResult
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
filtered | boolean | Ja | ||
id | Zeichenfolge | No |
contentFilterResultsBase
Informationen zu den Ergebnissen der Inhaltsfilterung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. | No | |
error | errorBase | No |
contentFilterPromptResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. | No | |
error | errorBase | No | ||
Jailbreak | contentFilterDetectedResult | No | ||
indirect_attack | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), zur Erkennung und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob eine Filterung erfolgt ist. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Außerdem Informationen zur Kundensperrliste und zur Filterung sowie die zugehörige ID.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. | No | |
error | errorBase | No | ||
protected_material_text | contentFilterDetectedResult | No | ||
protected_material_code | contentFilterDetectedWithCitationResult | No | ||
ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No |
contentFilterDetailedResults
Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
filtered | boolean | Ja | ||
details | array | No |
promptFilterResult
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt_index | integer | No | ||
content_filter_results | contentFilterPromptResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. | No |
promptFilterResults
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
Für diese Komponente sind keine Eigenschaften definiert.
dalleContentFilterResults
Informationen zu den Ergebnissen der Inhaltsfilterung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
sexual | contentFilterSeverityResult | No | ||
violence | contentFilterSeverityResult | No | ||
hate | contentFilterSeverityResult | No | ||
self_harm | contentFilterSeverityResult | No | ||
profanity | contentFilterDetectedResult | No | ||
Jailbreak | contentFilterDetectedResult | No | ||
custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. | No |
chatCompletionsRequestCommon
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE] -Nachricht beendet. |
No | False |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. | No | |
max_tokens | integer | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). Dies ist nicht mit Modellen der o1-Serie kompatibel. | No | 4096 |
max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Dies wird nur bei Modellen der o1-Serie unterstützt. Die Unterstützung wird in einer zukünftigen API-Version auf andere Modelle ausgeweitet. | No | |
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. | No | 0 |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. | No | 0 |
logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. | No | |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | No |
createCompletionRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt | Zeichenfolge oder Array | Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden. Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, wird die Generierung des Modells wie am Anfang eines neuen Dokuments durchgeführt. |
Ja | |
best_of | integer | Generiert serverseitige best_of -Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als n sein.Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
No | 1 |
Echo | boolean | Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. |
No | False |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
No | 0 |
logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird. |
No | Keine |
logprobs | integer | Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Token zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.Der Höchstwert für logprobs ist 5. |
No | Keine |
max_tokens | integer | Die maximale Anzahl von Token, die in der Vervollständigung generiert werden können. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
Nein | 16 |
n | integer | Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
No | 1 |
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
No | 0 |
seed | integer | Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. |
No | |
Datenstrom | boolean | Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn dieser Parameter festgelegt wird, werden Token als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch die Nachricht data: [DONE] beendet wird. |
No | False |
Suffix | Zeichenfolge | Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt. |
No | Keine |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
No |
createCompletionResponse
Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dieselbe Form (im Gegensatz zum Chatendpunkt).
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Eindeutiger Bezeichner für die Vervollständigung | Ja | |
Optionen | array | Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat | Ja | |
erstellte | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Vervollständigung erstellt wurde | Ja | |
Modell | Zeichenfolge | Das für die Vervollständigung verwendete Modell | Ja | |
prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
system_fingerprint | Zeichenfolge | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
No | |
Objekt | enum | Der Objekttyp, der immer „text_completion“ lautet Mögliche Werte: text_completion |
Ja | |
Nutzung | completionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung | No |
createChatCompletionRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] -Nachricht beendet wird |
No | False |
stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. |
No | |
max_tokens | integer | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt. |
No | |
max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Dies wird nur bei Modellen der o1-Serie unterstützt. Die Unterstützung wird in einer zukünftigen API-Version auf andere Modelle ausgeweitet. | No | |
presence_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
No | 0 |
frequency_penalty | Zahl | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
No | 0 |
logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
No | Keine |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
No | |
Cloud an das Gerät | array | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. | Ja | |
data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das in der content von message zurückgegeben wird. |
No | False |
top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. |
No | |
n | integer | Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1 , um die Kosten zu minimieren. |
No | 1 |
parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | True |
response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.Die Einstellung auf { "type": "json_schema", "json_schema": {...} } ermöglicht strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
stream_options | chatCompletionStreamOptions | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
No | Keine |
tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. |
No | |
Toolauswahl | chatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
No | |
function_call | string oder chatCompletionFunctionCallOption | Zugunsten von tool_choice eingestellt.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
No | |
functions | array | Zugunsten von tools eingestellt.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No |
chatCompletionFunctions
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Beschreibung | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Ja | |
Parameter | FunctionParameters | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Die Dokumentation zum Format finden Sie in der Anleitung](/azure/ai-services/openai/how-to/function-calling) und der JSON-Schemareferenz. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
No |
chatCompletionFunctionCallOption
Wenn Sie über {"name": "my_function"}
eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. | Ja |
chatCompletionFunctionParameters
Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Beispiele finden Sie in der Anleitung guide/ und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionRequestMessage
Mögliche Werte für diese Komponente:
chatCompletionRequestSystemMessage
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Inhalt | Zeichenfolge oder Array | Die Inhalte der Systemnachricht. | Ja | |
role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: system ).Mögliche Werte: system |
Yes | |
Name | Zeichenfolge | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No |
chatCompletionRequestUserMessage
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Inhalt | Zeichenfolge oder Array | Die Inhalte der Benutzernachricht. |
Ja | |
role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: user ).Mögliche Werte: user |
Yes | |
Name | Zeichenfolge | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No |
chatCompletionRequestAssistantMessage
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Inhalt | Zeichenfolge oder Array | Die Inhalte der Assistentennachricht. Erforderlich, es sei denn, tool_calls oder function_call ist angegeben. |
No | |
Ablehnung | Zeichenfolge | Die Ablehnungsnachricht des Assistenten. | No | |
role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant ).Mögliche Werte: assistant |
Yes | |
Name | Zeichenfolge | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
tool_calls | chatCompletionMessageToolCalls | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | No | |
function_call | Objekt | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. |
No |
Eigenschaften für function_call
Argumente
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. |
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
chatCompletionRequestToolMessage
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: tool ).Mögliche Werte: tool |
Ja | |
content | Zeichenfolge oder Array | Die Inhalte der Toolnachricht. | Ja | |
tool_call_id | Zeichenfolge | Toolaufruf, auf den diese Nachricht reagiert. | Ja |
chatCompletionRequestFunctionMessage
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: function ).Mögliche Werte: function |
Ja | |
content | Zeichenfolge | Die Inhalte der Funktionsmeldung. | Yes | |
Name | Zeichenfolge | Der Name der aufzurufenden Funktion. | Ja |
chatCompletionRequestSystemMessageContentPart
Mögliche Werte für diese Komponente:
chatCompletionRequestUserMessageContentPart
Mögliche Werte für diese Komponente:
chatCompletionRequestAssistantMessageContentPart
Mögliche Werte für diese Komponente:
chatCompletionRequestToolMessageContentPart
Mögliche Werte für diese Komponente:
chatCompletionRequestMessageContentPartText
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des Inhaltsteils Mögliche Werte: text |
Ja | |
Text | Zeichenfolge | Der Textinhalt. | Ja |
chatCompletionRequestMessageContentPartImage
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des Inhaltsteils Mögliche Werte: image_url |
Ja | |
image_url | Objekt | Ja |
Eigenschaften für image_url
url
Name | Typ | Beschreibung | Standard |
---|---|---|---|
url | Zeichenfolge | Entweder eine URL des Bilds oder die base64-codierten Bilddaten |
detail
Name | Typ | Beschreibung | Standard |
---|---|---|---|
detail | Zeichenfolge | Gibt den Detailgrad des Bilds an. Weitere Informationen finden Sie im Leitfaden für Vision. | auto |
chatCompletionRequestMessageContentPartRefusal
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des Inhaltsteils Mögliche Werte: refusal |
Ja | |
Ablehnung | Zeichenfolge | Eine vom Modell generierte Ablehnungsmeldung. | Ja |
azureChatExtensionConfiguration
Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja |
azureChatExtensionType
Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Beschreibung: Eine Darstellung der Konfigurationsdaten einer einzelnen Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung
verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Typ: string
Standardwert:
Enumerationsname: AzureChatExtensionType
Enumerationswerte:
Wert | Beschreibung |
---|---|
azure_search | Stellt die Verwendung von Azure Search als Azure OpenAI-Chaterweiterung dar |
azure_cosmos_db | Stellt die Verwendung von Azure Cosmos DB als Azure OpenAI-Chaterweiterung dar. |
elasticsearch | Stellt die Verwendung des Elasticsearch®-Index als Azure OpenAI-Chaterweiterung dar. |
mongo_db | Stellt die Verwendung von Mongo DB als Azure OpenAI-Chaterweiterung dar. |
pinecone | Stellt die Verwendung des Pinecone-Index als Azure OpenAI-Chaterweiterung dar. |
azureSearchChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
Parameter | azureSearchChatExtensionParameters | Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird | No |
azureSearchChatExtensionParameters
Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
authentication | onYourDataApiKeyAuthenticationOptions, onYourDataSystemAssignedManagedIdentityAuthenticationOptions, onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions | Ja | ||
top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No | |
max_search_queries | integer | Die maximale Anzahl umgeschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollte. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
endpoint | Zeichenfolge | Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. | Ja | |
index_name | Zeichenfolge | Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource. | Ja | |
fields_mapping | azureSearchIndexFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. | No | |
query_type | azureSearchQueryType | Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll | No | |
semantic_configuration | Zeichenfolge | Die zusätzliche semantische Konfiguration für die Abfrage. | No | |
filter | Zeichenfolge | Suchfilter. | No | |
embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataIntegratedVectorizationSource | No | ||
include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent . |
No |
azureSearchIndexFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
title_field | Zeichenfolge | Der Name des Indexfelds, das als Titel verwendet werden soll | No | |
url_field | Zeichenfolge | Der Name des Indexfelds, das als URL verwendet werden soll | No | |
filepath_field | Zeichenfolge | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | No | |
content_fields_separator | Zeichenfolge | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | No | |
image_vector_fields | array | Die Namen von Feldern, die Bildvektordaten darstellen. | No |
azureSearchQueryType
Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll
Beschreibung: Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll
Typ: string
Standardwert:
Enumerationsname: AzureSearchQueryType
Enumerationswerte:
Wert | Beschreibung |
---|---|
Einfach | Stellt den standardmäßigen einfachen Abfrageparser dar. |
semantisch | Stellt den Semantikabfrageparser für die erweiterte semantische Modellierung dar. |
vector | Stellt die Vektorsuche über berechnete Daten dar. |
vector_simple_hybrid | Stellt eine Kombination der einfachen Abfragestrategie mit Vektordaten dar. |
vector_semantic_hybrid | Stellt eine Kombination aus semantischer Suche und Vektordatenabfrage dar. |
azureCosmosDBChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn Azure Cosmos DB als Azure OpenAI-Chaterweiterung verwendet wird
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
Parameter | azureCosmosDBChatExtensionParameters | Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden. |
No |
azureCosmosDBChatExtensionParameters
Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
authentication | onYourDataConnectionStringAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge | Ja | |
top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No | |
max_search_queries | integer | Die maximale Anzahl umgeschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollte. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
database_name | Zeichenfolge | Der Name der MongoDB vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll | Ja | |
container_name | Zeichenfolge | Der Name des Azure Cosmos DB-Ressourcencontainers | Ja | |
index_name | Zeichenfolge | Der Name des MongoDB vCore-Index, der mit Azure Cosmos DB verwendet werden soll | Ja | |
fields_mapping | azureCosmosDBFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource | Ja | |
embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Ja | ||
include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent . |
No |
azureCosmosDBFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
title_field | Zeichenfolge | Der Name des Indexfelds, das als Titel verwendet werden soll | No | |
url_field | Zeichenfolge | Der Name des Indexfelds, das als URL verwendet werden soll | No | |
filepath_field | Zeichenfolge | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Ja | |
content_fields_separator | Zeichenfolge | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | Ja |
elasticsearchChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Elasticsearch, wenn Elasticsearch als Azure OpenAI-Chaterweiterung verwendet wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
Parameter | elasticsearchChatExtensionParameters | Zu verwendende Parameter beim Konfigurieren von Elasticsearch® als Azure OpenAI-Chaterweiterung. | No |
elasticsearchChatExtensionParameters
Zu verwendende Parameter beim Konfigurieren von Elasticsearch® als Azure OpenAI-Chaterweiterung.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
authentication | onYourDataKeyAndKeyIdAuthenticationOptions oder onYourDataEncodedApiKeyAuthenticationOptions | Ja | ||
top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No | |
max_search_queries | integer | Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
endpoint | Zeichenfolge | Der Endpunkt von Elasticsearch®. | Ja | |
index_name | Zeichenfolge | Der Indexname von Elasticsearch®. | Ja | |
fields_mapping | elasticsearchIndexFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Elasticsearch®-Ressource. | No | |
query_type | elasticsearchQueryType | Der Typ der Elasticsearch®-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll. | No | |
embedding_dependency | onYourDataEndpointVectorizationSource, onYourDataDeploymentNameVectorizationSource oder onYourDataModelIdVectorizationSource | No | ||
include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent . |
No |
elasticsearchIndexFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Elasticsearch®-Ressource.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
title_field | Zeichenfolge | Der Name des Indexfelds, das als Titel verwendet werden soll | No | |
url_field | Zeichenfolge | Der Name des Indexfelds, das als URL verwendet werden soll | No | |
filepath_field | Zeichenfolge | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | No | |
content_fields_separator | Zeichenfolge | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | No |
elasticsearchQueryType
Der Typ der Elasticsearch®-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.
Beschreibung: Der Typ der Elasticsearch®-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll.
Typ: string
Standardwert:
Enumerationsname: ElasticsearchQueryType
Enumerationswerte:
Wert | Beschreibung |
---|---|
Einfach | Stellt den standardmäßigen einfachen Abfrageparser dar. |
vector | Stellt die Vektorsuche über berechnete Daten dar. |
mongoDBChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Mongo DB, wenn Mongo DB als Azure OpenAI-Chaterweiterung verwendet wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
Parameter | mongoDBChatExtensionParameters | Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Mongo DB verwenden. | No |
mongoDBChatExtensionParameters
Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Mongo DB verwenden.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Benutzername und Kennwort. | Ja | |
top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No | |
max_search_queries | integer | Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
endpoint | Zeichenfolge | Der Name des Mongo DB-Clusterendpunkts. | Ja | |
database_name | Zeichenfolge | Der Name der Mongo DB-Datenbank. | Ja | |
collection_name | Zeichenfolge | Der Name der Mongo DB-Collection. | Ja | |
app_name | Zeichenfolge | Der Name der Mongo DB-Anwendung. | Ja | |
index_name | Zeichenfolge | Der Name des Mongo DB-Index. | Ja | |
fields_mapping | mongoDBFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource. | Ja | |
embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Ja | ||
include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent . |
No |
mongoDBFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
title_field | Zeichenfolge | Der Name des Indexfelds, das als Titel verwendet werden soll | No | |
url_field | Zeichenfolge | Der Name des Indexfelds, das als URL verwendet werden soll | No | |
filepath_field | Zeichenfolge | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Ja | |
content_fields_separator | Zeichenfolge | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | Ja |
pineconeChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Pinecone, wenn Pinecone als Azure OpenAI-Chaterweiterung verwendet wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Ja | |
Parameter | pineconeChatExtensionParameters | Parameter zum Konfigurieren von Azure OpenAI-Chaterweiterungen vom Typ „Pinecone“. | No |
pineconeChatExtensionParameters
Parameter zum Konfigurieren von Azure OpenAI-Chaterweiterungen vom Typ „Pinecone“.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
authentication | onYourDataApiKeyAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. | Ja | |
top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No | |
max_search_queries | integer | Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
Umgebung | Zeichenfolge | Der Umgebungsname von Pinecone. | Ja | |
index_name | Zeichenfolge | Der Name des Pinecone-Datenbankindex. | Ja | |
fields_mapping | pineconeFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource. | Ja | |
embedding_dependency | onYourDataDeploymentNameVectorizationSource | Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einem internen Namen der Einbettung der Modellimplementierung in der gleichen Azure OpenAI-Ressource. |
Ja | |
include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent . |
No |
pineconeFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
title_field | Zeichenfolge | Der Name des Indexfelds, das als Titel verwendet werden soll | No | |
url_field | Zeichenfolge | Der Name des Indexfelds, das als URL verwendet werden soll | No | |
filepath_field | Zeichenfolge | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Ja | |
content_fields_separator | Zeichenfolge | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No |
onYourDataAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja |
onYourDataContextProperty
Die Kontexteigenschaft.
Beschreibung: Die Kontexteigenschaft.
Typ: string
Standardwert:
Enumerationsname: OnYourDataContextProperty
Enumerationswerte:
Wert | Beschreibung |
---|---|
citations | Die citations -Eigenschaft |
Absicht | Die intent -Eigenschaft |
all_retrieved_documents | Die all_retrieved_documents -Eigenschaft |
onYourDataAuthenticationType
Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data
Beschreibung: Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data
Typ: string
Standardwert:
Enumerationsname: OnYourDataAuthenticationType
Enumerationswerte:
Wert | Beschreibung |
---|---|
api_key | Authentifizierung per API-Schlüssel |
connection_string | Authentifizierung per Verbindungszeichenfolge. |
key_and_key_id | Authentifizierung per Schlüssel- und Schlüssel-ID-Paar. |
encoded_api_key | Authentifizierung per codiertem API-Schlüssel. |
access_token | Authentifizierung per Zugriffstoken. |
system_assigned_managed_identity | Authentifizierung per systemseitig zugewiesener verwalteter Identität |
user_assigned_managed_identity | Authentifizierung per benutzerseitig zugewiesener verwalteter Identität |
username_and_password | Authentifizierung per Benutzername und Kennwort |
onYourDataApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
Schlüssel | Zeichenfolge | Der für die Authentifizierung zu verwendende API-Schlüssel. | No |
onYourDataConnectionStringAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
connection_string | Zeichenfolge | Die Verbindungszeichenfolge für die Authentifizierung | No |
onYourDataKeyAndKeyIdAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Schlüssel- und Schlüssel-ID-Paars von Elasticsearch.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
Schlüssel | Zeichenfolge | Der für die Authentifizierung zu verwendende Elasticsearch-Schlüssel | No | |
key_id | Zeichenfolge | Die für die Authentifizierung zu verwendende Elasticsearch-Schlüssel-ID | No |
onYourDataEncodedApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines elasticsearch-codierten API-Schlüssels
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
encoded_api_key | Zeichenfolge | Der für die Authentifizierung zu verwendende elasticsearch-codierte API-Schlüssel | No |
onYourDataAccessTokenAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Zugriffstoken
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
access_token | Zeichenfolge | Das Zugriffstoken zur Verwendung bei der Authentifizierung | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
managed_identity_resource_id | Zeichenfolge | Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. | No |
onYourDataUsernameAndPasswordAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Benutzername und Kennwort.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data | Ja | |
username | Zeichenfolge | Der Benutzername, der für die Authentifizierung verwendet wird. | No | |
Kennwort | Zeichenfolge | Das Kennwort. der für die Authentifizierung verwendet wird. | No |
onYourDataVectorizationSource
Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
Ja |
onYourDataVectorizationSourceType
Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren
Beschreibung: Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit
der Vektorsuche zu konfigurieren.
Typ: string
Standardwert:
Enumerationsname: OnYourDataVectorizationSourceType
Enumerationswerte:
Wert | Beschreibung |
---|---|
endpoint | Stellt die Vektorisierung dar, die von Aufrufen durchgeführt wird, die von öffentlichen Diensten an ein Azure OpenAI-Einbettungsmodell gerichtet werden |
deployment_name | Stellt den zu verwendenden Namen einer Ada-Modellimplementierung dar. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. |
integriert | Stellt den integrierten Vektorizer dar, der in der Suchressource definiert ist. |
model_id | Stellt eine spezifische Einbettungsmodell-ID gemäß Definition im Suchdienst dar. Wird derzeit nur von Elasticsearch® unterstützt. |
onYourDataEndpointVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einem Azure OpenAI-Endpunktaufruf für Einbettungen.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
Ja | |
endpoint | Zeichenfolge | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Sie sollte im Format https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings sein. Der Abfrageparameter der API-Version ist nicht zulässig. | No | |
authentication | onYourDataApiKeyAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions | No | ||
Dimensionen | integer | Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No |
onYourDataDeploymentNameVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Namen der Modellimplementierung für Einbettungen in der gleichen Azure OpenAI-Ressource basiert.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
Ja | |
deployment_name | Zeichenfolge | Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. | No | |
Dimensionen | integer | Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No |
onYourDataIntegratedVectorizationSource
Stellt den integrierten Vektorizer dar, der in der Suchressource definiert ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
Ja |
onYourDataModelIdVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einer Suchdienstmodell-ID. Wird derzeit nur von Elasticsearch® unterstützt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
Ja | |
model_id | Zeichenfolge | Gibt die Modell-ID an, die für die Vektorisierung verwendet werden soll. Diese Modell-ID muss im Suchdienst definiert werden. | No |
azureChatExtensionsMessageContext
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
citations | array | Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. | No | |
Absicht | Zeichenfolge | Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. | No | |
all_retrieved_documents | array | Alle abgerufenen Dokumente. | No |
citation
Zitatinformationen für eine Antwortnachricht für Chatvervollständigungen.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
content | Zeichenfolge | Der Inhalt des Zitats. | Ja | |
title | Zeichenfolge | Der Titel des Zitats. | No | |
url | Zeichenfolge | Die URL des Zitats. | No | |
filepath | Zeichenfolge | Der Dateipfad des Zitats. | No | |
chunk_id | Zeichenfolge | Die Segment-ID des Zitats. | No | |
rerank_score | Zahl | Die neue Rangpunktzahl des abgerufenen Dokuments. | No |
retrievedDocument
Das abgerufene Dokument.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
content | Zeichenfolge | Der Inhalt des Zitats. | Ja | |
title | Zeichenfolge | Der Titel des Zitats. | No | |
url | Zeichenfolge | Die URL des Zitats. | No | |
filepath | Zeichenfolge | Der Dateipfad des Zitats. | No | |
chunk_id | Zeichenfolge | Die Segment-ID des Zitats. | No | |
rerank_score | Zahl | Die neue Rangpunktzahl des abgerufenen Dokuments. | No | |
search_queries | array | Die zum Abrufen des Dokuments verwendeten Suchabfragen. | No | |
data_source_index | integer | Der Index der Datenquelle. | No | |
original_search_score | Zahl | Die ursprüngliche Suchbewertung des abgerufenen Dokuments. | No | |
filter_reason | filterReason | Der Filtergrund für das abgerufene Dokument. | No |
filterReason
Der Filtergrund für das abgerufene Dokument.
Beschreibung: Der Filtergrund für das abgerufene Dokument.
Typ: string
Standardwert:
Enumerationsname: FilterReason
Enumerationswerte:
Wert | Beschreibung |
---|---|
Ergebnis Ihrer App | Das Dokument wird nach dem Schwellenwert der ursprünglichen Suchbewertung gefiltert, der durch die Konfiguration von strictness definiert ist. |
rerank | Das Dokument wird nicht nach dem Schwellenwert der ursprünglichen Suchbewertung, sondern nach dem Neubewertungswert und der Konfiguration von top_n_documents gefiltert. |
chatCompletionMessageToolCall
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Die ID des Toolaufrufs | Ja | |
Typ | toolCallType | Der Typ des Toolaufrufs (in diesem Fall: function ). |
Ja | |
Funktion | Objekt | Die Funktion, die das Modell aufgerufen hat | Ja |
Eigenschaften für „function“
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
Argumente
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. |
toolCallType
Der Typ des Toolaufrufs (in diesem Fall: function
).
Beschreibung: Der Typ des Toolaufrufs (in diesem Fall: function
)
Typ: string
Standardwert:
Enumerationsname: ToolCallType
Enumerationswerte:
Wert | BESCHREIBUNG |
---|---|
Funktion | Der Typ des Toolaufrufs ist „function“. |
chatCompletionRequestMessageTool
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
tool_call_id | Zeichenfolge | Toolaufruf, auf den diese Nachricht reagiert. | No | |
content | Zeichenfolge | Der Inhalt der Nachricht. | No |
chatCompletionRequestMessageFunction
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: function ).Mögliche Werte: function |
No | |
name | Zeichenfolge | Der Inhalt der Nachricht. | No | |
content | Zeichenfolge | Der Inhalt der Nachricht. | No |
createChatCompletionResponse
Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ein eindeutiger Bezeichner für die Chatvervollständigung | Ja | |
prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
Optionen | array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n größer als 1 ist. |
Ja | |
erstellte | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde | Ja | |
Modell | Zeichenfolge | Das Modell, das für die Chatvervollständigung verwendet wird | Ja | |
system_fingerprint | Zeichenfolge | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
No | |
Objekt | enum | Der Objekttyp, der immer chat.completion ist.Mögliche Werte: chat.completion |
Ja | |
Nutzung | completionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung | No |
createChatCompletionStreamResponse
Repräsentiert einen gestreamten Block einer Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ein eindeutiger Bezeichner für die Chatvervollständigung Jeder Block weist die gleiche ID auf. | Ja | |
Optionen | array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere Elemente enthalten, wenn n größer als 1 ist. |
Ja | |
erstellte | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Alle Blöcke weisen den gleichen Zeitstempel auf. | Ja | |
Modell | Zeichenfolge | Das Modell, das die Vervollständigung generiert. | Ja | |
system_fingerprint | Zeichenfolge | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
No | |
Objekt | enum | Der Objekttyp, der immer chat.completion.chunk ist.Mögliche Werte: chat.completion.chunk |
Ja |
chatCompletionStreamResponseDelta
Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
content | Zeichenfolge | Die Inhalte der Blocknachricht. | No | |
function_call | Objekt | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. |
No | |
tool_calls | array | No | ||
role | enum | Die Rolle des Autors dieser Nachricht Mögliche Werte: system, user, assistant, tool |
No | |
Ablehnung | Zeichenfolge | Eine vom Modell generierte Ablehnungsmeldung. | No |
Eigenschaften für function_call
Argumente
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. |
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
chatCompletionMessageToolCallChunk
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Ja | ||
id | Zeichenfolge | Die ID des Toolaufrufs | No | |
Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
No | |
Funktion | Objekt | No |
Eigenschaften für „function“
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
Argumente
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. |
chatCompletionStreamOptions
Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true
festlegen.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
include_usage | boolean | Wenn dies festgelegt ist, wird ein zusätzlicher Block vor der data: [DONE] -Nachricht gestreamt. Das Feld usage in diesem Block zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das Feld choices ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein Feld usage , jedoch mit einem NULL-Wert. |
No |
chatCompletionChoiceLogProbs
Logarithmierte Wahrscheinlichkeit für die Auswahl
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
content | array | Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit | Ja | |
Ablehnung | array | Eine Liste der Nachrichtenablehnungstoken mit Informationen zur logarithmierten Wahrscheinlichkeit. | No |
chatCompletionTokenLogprob
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
token | Zeichenfolge | Das Token. | Ja | |
logprob | Zahl | Die logarithmierte Wahrscheinlichkeit dieses Tokens | Ja | |
Byte | array | Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. |
Ja | |
top_logprobs | array | Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. |
Ja |
ChatCompletionResponseMessage
Eine vom Modell generierte Chatvervollständigungsnachricht
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | Die Rolle des Antwortnachrichterstellers | Ja | |
Ablehnung | Zeichenfolge | Eine vom Modell generierte Ablehnungsmeldung. | Ja | |
content | Zeichenfolge | Der Inhalt der Nachricht. | Ja | |
tool_calls | array | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | No | |
function_call | chatCompletionFunctionCall | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. |
No | |
context | azureChatExtensionsMessageContext | Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer entsprechenden Erweiterung konfiguriert ist. |
No |
chatCompletionResponseMessageRole
Die Rolle des Antwortnachrichterstellers
Beschreibung: Die Rolle des Autors der Antwortnachricht
Typ: string
Standardwert:
Enumerationswerte:
- assistant
chatCompletionToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none
bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto
bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required
bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}}
ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none
ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto
ist die Standardeinstellung, wenn Tools vorhanden sind.
Mögliche Werte für diese Komponente:
chatCompletionNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Ja | |
Funktion | Objekt | Ja |
Eigenschaften für „function“
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
ParallelToolCalls
Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionMessageToolCalls
Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionFunctionCall
Veraltet und durch tool_calls
ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. | Ja | |
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte und möglicherweise Parameter generiert, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. | Ja |
completionUsage
Nutzungsstatistiken für die Vervollständigungsanforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt_tokens | integer | Anzahl der Token im Prompt. | Ja | |
completion_tokens | integer | Anzahl der Token in der generierten Vervollständigung | Ja | |
total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). | Ja | |
prompt_tokens_details | Objekt | Details der Prompttoken. | No | |
completion_tokens_details | Objekt | Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. | No |
Eigenschaften für prompt_tokens_details
cached_tokens
Name | Typ | Beschreibung | Standard |
---|---|---|---|
cached_tokens | integer | Die Anzahl der zwischengespeicherten Prompttoken. |
Eigenschaften für completion_tokens_details
reasoning_tokens
Name | Typ | Beschreibung | Standard |
---|---|---|---|
reasoning_tokens | integer | Vom Modell generierte Tokens zur Begründung. |
chatCompletionTool
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Ja | |
Funktion | FunctionObject | Ja |
FunctionParameters
Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.
Wenn parameters
weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Für diese Komponente sind keine Eigenschaften definiert.
FunctionObject
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Beschreibung | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Ja | |
Parameter | FunctionParameters | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
No | |
strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict true ist. |
No | False |
ResponseFormatText
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des zu definierenden Antwortformats: text Mögliche Werte: text |
Ja |
ResponseFormatJsonObject
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des zu definierenden Antwortformats: json_object Mögliche Werte: json_object |
Ja |
ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseFormatJsonSchema
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Der Typ des zu definierenden Antwortformats: json_schema Mögliche Werte: json_schema |
Ja | |
json_schema | Objekt | Ja |
Eigenschaften für json_schema
Beschreibung
Name | Typ | Beschreibung | Default |
---|---|---|---|
Beschreibung | string | Eine Beschreibung, wofür das Antwortformat gedacht ist, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll. |
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. |
schema
Name | Typ | Beschreibung | Standard |
---|---|---|---|
schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. |
strict
Name | Typ | Beschreibung | Standard |
---|---|---|---|
strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict true ist. |
False |
chatCompletionChoiceCommon
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | No | ||
finish_reason | Zeichenfolge | No |
createTranslationRequest
Übersetzungsanforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
datei | Zeichenfolge | Die zu übersetzende Audiodatei | Ja | |
prompt | Zeichenfolge | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt muss in englischer Sprache formuliert werden. | No | |
response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
Temperatur | Zahl | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
audioResponse
Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „json“ war
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Text | Zeichenfolge | Übersetzter oder transkribierter Text | Ja |
audioVerboseResponse
Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „verbose_json“ war
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Text | Zeichenfolge | Übersetzter oder transkribierter Text | Ja | |
task | Zeichenfolge | Die Art von Audiotask | No | |
language | Zeichenfolge | Sprache. | No | |
duration | Zahl | Dauer. | No | |
Segmente | array | No | ||
words | array | No |
audioResponseFormat
Definiert das Format der Ausgabe
Beschreibung: Definiert das Format der Ausgabe
Typ: string
Standardwert:
Enumerationswerte:
- json
- Text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transkriptionsanforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
datei | Zeichenfolge | Das zu transkribierende Audiodateiobjekt | Ja | |
prompt | Zeichenfolge | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. | No | |
response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
Temperatur | Zahl | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn dieser Wert auf „0“ festgelegt wird, verwendet das Modell die logarithmierte Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
language | Zeichenfolge | Die Sprache der Audioeingabe. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und verkürzt die Wartezeit. | No | |
timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment . Hinweis: Durch Segmentzeitstempel entsteht keine zusätzliche Wartezeit, aber das Generieren von Wortzeitstempeln führt zu zusätzlicher Wartezeit. |
No | ['segment'] |
audioSegment
Transkriptions- oder Übersetzungssegment
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | integer | Segmentbezeichner | No | |
seek | Zahl | Der Offset des Segments | No | |
start | Zahl | Der Offset für den Segmentbeginn. | No | |
end | Zahl | Der Offset für das Segmentende | No | |
Text | Zeichenfolge | Segmenttext | No | |
tokens | array | Token des Texts | No | |
Temperatur | Zahl | Temperatur | No | |
avg_logprob | Zahl | Durchschnittliche logarithmierte Wahrscheinlichkeit | No | |
compression_ratio | Zahl | Komprimierungsverhältnis | No | |
no_speech_prob | Zahl | Wahrscheinlichkeit von „keine Sprache“ | No |
audioWord
Transkriptions- oder Übersetzungswort.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
word | Zeichenfolge | Word | No | |
start | Zahl | Der Offset für den Wortbeginn. | No | |
end | Zahl | Der Offset für das Wortende. | No |
createSpeechRequest
Sprachanforderung
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
input | Zeichenfolge | Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4096 Zeichen. | Ja | |
voice | enum | Die Stimme, die für die Sprachsynthese verwendet werden soll. Mögliche Werte: alloy, echo, fable, onyx, nova, shimmer |
Ja | |
response_format | enum | Das Format für die Audiosynthetisierung. Mögliche Werte: mp3, opus, aac, flac, wav, pcm |
No | |
Geschwindigkeit | Zahl | Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von 0.25 bis 4.0 aus. 1.0 ist die Standardoption. |
No | 1.0 |
imageQuality
Die Qualität des zu generierenden Bilds
Beschreibung: Die Qualität des zu generierenden Bilds
Typ: string
Standard: standard
Enumerationsname: Quality
Enumerationswerte:
Wert | BESCHREIBUNG |
---|---|
Standard | Bei Verwendung von Standardqualität werden Bilder mit Standardqualität erstellt. |
hd | Bei Verwendung von HD-Qualität werden Bilder mit mehr Details und höherer Konsistenz im gesamten Bild erstellt. |
imagesResponseFormat
Das Format, in dem die generierten Bilder zurückgegeben werden.
Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden
Typ: string
Standard: url
Enumerationsname: ImagesResponseFormat
Enumerationswerte:
Wert | Beschreibung |
---|---|
url | Die URL für temporären Zugriff zum Herunterladen der generierten Bilder |
b64_json | Die generierten Bilder werden als base64-codierte Zeichenfolge zurückgegeben. |
imageSize
Die Größe der generierten Bilder.
Beschreibung: Die Größe der generierten Bilder
Typ: string
Standard: 1024x1024
Enumerationsname: Size
Enumerationswerte:
Wert | Beschreibung |
---|---|
256x256 | Die gewünschte Größe des generierten Bilds beträgt 256 × 256 Pixel. Wird nur für DALL-E 2 unterstützt. |
512 × 512 | Die gewünschte Größe des generierten Bilds beträgt 512 × 512 Pixel. Wird nur für DALL-E 2 unterstützt. |
1792x1024 | Die gewünschte Größe des generierten Bilds beträgt 1.792 × 1.024 Pixel. Wird nur für DALL-E 3 unterstützt. |
1024x1792 | Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.792 Pixel. Wird nur für DALL-E 3 unterstützt. |
1\.024 × 1.024 | Die gewünschte Größe des generierten Bilds beträgt 1.024 × 1.024 Pixel. |
imageStyle
Die Größe der generierten Bilder.
Beschreibung: Der Stil der generierten Bilder
Typ: string
Standard: vivid
Enumerationsname: Style
Enumerationswerte:
Wert | Beschreibung |
---|---|
vivid | Mit „vivid“ werden hyperrealistische und spektakuläre Bilder erstellt. |
natural | Mit „natural“ werden natürlichere und weniger hyperrealistische Bilder erstellt. |
imageGenerationsRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
prompt | Zeichenfolge | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen. | Ja | |
n | integer | Die Anzahl der zu generierenden Bilder. | No | 1 |
size | imageSize | Die Größe der generierten Bilder. | No | 1\.024 × 1.024 |
response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
user | Zeichenfolge | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No | |
qualität | imageQuality | Die Qualität des zu generierenden Bilds | No | Standard |
style | imageStyle | Die Größe der generierten Bilder. | No | vivid |
generateImagesResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
erstellte | integer | Der UNIX-Zeitstempel, der angibt, wann der Vorgang erstellt wurde | Ja | |
data | array | Die Ergebnisdaten des Vorgangs, sofern der Vorgang erfolgreich war | Ja |
imageResult
Die Bild-URL oder das codierte Bild, sofern der Vorgang erfolgreich war. Andernfalls ein Fehler.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
url | Zeichenfolge | Die Bild-URL | No | |
b64_json | Zeichenfolge | Das base64-codierte Bild | No | |
content_filter_results | dalleContentFilterResults | Informationen zu den Ergebnissen der Inhaltsfilterung | No | |
revised_prompt | Zeichenfolge | Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde | No | |
prompt_filter_results | dalleFilterResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Außerdem Informationen zur Kundenblockliste, wenn diese gefiltert wurde, und ihre ID. | No |
line
Ein Inhaltszeilenobjekt, bestehend aus einer zusammenhängenden Sequenz von Inhaltselementen (z. B. Wörter und Auswahlmarkierungen).
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Text | Zeichenfolge | Ja | ||
spans | array | Ein Array von span-Objekten, die erkannte Objekte und die zugehörigen Angaben zum umgebenden Rechteck darstellen. | Ja |
span
Ein span-Objekt, das ein erkanntes Objekt und die zugehörigen Angaben zum umgebenden Rechteck darstellt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Text | Zeichenfolge | Der Textinhalt des span-Objekts, das das erkannte Objekt darstellt. | Ja | |
offset | integer | Der Zeichenoffset innerhalb des Texts, der angibt, wo das span-Objekt beginnt. Dieser Offset ist als die Position des ersten Zeichens des span-Objekts definiert. Gezählt wird dabei vom Anfang des Texts in Unicode-Codepunkten. | Ja | |
length | integer | Die Länge des span-Objekts in Zeichen, gemessen in Unicode-Codepunkten. | Ja | |
polygon | array | Ein Array von Objekten, die Punkte in dem Polygon darstellen, das das erkannte Objekt umschließt. | Ja |
runCompletionUsage
Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null
, wenn sich die Ausführung nicht in einem Endzustand (d. h. in_progress
, queued
usw.) befindet.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
completion_tokens | integer | Die Anzahl von Vervollständigungstoken, die im Laufe der Ausführung verwendet wurden. | Ja | |
prompt_tokens | integer | Die Anzahl von Prompttoken, die im Laufe der Ausführung verwendet wurden. | Ja | |
total_tokens | integer | Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). | Ja |
runStepCompletionUsage
Verwendungsstatistik im Zusammenhang mit dem Ausführungsschritt. Dieser Wert ist null
, solange der Ausführungsschritt den Status in_progress
hat.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
completion_tokens | integer | Die Anzahl von Vervollständigungstoken, die im Laufe des Ausführungsschritts verwendet wurden. | Ja | |
prompt_tokens | integer | Die Anzahl von Prompttoken, die im Laufe des Ausführungsschritts verwendet wurden. | Ja | |
total_tokens | integer | Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). | Ja |
assistantsApiResponseFormatOption
Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106
.
Wenn Sie ihn auf { "type": "json_object" }
festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.
Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length"
verwenden. Damit wird angegeben, dass bei der Generierung max_tokens
überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Mögliche Werte für diese Komponente:
assistantsApiResponseFormat
Ein Objekt, das die erwartete Ausgabe des Modells beschreibt. Bei json_object
darf nur der function
-Typ tools
an die Ausführung übergeben werden. Bei text
kann das Modell Text oder einen beliebigen benötigten Wert zurückgeben.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Muss text oder json_object sein. |
No | Text |
Typenumeration: AssistantsApiResponseFormat
Wert | Beschreibung |
---|---|
Text | |
json_object |
assistantObject
Stellt einen Assistenten (assistant
) dar, der das Modell aufrufen und Tools verwenden kann.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer assistant ist. |
Ja | |
created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Assistent erstellt wurde. | Yes | |
Name | Zeichenfolge | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
Ja | |
description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
Ja | |
Modell | Zeichenfolge | Die ID des zu verwendenden Modells. Sie können die Listenmodelle-API verwenden, um alle verfügbaren Modelle anzuzeigen. |
Ja | |
Setup | Zeichenfolge | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen. |
Ja | |
tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter , file_search oder function sein. |
Ja | [] |
tool_resources | Objekt | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Ja | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
Objektenumeration: AssistantObjectType
Wert | Beschreibung |
---|---|
assistant | Der Objekttyp (immer „assistant“). |
createAssistantRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
model | Yes | |||
Name | Zeichenfolge | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
Beschreibung | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
Setup | Zeichenfolge | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen. |
No | |
tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter , retrieval oder function sein. |
No | [] |
tool_resources | Objekt | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Der an diesen Assistenten angefügte Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
|
vector_stores | array | Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Assistenten anzufügen. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
modifyAssistantRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
model | No | |||
name | Zeichenfolge | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
Beschreibung | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
Setup | Zeichenfolge | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen. |
No | |
tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter , retrieval oder function sein. |
No | [] |
tool_resources | Objekt | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Überschreibt die Liste mit den Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Überschreibt den an diesen Assistenten angefügten Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
deleteAssistantResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ja | ||
deleted | boolean | Ja | ||
Objekt | Zeichenfolge | Ja |
Objektenumeration: DeleteAssistantResponseState
Wert | Beschreibung |
---|---|
assistant.deleted |
listAssistantsResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
data | array | Ja | ||
first_id | Zeichenfolge | Ja | ||
last_id | Zeichenfolge | Ja | ||
has_more | boolean | Ja |
assistantToolsCode
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Die Art des Tools, das definiert wird: code_interpreter |
Ja |
Typenumeration: assistantToolsCodeType
Wert | Beschreibung |
---|---|
code_interpreter |
assistantToolsFileSearch
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Die Art des Tools, das definiert wird: file_search |
Ja | |
file_search | Objekt | Überschreibungen für das Dateisuchtool | No |
Eigenschaften für „file_search“
max_num_results
Name | Typ | Beschreibung | Standard |
---|---|---|---|
max_num_results | integer | Die maximale Anzahl von Ergebnissen, die das Dateisuchtool ausgeben soll. Der Standardwert ist 20 für GPT-4*-Modelle und 5 für GPT-3.5-Turbo. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. Beachten Sie, dass das Dateisuchtool möglicherweise weniger als max_num_results Ergebnisse ausgibt. |
Typenumeration: assistantToolsFileSearchType
Wert | Beschreibung |
---|---|
file_search |
assistantToolsFileSearchTypeOnly
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Die Art des Tools, das definiert wird: file_search |
Ja |
Typenumeration: assistantToolsFileSearchType
Wert | Beschreibung |
---|---|
file_search |
assistantToolsFunction
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Die Art des Tools, das definiert wird: function |
Ja | |
Funktion | Objekt | Die Funktionsdefinition. | Ja |
Eigenschaften für „function“
Beschreibung
Name | Typ | Beschreibung | Default |
---|---|---|---|
Beschreibung | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. |
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. |
Parameter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Parameter | chatCompletionFunctionParameters | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz. |
Typenumeration: assistantToolsFunction
Wert | BESCHREIBUNG |
---|---|
Funktion |
truncationObject
Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Die für den Thread zu verwendende Kürzungsstrategie. Der Standardwert ist auto . Bei Verwendung von last_messages wird der Thread auf die n neuesten Nachrichten im Thread gekürzt. Bei Verwendung von auto werden Nachrichten in der Mitte des Threads gelöscht, um der Kontextlänge des Modells (max_prompt_tokens ) zu entsprechen. |
Ja | |
last_messages | integer | Die Anzahl der neuesten Nachrichten aus dem Thread, wenn der Kontext für die Ausführung konstruiert wird. | No |
Typenumeration: TruncationType
Wert | BESCHREIBUNG |
---|---|
auto | |
last_messages |
assistantsApiToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none
bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.
auto
ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"}
oder {"type": "function", "function": {"name": "my_function"}}
angeben, wird das Modell gezwungen, dieses aufzurufen.
Mögliche Werte für diese Komponente:
assistantsNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes Tool aufruft.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Der Typ des Tools. Wenn der Typ function ist, muss der Funktionsname festgelegt werden. |
Ja | |
Funktion | Objekt | No |
Eigenschaften für „function“
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
Typenumeration: AssistantsNamedToolChoiceType
Wert | BESCHREIBUNG |
---|---|
Funktion | |
code_interpreter | |
file_search |
runObject
Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer thread.run ist. |
Ja | |
created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde | Ja | |
thread_id | Zeichenfolge | Die ID des Threads, der als Teil dieser Ausführung ausgeführt wurde | Ja | |
assistant_id | Zeichenfolge | Die ID des Assistenten, der für diese Ausführung verwendet wird | Ja | |
Status | Zeichenfolge | Der Status der Ausführung, entweder queued , in_progress , requires_action , cancelling , cancelled , failed , completed oder expired |
Ja | |
required_action | Objekt | Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null , wenn keine Aktion erforderlich ist. |
Ja | |
last_error | Objekt | Der letzte Fehler im Zusammenhang mit dieser Ausführung. Ist null , wenn keine Fehler vorliegen. |
Ja | |
expires_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft | Ja | |
started_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde | Ja | |
cancelled_at | integer | Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgebrochen wurde. | Ja | |
failed_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist | Ja | |
completed_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde | Ja | |
incomplete_details | Objekt | Details zum Grund für die unvollständige Ausführung. Ist null , wenn die Ausführung nicht unvollständig ist. |
Ja | |
Modell | Zeichenfolge | Das Modell, das der Assistent für diese Ausführung verwendet hat. | Ja | |
Setup | Zeichenfolge | Die Anweisungen, die der Assistent für diese Ausführung verwendet hat | Ja | |
tools | array | Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat | Ja | [] |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Ja | |
Nutzung | runCompletionUsage | Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null , wenn sich die Ausführung nicht in einem Endzustand (d. h. in_progress , queued usw.) befindet. |
Ja | |
Temperatur | Zahl | Die für diese Ausführung verwendete Temperatur für die Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. | No | |
top_p | Zahl | Der für diese Ausführung verwendete Wert für die Nukleus-Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. | No | |
max_prompt_tokens | integer | Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden |
Ja | |
max_completion_tokens | integer | Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden |
Ja | |
truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | Ja | |
Toolauswahl | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
Ja | |
parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | True |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Ja |
Eigenschaften für „required_action“
Typ
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Typ | Zeichenfolge | Dieser Wert ist vorerst immer submit_tool_outputs . |
submit_tool_outputs
Name | Typ | Beschreibung | Standard |
---|---|---|---|
tool_calls | array | Eine Liste mit den relevanten Toolaufrufen. |
Eigenschaften für „last_error“
code
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Code | Zeichenfolge | Einer der folgenden Werte: server_error oder rate_limit_exceeded . |
message
Name | Typ | Beschreibung | Standard |
---|---|---|---|
message | Zeichenfolge | Eine für Menschen lesbare Beschreibung des Fehlers. |
Eigenschaften für „incomplete_details“
reason
Name | Typ | Beschreibung | Standard |
---|---|---|---|
reason | Zeichenfolge | Der Grund für die unvollständige Ausführung. Gibt an, welcher spezifische Tokengrenzwert im Laufe der Ausführung erreicht wurde. |
Objektenumeration: runObjectType
Wert | Beschreibung |
---|---|
thread.run | Der Ausführungsobjekttyp (immer „thread.run“). |
Statusenumeration: RunObjectStatus
Wert | Beschreibung |
---|---|
queued | Der Zustand „queued“ |
in_progress | Der Zustand „in_progress“ |
requires_action | Der Zustand „required_action“ |
cancelling | Der Zustand „cancelling“ |
cancelled | Der Zustand „cancelled“ |
„Fehlgeschlagen“ | Der Zustand „failed“ |
abgeschlossen | Der Zustand „completed“ |
abgelaufen | Der Zustand „abgelaufen“ |
createRunRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
assistant_id | Zeichenfolge | Die ID des Assistenten, der für diese Ausführung verwendet werden soll | Ja | |
Modell | Zeichenfolge | Die Bereitstellungs-ID des Modells, das für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | No | |
Setup | Zeichenfolge | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
additional_instructions | Zeichenfolge | Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. | No | |
additional_messages | array | Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. | No | |
tools | array | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
max_prompt_tokens | integer | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete . Weitere Informationen finden Sie unter incomplete_details . |
No | |
max_completion_tokens | integer | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete . Weitere Informationen finden Sie unter incomplete_details . |
No | |
truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | No | |
Toolauswahl | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
No | |
parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | True |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
listRunsResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
data | array | Ja | ||
first_id | Zeichenfolge | Ja | ||
last_id | Zeichenfolge | Ja | ||
has_more | boolean | Ja |
modifyRunRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
submitToolOutputsRunRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
tool_outputs | array | Eine Liste der Tools, für die die Ausgaben übermittelt werden | Ja | |
Datenstrom | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No |
runToolCallObject
Toolaufrufobjekte
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Die ID des Toolaufrufs Auf diese ID muss verwiesen werden, wenn Sie die Toolausgaben mit „Toolausgaben übermitteln“ zum Ausführen des Endpunkts übermitteln. | Ja | |
Typ | Zeichenfolge | Der Typ des Toolaufrufs, für den die Ausgabe erforderlich ist. Dieser Wert ist vorerst immer function . |
Ja | |
Funktion | Objekt | Die Funktionsdefinition. | Ja |
Eigenschaften für „function“
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der Funktion. |
Argumente
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Argumente | Zeichenfolge | Die Argumente, von denen das Modell erwartet, dass Sie sie an die Funktion übergeben. |
Typenumeration: RunToolCallObjectType
Wert | BESCHREIBUNG |
---|---|
Funktion |
createThreadAndRunRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
assistant_id | Zeichenfolge | Die ID des Assistenten, der für diese Ausführung verwendet werden soll | Ja | |
Thread | createThreadRequest | No | ||
model | Zeichenfolge | Der Bereitstellungsname des Modells, die für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | No | |
Setup | Zeichenfolge | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
tools | array | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
tool_resources | Objekt | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
Temperatur | Zahl | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
top_p | Zahl | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
Datenstrom | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
stream_options | chatCompletionStreamOptions | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
No | Keine |
max_prompt_tokens | integer | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete . Weitere Informationen finden Sie unter incomplete_details . |
No | |
max_completion_tokens | integer | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete . Weitere Informationen finden Sie unter incomplete_details . |
No | |
truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | No | |
Toolauswahl | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
No | |
parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | True |
response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106 .Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
threadObject
Stellt einen Thread dar, der Nachrichten enthält.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer thread ist. |
Ja | |
created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Thread erstellt wurde. | Ja | |
tool_resources | Objekt | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
Ja | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Ja |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
Objektenumeration: ThreadObjectType
Wert | Beschreibung |
---|---|
Thread | Die Art des Threadobjekts (immer thread ). |
createThreadRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Cloud an das Gerät | array | Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. | No | |
tool_resources | Objekt | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
|
vector_stores | array | Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Thread anzufügen. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
modifyThreadRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
tool_resources | Objekt | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Eigenschaften für „tool_resources“
code_interpreter
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
[] |
file_search
Name | Typ | Beschreibung | Standard |
---|---|---|---|
vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
deleteThreadResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ja | ||
deleted | boolean | Ja | ||
Objekt | Zeichenfolge | Ja |
Objektenumeration: DeleteThreadResponseObjectState
Wert | Beschreibung |
---|---|
thread.deleted | Der Zustand des gelöschten Threadantwortobjekts (thread.deleted ) |
listThreadsResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
data | array | Ja | ||
first_id | Zeichenfolge | Ja | ||
last_id | Zeichenfolge | Ja | ||
has_more | boolean | Ja |
messageObject
Stellt eine Nachricht in einem Thread dar.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer thread.message ist. |
Ja | |
created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht erstellt wurde. | Ja | |
thread_id | Zeichenfolge | Die Thread-ID, zu der diese Nachricht gehört. | Ja | |
Status | Zeichenfolge | Der Status der Nachricht (entweder in_progress , incomplete oder completed ). |
Ja | |
incomplete_details | Objekt | Gibt im Falle einer unvollständigen Nachricht an, warum die Nachricht unvollständig ist. | Ja | |
completed_at | integer | Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht vervollständigt wurde. | Ja | |
incomplete_at | integer | Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht als unvollständig markiert wurde. | Ja | |
role | Zeichenfolge | Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant . |
Ja | |
content | array | Der Inhalt der Nachricht im Textarray und/oder Bildern. | Ja | |
assistant_id | Zeichenfolge | Falls zutreffend, die ID des Assistenten, der diese Nachricht erstellt hat. | Ja | |
run_id | Zeichenfolge | Falls zutreffend, die ID der Ausführung, die der Erstellung dieser Nachricht zugeordnet ist. | Ja | |
Anhänge | array | Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt wurden. | Ja | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Ja |
Eigenschaften für „incomplete_details“
reason
Name | Typ | Beschreibung | Standard |
---|---|---|---|
reason | Zeichenfolge | Der Grund, warum die Nachricht unvollständig ist. |
Objektenumeration: MessageObjectType
Wert | Beschreibung |
---|---|
thread.message | Der Nachrichtenobjekttyp (thread.message ). |
Statusenumeration: MessageObjectStatus
Wert | Beschreibung |
---|---|
in_progress | |
incomplete | |
abgeschlossen |
Rollenenumeration: MessageObjectRole
Wert | Beschreibung |
---|---|
user | |
assistant |
messageDeltaObject
Stellt ein Nachrichtendelta dar (also alle Felder für eine Nachricht, die ggf. während des Streamings geändert wurden).
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner der Nachricht, auf den in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer thread.message.delta ist. |
Ja | |
delta | Objekt | Das Delta, das die Felder enthält, die sich in der Nachricht geändert haben | Ja |
Eigenschaften für „delta“
role
Name | Typ | Beschreibung | Standard |
---|---|---|---|
role | Zeichenfolge | Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant . |
Inhalt
Name | Typ | Beschreibung | Standard |
---|---|---|---|
content | array | Der Inhalt der Nachricht im Textarray und/oder Bildern. |
Objektenumeration: MessageDeltaObjectType
Wert | Beschreibung |
---|---|
thread.message.delta |
createMessageRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
role | Zeichenfolge | Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind: - user : Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.- assistant : Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen. |
Ja | |
content | Zeichenfolge | Der Inhalt der Nachricht. | Ja | |
Anhänge | array | Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt werden sollen. | No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Rollenenumeration: CreateMessageRequestRole
Wert | Beschreibung |
---|---|
user | |
assistant |
modifyMessageRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
deleteMessageResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ja | ||
deleted | boolean | Ja | ||
Objekt | Zeichenfolge | Ja |
Objektenumeration: DeleteMessageResponseObject
Wert | Beschreibung |
---|---|
thread.message.deleted | Der Status des Antwortobjekts für das Löschen einer Nachricht |
listMessagesResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
data | array | Ja | ||
first_id | Zeichenfolge | Ja | ||
last_id | Zeichenfolge | Ja | ||
has_more | boolean | Ja |
messageContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer image_file . |
Ja | |
image_file | Objekt | Ja |
Eigenschaften für „image_file“
file_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_id | Zeichenfolge | Die Datei-ID des Bilds im Nachrichteninhalt. |
Typenumeration: MessageContentImageFileObjectType
Wert | Beschreibung |
---|---|
image_file | Der Bilddateityp des Nachrichteninhalts. |
messageContentTextObject
Der Textinhalt, der Teil einer Nachricht ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer text . |
Ja | |
Text | Objekt | Ja |
Eigenschaften für „text“
value
Name | Typ | Beschreibung | Standard |
---|---|---|---|
value | Zeichenfolge | Die Daten, aus denen der Text besteht. |
annotations
Name | Typ | Beschreibung | Standard |
---|---|---|---|
annotations | array |
Typenumeration: messageContentTextObjectType
Wert | Beschreibung |
---|---|
Text | Der Objekttyp des Texts im Nachrichteninhalt. |
messageContentTextAnnotationsFileCitationObject
Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „retrieval“ für die Dateisuche verwendet.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer file_citation . |
Ja | |
Text | Zeichenfolge | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Ja | |
file_citation | Objekt | Ja | ||
start_index | integer | Ja | ||
end_index | integer | Ja |
Eigenschaften für „file_citation“
file_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_id | Zeichenfolge | Die ID der spezifischen Datei, aus der das Zitat stammt. |
Typenumeration: FileCitationObjectType
Wert | Beschreibung |
---|---|
file_citation | Der Objekttyp des Dateizitats. |
messageContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter
zum Generieren einer Datei verwendet hat.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer file_path . |
Ja | |
Text | Zeichenfolge | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Ja | |
file_path | Objekt | Ja | ||
start_index | integer | Ja | ||
end_index | integer | Ja |
Eigenschaften für „file_path“
file_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_id | Zeichenfolge | Die ID der generierten Datei. |
Typenumeration: FilePathObjectType
Wert | Beschreibung |
---|---|
file_path | Der Objekttyp des Dateipfads. |
messageDeltaContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index des Inhaltsteils in der Nachricht. | Ja | |
Typ | Zeichenfolge | Immer image_file . |
Ja | |
image_file | Objekt | No |
Eigenschaften für „image_file“
file_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_id | Zeichenfolge | Die Datei-ID des Bilds im Nachrichteninhalt. |
Typenumeration: MessageDeltaContentImageFileObjectType
Wert | Beschreibung |
---|---|
image_file |
messageDeltaContentTextObject
Der Textinhalt, der Teil einer Nachricht ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index des Inhaltsteils in der Nachricht. | Ja | |
Typ | Zeichenfolge | Immer text . |
Ja | |
Text | Objekt | No |
Eigenschaften für „text“
value
Name | Typ | Beschreibung | Standard |
---|---|---|---|
value | Zeichenfolge | Die Daten, aus denen der Text besteht. |
annotations
Name | Typ | Beschreibung | Standard |
---|---|---|---|
annotations | array |
Typenumeration: MessageDeltaContentTextObjectType
Wert | Beschreibung |
---|---|
Text |
messageDeltaContentTextAnnotationsFileCitationObject
Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „file_search“ für die Dateisuche verwendet.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index der Anmerkung im Textinhaltsteil. | Ja | |
Typ | Zeichenfolge | Immer file_citation . |
Ja | |
Text | Zeichenfolge | Der Text im Nachrichteninhalt, der ersetzt werden muss. | No | |
file_citation | Objekt | No | ||
start_index | integer | No | ||
end_index | integer | No |
Eigenschaften für „file_citation“
file_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_id | Zeichenfolge | Die ID der spezifischen Datei, aus der das Zitat stammt. |
Quote
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Quote | Zeichenfolge | Das spezifische Zitat in der Datei. |
Typenumeration: MessageDeltaContentTextAnnotationsFileCitationObjectType
Wert | Beschreibung |
---|---|
file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter
zum Generieren einer Datei verwendet hat.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index der Anmerkung im Textinhaltsteil. | Ja | |
Typ | Zeichenfolge | Immer file_path . |
Ja | |
Text | Zeichenfolge | Der Text im Nachrichteninhalt, der ersetzt werden muss. | No | |
file_path | Objekt | No | ||
start_index | integer | No | ||
end_index | integer | No |
Eigenschaften für „file_path“
file_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_id | Zeichenfolge | Die ID der generierten Datei. |
Typenumeration: MessageDeltaContentTextAnnotationsFilePathObjectType
Wert | Beschreibung |
---|---|
file_path |
runStepObject
Stellt einen Schritt in einer Ausführung dar.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer assistant.run.step ist. |
Ja | |
created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt erstellt wurde | Ja | |
assistant_id | Zeichenfolge | Die ID des Assistenten, der dem Ausführungsschritt zugeordnet ist | Ja | |
thread_id | Zeichenfolge | Die ID des ausgeführten Threads | Ja | |
run_id | Zeichenfolge | Die ID der Ausführung, zu der dieser Ausführungsschritt gehört | Ja | |
Typ | Zeichenfolge | Die Art des Ausführungsschritts (message_creation oder tool_calls ). |
Ja | |
Status | Zeichenfolge | Der Status der Ausführung (in_progress , cancelled , failed , completed oder expired ). |
Ja | |
step_details | runStepDetailsMessageCreationObject oder runStepDetailsToolCallsObject | Die Details des Ausführungsschritts | Ja | |
last_error | Objekt | Der letzte Fehler im Zusammenhang mit diesem Ausführungsschritt. Ist null , wenn keine Fehler vorliegen. |
Ja | |
expired_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgelaufen ist. Ein Schritt gilt als abgelaufen, wenn die übergeordnete Ausführung abgelaufen ist. | Ja | |
cancelled_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgebrochen wurde | Ja | |
failed_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt fehlgeschlagen ist | Ja | |
completed_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgeschlossen wurde | Ja | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Ja |
Eigenschaften für „last_error“
code
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Code | Zeichenfolge | Einer der folgenden Werte: server_error oder rate_limit_exceeded . |
message
Name | Typ | Beschreibung | Standard |
---|---|---|---|
message | Zeichenfolge | Eine für Menschen lesbare Beschreibung des Fehlers. |
Objektenumeration: RunStepObjectType
Wert | Beschreibung |
---|---|
assistant.run.step | Der Objekttyp, der immer assistant.run.step ist. |
Typenumeration: RunStepObjectType
Wert | Beschreibung |
---|---|
message_creation | Der Ausführungsschritt „message_creation“ |
tool_calls | Der Ausführungsschritt „tool_calls“ |
Statusenumeration: RunStepObjectStatus
Wert | Beschreibung |
---|---|
in_progress | Der Ausführungsstatus „in_progress“ |
cancelled | Der Ausführungsstatus „cancelled“ |
„Fehlgeschlagen“ | Der Ausführungsstatus „cancelled“ |
abgeschlossen | Der Ausführungsstatus „cancelled“ |
abgelaufen | Der Ausführungsstatus „cancelled“ |
runStepDeltaObject
Stellt ein Ausführungsschrittdelta dar (also alle Felder für einen Ausführungsschritt, die ggf. während des Streamings geändert wurden).
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer thread.run.step.delta ist. |
Ja | |
delta | Objekt | Das Delta mit den Feldern, die sich im Ausführungsschritt geändert haben. | Ja |
Eigenschaften für „delta“
step_details
Name | Typ | Beschreibung | Standard |
---|---|---|---|
step_details | runStepDeltaStepDetailsMessageCreationObject oder runStepDeltaStepDetailsToolCallsObject | Die Details des Ausführungsschritts |
Objektenumeration: RunStepDeltaObjectType
Wert | Beschreibung |
---|---|
thread.run.step.delta |
listRunStepsResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
data | array | Ja | ||
first_id | Zeichenfolge | Ja | ||
last_id | Zeichenfolge | Ja | ||
has_more | boolean | Ja |
runStepDetailsMessageCreationObject
Details zur Nachrichterstellung durch den Ausführungsschritt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer message_creation . |
Ja | |
message_creation | Objekt | Ja |
Eigenschaften für „message_creation“
message_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
message_id | Zeichenfolge | Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. |
Typenumeration: RunStepDetailsMessageCreationObjectType
Wert | Beschreibung |
---|---|
message_creation |
runStepDeltaStepDetailsMessageCreationObject
Details zur Nachrichterstellung durch den Ausführungsschritt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer message_creation . |
Ja | |
message_creation | Objekt | No |
Eigenschaften für „message_creation“
message_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
message_id | Zeichenfolge | Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. |
Typenumeration: RunStepDeltaStepDetailsMessageCreationObjectType
Wert | Beschreibung |
---|---|
message_creation |
runStepDetailsToolCallsObject
Details des Toolaufrufs.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer tool_calls . |
Ja | |
tool_calls | array | Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Tooltypen zugeordnet sein: code_interpreter , retrieval oder function . |
Ja |
Typenumeration: RunStepDetailsToolCallsObjectType
Wert | Beschreibung |
---|---|
tool_calls |
runStepDeltaStepDetailsToolCallsObject
Details des Toolaufrufs.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer tool_calls . |
Ja | |
tool_calls | array | Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Tooltypen zugeordnet sein: code_interpreter , file_search oder function . |
No |
Typenumeration: RunStepDeltaStepDetailsToolCallsObjectType
Wert | Beschreibung |
---|---|
tool_calls |
runStepDetailsToolCallsCodeObject
Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Die ID des Toolaufrufs | Ja | |
Typ | Zeichenfolge | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter . |
Ja | |
code_interpreter | Objekt | Die Definition des Code-Interpreter-Tools. | Ja |
Eigenschaften für „code_interpreter“
input
Name | Typ | Beschreibung | Standard |
---|---|---|---|
input | Zeichenfolge | Die Eingabe für den Code-Interpreter-Toolaufruf. |
outputs
Name | Typ | Beschreibung | Standard |
---|---|---|---|
outputs | array | Die Ausgaben des Code-Interpreter-Toolaufrufs. Der Code-Interpreter kann eines oder mehrere Elemente ausgeben, einschließlich Text (logs ) oder Bilder (image ). Jedes dieser Elemente wird durch einen anderen Objekttyp dargestellt. |
Typenumeration: RunStepDetailsToolCallsCodeObjectType
Wert | Beschreibung |
---|---|
code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index des Toolaufrufs im Toolaufruf-Array. | Ja | |
id | Zeichenfolge | Die ID des Toolaufrufs | No | |
Typ | Zeichenfolge | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter . |
Ja | |
code_interpreter | Objekt | Die Definition des Code-Interpreter-Tools. | No |
Eigenschaften für „code_interpreter“
input
Name | Typ | Beschreibung | Standard |
---|---|---|---|
input | Zeichenfolge | Die Eingabe für den Code-Interpreter-Toolaufruf. |
outputs
Name | Typ | Beschreibung | Standard |
---|---|---|---|
outputs | array | Die Ausgaben des Code-Interpreter-Toolaufrufs. Der Code-Interpreter kann eines oder mehrere Elemente ausgeben, einschließlich Text (logs ) oder Bilder (image ). Jedes dieser Elemente wird durch einen anderen Objekttyp dargestellt. |
Typenumeration: RunStepDeltaStepDetailsToolCallsCodeObjectType
Wert | Beschreibung |
---|---|
code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer logs . |
Ja | |
logs | Zeichenfolge | Die Textausgabe des Code-Interpreter-Toolaufrufs. | Ja |
Typenumeration: RunStepDetailsToolCallsCodeOutputLogsObjectType
Wert | Beschreibung |
---|---|
logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index der Ausgabe im Ausgaben-Array. | Ja | |
Typ | Zeichenfolge | Immer logs . |
Ja | |
logs | Zeichenfolge | Die Textausgabe des Code-Interpreter-Toolaufrufs. | No |
Typenumeration: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
Wert | Beschreibung |
---|---|
logs |
runStepDetailsToolCallsCodeOutputImageObject
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer image . |
Ja | |
image | Objekt | Ja |
Eigenschaften für „image“
file_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_id | Zeichenfolge | Die Datei-ID des Bilds. |
Typenumeration: RunStepDetailsToolCallsCodeOutputImageObjectType
Wert | Beschreibung |
---|---|
image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index der Ausgabe im Ausgaben-Array. | Ja | |
Typ | Zeichenfolge | Immer image . |
Ja | |
image | Objekt | No |
Eigenschaften für „image“
file_id
Name | Typ | Beschreibung | Standard |
---|---|---|---|
file_id | Zeichenfolge | Die Datei-ID des Bilds. |
Typenumeration: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
Wert | Beschreibung |
---|---|
image |
runStepDetailsToolCallsFileSearchObject
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Die ID des Toolaufrufobjekts. | Ja | |
Typ | Zeichenfolge | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer file_search . |
Ja | |
file_search | Objekt | Ist vorerst immer ein leeres Objekt. | Ja |
Typenumeration: RunStepDetailsToolCallsFileSearchObjectType
Wert | Beschreibung |
---|---|
file_search |
runStepDeltaStepDetailsToolCallsFileSearchObject
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index des Toolaufrufs im Toolaufruf-Array. | Ja | |
id | Zeichenfolge | Die ID des Toolaufrufobjekts. | No | |
Typ | Zeichenfolge | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer retrieval . |
Ja | |
file_search | Objekt | Ist vorerst immer ein leeres Objekt. | Ja |
Typenumeration: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
Wert | Beschreibung |
---|---|
file_search |
runStepDetailsToolCallsFunctionObject
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Die ID des Toolaufrufobjekts. | Ja | |
Typ | Zeichenfolge | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function . |
Ja | |
Funktion | Objekt | Die Definition der aufgerufenen Funktion. | Ja |
Eigenschaften für „function“
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der Funktion. |
Argumente
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Argumente | Zeichenfolge | Die an die Funktion übergebenen Argumente. |
output
Name | Typ | Beschreibung | Standard |
---|---|---|---|
output | Zeichenfolge | Die Ausgabe der Funktion. Ist null , wenn die Ausgaben noch nicht übermittelt wurden. |
Typenumeration: RunStepDetailsToolCallsFunctionObjectType
Wert | BESCHREIBUNG |
---|---|
Funktion |
runStepDeltaStepDetailsToolCallsFunctionObject
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Index | integer | Der Index des Toolaufrufs im Toolaufruf-Array. | Ja | |
id | Zeichenfolge | Die ID des Toolaufrufobjekts. | No | |
Typ | Zeichenfolge | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function . |
Ja | |
Funktion | Objekt | Die Definition der aufgerufenen Funktion. | No |
Eigenschaften für „function“
name
Name | Typ | Beschreibung | Standard |
---|---|---|---|
name | Zeichenfolge | Der Name der Funktion. |
Argumente
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Argumente | Zeichenfolge | Die an die Funktion übergebenen Argumente. |
output
Name | Typ | Beschreibung | Standard |
---|---|---|---|
output | Zeichenfolge | Die Ausgabe der Funktion. Ist null , wenn die Ausgaben noch nicht übermittelt wurden. |
Typenumeration: RunStepDetailsToolCallsFunctionObjectType
Wert | BESCHREIBUNG |
---|---|
Funktion |
vectorStoreExpirationAfter
Die Ablaufrichtlinie für einen Vektorspeicher.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Anker | Zeichenfolge | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at . |
Ja | |
days | integer | Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. | Ja |
Ankerenumeration: VectorStoreExpirationAfterAnchor
Wert | Beschreibung |
---|---|
last_active_at | Der Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. |
vectorStoreObject
Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search
verwendet werden können.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | enum | Der Objekttyp, der immer vector_store ist.Mögliche Werte: vector_store |
Ja | |
created_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. | Yes | |
Name | Zeichenfolge | Der Name des Vektorspeichers. | Ja | |
usage_bytes | integer | Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. | Ja | |
file_counts | Objekt | Ja | ||
Status | Zeichenfolge | Der Status des Vektorspeichers (expired , in_progress oder completed ). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist. |
Ja | |
expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
expires_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher abläuft. | No | |
last_active_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. | Ja | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Ja |
Eigenschaften für „file_counts“
in_progress
Name | Typ | Beschreibung | Standard |
---|---|---|---|
in_progress | integer | Die Anzahl von Dateien, die derzeit verarbeitet werden. |
abgeschlossen
Name | Typ | Beschreibung | Standard |
---|---|---|---|
abgeschlossen | integer | Die Anzahl erfolgreich verarbeiteter Dateien. |
„Fehlgeschlagen“
Name | Typ | Beschreibung | Standard |
---|---|---|---|
„Fehlgeschlagen“ | integer | Die Anzahl von Dateien, die nicht verarbeitet werden konnten. |
cancelled
Name | Typ | Beschreibung | Standard |
---|---|---|---|
cancelled | integer | Die Anzahl von Dateien, die abgebrochen wurden. |
total
Name | Typ | Beschreibung | Standard |
---|---|---|---|
total | integer | Die Gesamtanzahl der Dateien. |
Statusenumeration: VectorStoreObjectStatus
Wert | Beschreibung |
---|---|
abgelaufen | |
in_progress | |
abgeschlossen |
createVectorStoreRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search , die auf Dateien zugreifen können. |
No | |
name | Zeichenfolge | Der Name des Vektorspeichers. | No | |
expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
updateVectorStoreRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
name | Zeichenfolge | Der Name des Vektorspeichers. | No | |
expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
metadata | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
listVectorStoresResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
data | array | Ja | ||
first_id | Zeichenfolge | Ja | ||
last_id | Zeichenfolge | Ja | ||
has_more | boolean | Ja |
deleteVectorStoreResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ja | ||
deleted | boolean | Ja | ||
Objekt | Zeichenfolge | Ja |
Objektenumeration: DeleteVectorStoreResponseObject
Wert | Beschreibung |
---|---|
vector_store.deleted | Der Status des Antwortobjekts für das Löschen eines Vektorspeichers |
vectorStoreFileObject
Eine Liste der an einen Vektorspeicher angefügten Dateien.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer vector_store.file ist. |
Ja | |
usage_bytes | integer | Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. | Ja | |
created_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. | Ja | |
vector_store_id | Zeichenfolge | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Ja | |
Status | Zeichenfolge | Der Status der Vektorspeicherdatei (in_progress , completed , cancelled oder failed ). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist. |
Ja | |
last_error | Objekt | Der letzte Fehler im Zusammenhang mit dieser Vektorspeicherdatei. Ist null , wenn keine Fehler vorliegen. |
Ja | |
chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
No |
Eigenschaften für „last_error“
code
Name | Typ | Beschreibung | Standard |
---|---|---|---|
Code | Zeichenfolge | Einer der folgenden Werte: server_error oder rate_limit_exceeded . |
message
Name | Typ | Beschreibung | Standard |
---|---|---|---|
message | Zeichenfolge | Eine für Menschen lesbare Beschreibung des Fehlers. |
Objektenumeration: VectorStoreFileObjectType
Wert | Beschreibung |
---|---|
vector_store.file |
Statusenumeration: VectorStoreFileObjectStatus
Wert | Beschreibung |
---|---|
in_progress | |
abgeschlossen | |
cancelled | |
„Fehlgeschlagen“ |
otherChunkingStrategyResponseParam
Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy
-Konzepts in der API indiziert wurde.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer other . |
Ja |
Typenumeration: OtherChunkingStrategyResponseParamType
Wert | Beschreibung |
---|---|
Andere |
staticChunkingStrategyResponseParam
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | Zeichenfolge | Immer static . |
Ja | |
static | staticChunkingStrategy | Ja |
Typenumeration: StaticChunkingStrategyResponseParamType
Wert | Beschreibung |
---|---|
static |
staticChunkingStrategy
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
max_chunk_size_tokens | integer | Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800 . Der Mindestwert ist 100 , und der maximale Wert ist 4096 . |
Ja | |
chunk_overlap_tokens | integer | Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400 .Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens -Werts sein darf. |
Ja |
autoChunkingStrategyRequestParam
Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens
-Wert von 800
und einen chunk_overlap_tokens
-Wert von 400
.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Immer auto .Mögliche Werte: auto |
Ja |
staticChunkingStrategyRequestParam
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Typ | enum | Immer static .Mögliche Werte: static |
Ja | |
static | staticChunkingStrategy | Ja |
chunkingStrategyRequestParam
Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto
verwendet.
Mögliche Werte für diese Komponente:
createVectorStoreFileRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
file_id | Zeichenfolge | Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search , die auf Dateien zugreifen können. |
Ja | |
chunking_strategy | chunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
No |
listVectorStoreFilesResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
Objekt | Zeichenfolge | Ja | ||
data | array | Ja | ||
first_id | Zeichenfolge | Ja | ||
last_id | Zeichenfolge | Ja | ||
has_more | boolean | Ja |
deleteVectorStoreFileResponse
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Ja | ||
deleted | boolean | Ja | ||
Objekt | Zeichenfolge | Ja |
Objektenumeration: DeleteVectorStoreFileResponseObject
Wert | Beschreibung |
---|---|
vector_store.file.deleted |
vectorStoreFileBatchObject
Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
id | Zeichenfolge | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
Objekt | Zeichenfolge | Der Objekttyp, der immer vector_store.file_batch ist. |
Ja | |
created_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. | Ja | |
vector_store_id | Zeichenfolge | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Ja | |
Status | Zeichenfolge | Der Status des Vektorspeicher-Dateibatchs (in_progress , completed , cancelled oder failed ). |
Ja | |
file_counts | Objekt | Ja |
Eigenschaften für „file_counts“
in_progress
Name | Typ | Beschreibung | Standard |
---|---|---|---|
in_progress | integer | Die Anzahl von Dateien, die derzeit verarbeitet werden. |
abgeschlossen
Name | Typ | Beschreibung | Standard |
---|---|---|---|
abgeschlossen | integer | Die Anzahl verarbeiteter Dateien. |
„Fehlgeschlagen“
Name | Typ | Beschreibung | Standard |
---|---|---|---|
„Fehlgeschlagen“ | integer | Die Anzahl von Dateien, die nicht verarbeitet werden konnten. |
cancelled
Name | Typ | Beschreibung | Standard |
---|---|---|---|
cancelled | integer | Die Anzahl von Dateien, die abgebrochen wurden. |
total
Name | Typ | Beschreibung | Standard |
---|---|---|---|
total | integer | Die Gesamtanzahl der Dateien. |
Objektenumeration: VectorStoreFileBatchObjectType
Wert | Beschreibung |
---|---|
vector_store.files_batch |
Statusenumeration: VectorStoreFileBatchObjectStatus
Wert | Beschreibung |
---|---|
in_progress | |
abgeschlossen | |
cancelled | |
„Fehlgeschlagen“ |
createVectorStoreFileBatchRequest
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
file_ids | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search , die auf Dateien zugreifen können. |
Ja | |
chunking_strategy | chunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
No |
assistantStreamEvent
Stellt ein Ereignis dar, das beim Streamen einer Ausführung ausgegeben wird.
Jedes Ereignis in einem vom Server gesendeten Ereignisdatenstrom verfügt über eine event
-Eigenschaft und über eine data
-Eigenschaft:
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Ereignisse werden ausgegeben, wenn ein neues Objekt erstellt wird, in einen neuen Zustand übergeht oder in Teilen (Deltas) gestreamt wird. Beispielsweise wird thread.run.created
ausgegeben, wenn eine neue Ausführung erstellt wird, und thread.run.completed
, wenn eine Ausführung abgeschlossen wird. Wenn sich ein Assistent entscheidet, während einer Ausführung eine Nachricht zu erstellen, wird Folgendes in der angegebenen Reihenfolge ausgegeben: thread.message.created event
, ein thread.message.in_progress
-Ereignis, mehrere thread.message.delta
-Ereignisse und schließlich ein thread.message.completed
-Ereignis.
Im Laufe der Zeit kommen ggf. noch weitere Ereignisse hinzu. Daher empfiehlt es sich, unbekannte Ereignisse ordnungsgemäß in Ihrem Code zu behandeln.
Mögliche Werte für diese Komponente:
threadStreamEvent
Mögliche Werte für diese Komponente:
thread.created
Tritt auf, wenn ein neuer Thread erstellt wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | threadObject | Stellt einen Thread dar, der Nachrichten enthält. | Ja |
Daten: threadObject
Ereignisenumeration: ThreadStreamEventEnum
Wert | Beschreibung |
---|---|
thread.created | Das Threaderstellungsereignis. |
runStreamEvent
Mögliche Werte für diese Komponente:
thread.run.created
Tritt auf, wenn eine neue Ausführung erstellt wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventCreated
Wert | Beschreibung |
---|---|
thread.run.created |
thread.run.queued
Tritt auf, wenn eine Ausführung in den queued
-Status wechselt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventQueued
Wert | Beschreibung |
---|---|
thread.run.queued |
thread.run.in_progress
Tritt auf, wenn eine Ausführung in einen Status vom Typ in_progress
wechselt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventInProgress
Wert | Beschreibung |
---|---|
thread.run.in_progress |
thread.run.requires_action
Tritt auf, wenn eine Ausführung in den requires_action
-Status wechselt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventRequiresAction
Wert | Beschreibung |
---|---|
thread.run.requires_action |
thread.run.completed
Tritt auf, wenn eine Ausführung abgeschlossen ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventCompleted
Wert | Beschreibung |
---|---|
thread.run.completed |
thread.run.failed
Tritt auf, wenn eine Ausführung fehlschlägt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventFailed
Wert | Beschreibung |
---|---|
thread.run.failed |
thread.run.cancelling
Tritt auf, wenn eine Ausführung in den cancelling
-Status wechselt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventCancelling
Wert | Beschreibung |
---|---|
thread.run.cancelling |
thread.run.cancelled
Tritt auf, wenn eine Ausführung abgebrochen wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventCancelled
Wert | Beschreibung |
---|---|
thread.run.cancelled |
thread.run.expired
Tritt auf, wenn eine Ausführung verfällt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runObject | Stellt eine Ausführung dar, die in einem Thread ausgeführt wird. | Ja |
Daten: runObject
Ereignisenumeration: RunStreamEventExpired
Wert | Beschreibung |
---|---|
thread.run.expired |
runStepStreamEvent
Mögliche Werte für diese Komponente:
thread.run.step.created
Tritt auf, wenn ein Ausführungsschritt erstellt wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Ja |
Daten: runStepObject
Ereignisenumeration: RunStepStreamEventCreated
Wert | Beschreibung |
---|---|
thread.run.step.created |
thread.run.step.in_progress
Tritt auf, wenn ein Ausführungsschritt in den in_progress
-Zustand übergeht.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Ja |
Daten: runStepObject
Ereignisenumeration: RunStepStreamEventInProgress
Wert | Beschreibung |
---|---|
thread.run.step.in_progress |
thread.run.step.delta
Tritt auf, wenn Teile eines Ausführungsschritts gestreamt werden.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runStepDeltaObject | Stellt ein Ausführungsschrittdelta dar (also alle Felder für einen Ausführungsschritt, die ggf. während des Streamings geändert wurden). |
Ja |
Daten: runStepDeltaObject
Ereignisenumeration: RunStepStreamEventDelta
Wert | Beschreibung |
---|---|
thread.run.step.delta |
thread.run.step.completed
Tritt auf, wenn ein Ausführungsschritt abgeschlossen ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Ja |
Daten: runStepObject
Ereignisenumeration: RunStepStreamEventCompleted
Wert | Beschreibung |
---|---|
thread.run.step.completed |
thread.run.step.failed
Tritt auf, wenn ein Ausführungsschritt fehlschlägt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Ja |
Daten: runStepObject
Ereignisenumeration: RunStepStreamEventFailed
Wert | Beschreibung |
---|---|
thread.run.step.failed |
thread.run.step.cancelled
Tritt auf, wenn ein Ausführungsschritt abgebrochen wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Ja |
Daten: runStepObject
Ereignisenumeration: RunStepStreamEventCancelled
Wert | Beschreibung |
---|---|
thread.run.step.cancelled |
thread.run.step.expired
Tritt auf, wenn ein Ausführungsschritt verfällt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Ja |
Daten: runStepObject
Ereignisenumeration: RunStepStreamEventExpired
Wert | Beschreibung |
---|---|
thread.run.step.expired |
messageStreamEvent
Mögliche Werte für diese Komponente:
thread.message.created
Tritt auf, wenn eine Nachricht erstellt wird.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | messageObject | Stellt eine Nachricht in einem Thread dar. | Ja |
Daten: messageObject
Ereignisenumeration: MessageStreamEventCreated
Wert | Beschreibung |
---|---|
thread.message.created |
thread.message.in_progress
Tritt auf, wenn eine Nachricht in einen Zustand vom Typ in_progress
wechselt.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | messageObject | Stellt eine Nachricht in einem Thread dar. | Ja |
Daten: messageObject
Ereignisenumeration: MessageStreamEventInProgress
Wert | Beschreibung |
---|---|
thread.message.in_progress |
thread.message.delta
Tritt auf, wenn Teile einer Nachricht gestreamt werden.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | messageDeltaObject | Stellt ein Nachrichtendelta dar (also alle Felder für eine Nachricht, die ggf. während des Streamings geändert wurden). |
Ja |
Daten: messageDeltaObject
Ereignisenumeration: MessageStreamEventDelta
Wert | Beschreibung |
---|---|
thread.message.delta |
thread.message.completed
Tritt auf, wenn eine Nachricht abgeschlossen ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | messageObject | Stellt eine Nachricht in einem Thread dar. | Ja |
Daten: messageObject
Ereignisenumeration: MessageStreamEventCompleted
Wert | Beschreibung |
---|---|
thread.message.completed |
thread.message.incomplete
Tritt auf, wenn eine Nachricht endet, bevor sie abgeschlossen ist.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | messageObject | Stellt eine Nachricht in einem Thread dar. | Ja |
Daten: messageObject
Ereignisenumeration: MessageStreamEventIncomplete
Wert | Beschreibung |
---|---|
thread.message.incomplete |
errorEvent
Tritt auf, wenn ein Fehler auftritt. Dies kann aufgrund eines internen Serverfehlers oder eines Timeouts eintreten.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | error | Ja |
Ereignisenumeration: ErrorEventEnum
Wert | Beschreibung |
---|---|
error |
doneEvent
Tritt auf, wenn ein Datenstrom endet.
Name | Typ | Beschreibung | Erforderlich | Standard |
---|---|---|---|---|
event | Zeichenfolge | Ja | ||
data | Zeichenfolge | Ja |
Ereignisenumeration: DoneEventEnum
Wert | Beschreibung |
---|---|
done |
Datenenumeration: DoneEventDataEnum
Wert | Beschreibung |
---|---|
[DONE] |
Nächste Schritte
Erfahren Sie mehr über Modelle und die Optimierung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.