Freigeben über


Rest-Referenz für Microsoft Foundry Project

API-Version: 2025-11-15-preview

Agents – Agent erstellen

POST {endpoint}/agents?api-version=2025-11-15-preview

Erstellt den Agent.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Definition Objekt Ja
└– Art AgentKind Nein
└- rai_config RaiConfig Konfiguration für die Inhaltsfilterung und Sicherheitsfunktionen von Responsible AI (RAI). Nein
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Der eindeutige Name, der den Agent identifiziert. Name kann zum Abrufen/Aktualisieren/Löschen des Agenten verwendet werden.
- Muss mit alphanumerischen Zeichen beginnen und enden,
- Kann Bindestriche in der Mitte enthalten
- Darf 63 Zeichen nicht überschreiten.
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agents auflisten

GET {endpoint}/agents?api-version=2025-11-15-preview

Gibt die Liste aller Agenten zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
freundlich Anfrage Nein Filtern Sie die Wirkstoffe nach Art. Wenn nicht angegeben, werden alle Agenten zurückgegeben.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent abrufen

GET {endpoint}/agents/{agent_name}?api-version=2025-11-15-preview

Ruft den Agenten ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents, der abgerufen werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Update-Agent

POST {endpoint}/agents/{agent_name}?api-version=2025-11-15-preview

Aktualisiert den Agent, indem eine neue Version hinzugefügt wird, wenn Änderungen an der Agentendefinition vorgenommen werden. Wenn keine Änderungen vorgenommen werden, wird die vorhandene Agent-Version zurückgegeben.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents, der abgerufen werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Definition Objekt Ja
└– Art AgentKind Nein
└- rai_config RaiConfig Konfiguration für die Inhaltsfilterung und Sicherheitsfunktionen von Responsible AI (RAI). Nein
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent löschen

DELETE {endpoint}/agents/{agent_name}?api-version=2025-11-15-preview

Löscht einen Agent.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agenten, der gelöscht werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json DeleteAgentResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent aus dem Manifest aktualisieren

POST {endpoint}/agents/{agent_name}/import?api-version=2025-11-15-preview

Aktualisiert den Agent aus einem Manifest, indem eine neue Version hinzugefügt wird, wenn Änderungen an der Agentdefinition vorhanden sind. Wenn keine Änderungen vorgenommen werden, wird die vorhandene Agent-Version zurückgegeben.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des zu aktualisierenden Agents.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
manifest_id Schnur Die Manifest-ID, aus der die Agentversion importiert werden soll. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
parameter_values Objekt Die Eingaben in das Manifest, die zu einem vollständig materialisierten Agent führen. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Listen-Agent-Containervorgänge

GET {endpoint}/agents/{agent_name}/operations?api-version=2025-11-15-preview

Listen von Containervorgängen für einen Agent.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent-Containervorgang abrufen

GET {endpoint}/agents/{agent_name}/operations/{operation_id}?api-version=2025-11-15-preview

Rufen Sie den Status eines Containervorgangs für einen Agent ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents.
operation_id Pfad Ja Schnur Die Vorgangs-ID.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentContainerOperationObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse oder ApiErrorResponse

Agents – Agent-Version erstellen

POST {endpoint}/agents/{agent_name}/versions?api-version=2025-11-15-preview

Erstellen Sie eine neue Agentversion.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der eindeutige Name, der den Agent identifiziert. Name kann zum Abrufen/Aktualisieren/Löschen des Agenten verwendet werden.
- Muss mit alphanumerischen Zeichen beginnen und enden,
- Kann Bindestriche in der Mitte enthalten
- Darf 63 Zeichen nicht überschreiten.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Definition Objekt Ja
└– Art AgentKind Nein
└- rai_config RaiConfig Konfiguration für die Inhaltsfilterung und Sicherheitsfunktionen von Responsible AI (RAI). Nein
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentVersionObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agentversionen auflisten

GET {endpoint}/agents/{agent_name}/versions?api-version=2025-11-15-preview

Gibt die Liste der Versionen eines Agenten zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents, für den Versionen abgerufen werden sollen.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agentversion abrufen

GET {endpoint}/agents/{agent_name}/versions/{agent_version}?api-version=2025-11-15-preview

Ruft eine bestimmte Version eines Agenten ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents, der abgerufen werden soll.
agent_version Pfad Ja Schnur Die Version des abzurufenden Agents.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentVersionObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent-Version löschen

DELETE {endpoint}/agents/{agent_name}/versions/{agent_version}?api-version=2025-11-15-preview

Löscht eine bestimmte Version eines Agenten.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agenten, der gelöscht werden soll.
agent_version Pfad Ja Schnur Die zu löschende Version des Agents

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json DeleteAgentVersionResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent-Container abrufen

GET {endpoint}/agents/{agent_name}/versions/{agent_version}/containers/default?api-version=2025-11-15-preview

Abrufen eines Containers für eine bestimmte Version eines Agents.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents.
agent_version Pfad Ja Schnur Die Version des Agents.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentContainerObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Listen-Agent-Versionscontainervorgänge

GET {endpoint}/agents/{agent_name}/versions/{agent_version}/containers/default/operations?api-version=2025-11-15-preview

Auflisten von Containervorgängen für eine bestimmte Version eines Agents.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents.
agent_version Pfad Ja Schnur Die Version des Agents.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agentcontainer löschen

POST {endpoint}/agents/{agent_name}/versions/{agent_version}/containers/default:delete?api-version=2025-11-15-preview

Löschen eines Containers für eine bestimmte Version eines Agents. Wenn der Container nicht vorhanden ist, wird der Vorgang no-op. Der Vorgang ist ein lang ausgeführter Vorgang. Befolgen sie die Entwurfsrichtlinien für lange ausgeführte Vorgänge in Azure-REST-APIs. https://github.com/microsoft/api-guidelines/blob/vNext/azure/ConsiderationsForServiceDesign.md#action-operations

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents.
agent_version Pfad Ja Schnur Die Version des Agents.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 202

Beschreibung: Die Anforderung wurde zur Verarbeitung akzeptiert, die Verarbeitung wurde jedoch noch nicht abgeschlossen.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentContainerOperationObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Start-Agent-Container

POST {endpoint}/agents/{agent_name}/versions/{agent_version}/containers/default:start?api-version=2025-11-15-preview

Starten Sie einen Container für eine bestimmte Version eines Agents. Wenn der Container bereits ausgeführt wird, wird der Vorgang no-op. Der Vorgang ist ein lang ausgeführter Vorgang. Befolgen sie die Entwurfsrichtlinien für lange ausgeführte Vorgänge in Azure-REST-APIs. https://github.com/microsoft/api-guidelines/blob/vNext/azure/ConsiderationsForServiceDesign.md#action-operations

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents.
agent_version Pfad Ja Schnur Die Version des Agents.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
max_replicas Integer Die maximale Anzahl von Replikaten. Standardwert ist 1. Nein 1
min_replicas Integer Die Mindestanzahl der Replikate. Standardwert ist 1. Nein 1

Antworten

Statuscode: 202

Beschreibung: Die Anforderung wurde zur Verarbeitung akzeptiert, die Verarbeitung wurde jedoch noch nicht abgeschlossen.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentContainerOperationObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent-Container beenden

POST {endpoint}/agents/{agent_name}/versions/{agent_version}/containers/default:stop?api-version=2025-11-15-preview

Beenden Sie einen Container für eine bestimmte Version eines Agents. Wenn der Container nicht ausgeführt wird oder bereits beendet wird, wird der Vorgang no-op. Der Vorgang ist ein lang ausgeführter Vorgang. Befolgen sie die Entwurfsrichtlinien für lange ausgeführte Vorgänge in Azure-REST-APIs. https://github.com/microsoft/api-guidelines/blob/vNext/azure/ConsiderationsForServiceDesign.md#action-operations

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents.
agent_version Pfad Ja Schnur Die Version des Agents.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 202

Beschreibung: Die Anforderung wurde zur Verarbeitung akzeptiert, die Verarbeitung wurde jedoch noch nicht abgeschlossen.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentContainerOperationObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse oder ApiErrorResponse

Agents – Agent-Container aktualisieren

POST {endpoint}/agents/{agent_name}/versions/{agent_version}/containers/default:update?api-version=2025-11-15-preview

Aktualisieren eines Containers für eine bestimmte Version eines Agents. Wenn der Container nicht ausgeführt wird, wird der Vorgang no-op. Der Vorgang ist ein lang ausgeführter Vorgang. Befolgen sie die Entwurfsrichtlinien für lange ausgeführte Vorgänge in Azure-REST-APIs. https://github.com/microsoft/api-guidelines/blob/vNext/azure/ConsiderationsForServiceDesign.md#action-operations

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der Name des Agents.
agent_version Pfad Ja Schnur Die Version des Agents.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
max_replicas Integer Die maximale Anzahl von Replikaten. Nein
min_replicas Integer Die Mindestanzahl der Replikate. Nein

Antworten

Statuscode: 202

Beschreibung: Die Anforderung wurde zur Verarbeitung akzeptiert, die Verarbeitung wurde jedoch noch nicht abgeschlossen.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentContainerOperationObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent-Version aus dem Manifest erstellen

POST {endpoint}/agents/{agent_name}/versions:import?api-version=2025-11-15-preview

Erstellen Sie eine neue Agent-Version aus einem Manifest.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
agent_name Pfad Ja Schnur Der eindeutige Name, der den Agent identifiziert. Name kann zum Abrufen/Aktualisieren/Löschen des Agenten verwendet werden.
- Muss mit alphanumerischen Zeichen beginnen und enden,
- Kann Bindestriche in der Mitte enthalten
- Darf 63 Zeichen nicht überschreiten.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
manifest_id Schnur Die Manifest-ID, aus der die Agentversion importiert werden soll. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
parameter_values Objekt Die Eingaben in das Manifest, die zu einem vollständig materialisierten Agent führen. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentVersionObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Agents – Agent aus dem Manifest erstellen

POST {endpoint}/agents:import?api-version=2025-11-15-preview

Erstellt einen Agent aus einem Manifest.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
manifest_id Schnur Die Manifest-ID, aus der die Agentversion importiert werden soll. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Der eindeutige Name, der den Agent identifiziert. Name kann zum Abrufen/Aktualisieren/Löschen des Agenten verwendet werden.
- Muss mit alphanumerischen Zeichen beginnen und enden,
- Kann Bindestriche in der Mitte enthalten
- Darf 63 Zeichen nicht überschreiten.
Ja
parameter_values Objekt Die Eingaben in das Manifest, die zu einem vollständig materialisierten Agent führen. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AgentObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Verbindungen – Liste

GET {endpoint}/connections?api-version=2025-11-15-preview

Auflisten aller Verbindungen im Projekt, ohne Auffüllen der Verbindungsanmeldeinformationen

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Verbindungstyp Anfrage Nein Auflisten von Verbindungen dieses speziellen Typs
defaultConnection Anfrage Nein boolean Auflisten von Verbindungen, bei denen es sich um Standardverbindungen handelt
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedConnection

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Verbindungen – get

GET {endpoint}/connections/{name}?api-version=2025-11-15-preview

Abrufen einer Verbindung nach Namen, ohne die Anmeldeinformationen für die Verbindung einzugeben

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Anzeigename der Verbindung, der vom Benutzer bereitgestellt wird.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Verbindung

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Verbindungen – Abrufen mit Anmeldeinformationen

POST {endpoint}/connections/{name}/getConnectionWithCredentials?api-version=2025-11-15-preview

Abrufen einer Verbindung nach Namen mit den zugehörigen Verbindungsanmeldeinformationen

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Anzeigename der Verbindung, der vom Benutzer bereitgestellt wird.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Verbindung

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Datasets – neueste Liste

GET {endpoint}/datasets?api-version=2025-11-15-preview

Auflisten der neuesten Version jeder DatasetVersion

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedDatasetVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Datasets – Listenversionen

GET {endpoint}/datasets/{name}/versions?api-version=2025-11-15-preview

Listet alle Versionen der angegebenen DatasetVersion auf

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedDatasetVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Datasets – Version abrufen

GET {endpoint}/datasets/{name}/versions/{version}?api-version=2025-11-15-preview

Rufen Sie die spezifische Version von DatasetVersion ab. Der Dienst gibt den Fehler 404 Not Found zurück, wenn die DatasetVersion nicht vorhanden ist.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die spezifische Versions-ID der DatasetVersion, die abgerufen werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json DatasetVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Datasets – Version löschen

DELETE {endpoint}/datasets/{name}/versions/{version}?api-version=2025-11-15-preview

Löschen Sie die spezifische Version von DatasetVersion. Der Dienst gibt 204 No Content zurück, wenn die DatasetVersion erfolgreich gelöscht wurde oder wenn die DatasetVersion nicht vorhanden ist.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die Version der DatasetVersion, die gelöscht werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 204

Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Datasets – Erstellen oder Aktualisieren der Version

PATCH {endpoint}/datasets/{name}/versions/{version}?api-version=2025-11-15-preview

Erstellen Sie eine neue DatasetVersion, oder aktualisieren Sie eine vorhandene DatasetVersion mit der angegebenen Versions-ID

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die spezifische Versions-ID der DatasetVersion, die erstellt oder aktualisiert werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Inhaltstyp: application/merge-patch+json

Name Typ Description Erforderlich Default
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein
type Objekt Aufzählung, um den Datentyp zu bestimmen. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json DatasetVersion

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json DatasetVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Datasets – Abrufen von Anmeldeinformationen

POST {endpoint}/datasets/{name}/versions/{version}/credentials?api-version=2025-11-15-preview

Rufen Sie die SAS-Anmeldeinformationen ab, um auf das Speicherkonto zuzugreifen, das einer Dataset-Version zugeordnet ist.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die spezifische Versions-ID der DatasetVersion, mit der gearbeitet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AssetCredentialResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Datasets – Ausstehende Uploadversion starten

POST {endpoint}/datasets/{name}/versions/{version}/startPendingUpload?api-version=2025-11-15-preview

Starten Sie einen neuen oder rufen Sie einen vorhandenen ausstehenden Upload eines Datensatzes für eine bestimmte Version ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die spezifische Versions-ID der DatasetVersion, mit der gearbeitet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Verbindungsname Schnur Verbindungsname des Azure Storage-Kontos, der zum Generieren eines temporären SAS-Tokens verwendet werden soll Nein
pendingUploadId Schnur Wenn PendingUploadId nicht angegeben wird, wird eine zufällige GUID verwendet. Nein
pendingUploadType enum BlobReference ist der einzige unterstützte Typ.
Möglicher Wert: BlobReference
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PendingUploadResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Bereitstellungen – Liste

GET {endpoint}/deployments?api-version=2025-11-15-preview

Auflisten aller bereitgestellten Modelle im Projekt

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
modelPublisher Anfrage Nein Schnur Modell-Publisher zum Filtern von Modellen nach
modelName Anfrage Nein Schnur Modellname (der herausgeberspezifische Name), nach dem Modelle gefiltert werden sollen
deploymentType Anfrage Nein Typ der Bereitstellung, nach der die Liste gefiltert werden soll
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedDeployment

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Bereitstellungen – abrufen

GET {endpoint}/deployments/{name}?api-version=2025-11-15-preview

Rufen Sie ein bereitgestelltes Modell ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Name der Bereitstellung
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Deployment

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungsregeln – Liste

GET {endpoint}/evaluationrules?api-version=2025-11-15-preview

Listet alle Auswertungsregeln auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
actionType Anfrage Nein Filtern Sie nach dem Typ der Auswertungsregel.
Name des Agenten. Anfrage Nein Schnur Filtern Sie nach dem Agent-Namen.
aktiviert Anfrage Nein boolean Filtern Sie nach dem aktivierten Status.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedEvaluationRule

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungsregeln – get

GET {endpoint}/evaluationrules/{id}?api-version=2025-11-15-preview

Rufen Sie eine Bewertungsregel ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
id Pfad Ja Schnur Eindeutiger Bezeichner für die Auswertungsregel.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluationRule

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungsregeln – Löschen

DELETE {endpoint}/evaluationrules/{id}?api-version=2025-11-15-preview

Löschen Sie eine Auswertungsregel.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
id Pfad Ja Schnur Eindeutiger Bezeichner für die Auswertungsregel.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 204

Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungsregeln – Erstellen oder Aktualisieren

PUT {endpoint}/evaluationrules/{id}?api-version=2025-11-15-preview

Erstellen oder aktualisieren Sie eine Auswertungsregel.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
id Pfad Ja Schnur Eindeutiger Bezeichner für die Auswertungsregel.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Handlung Objekt Evaluierungs-Aktionsmodell. Ja
└– Typ EvaluationRuleActionType Art der Evaluierungsmaßnahme. Nein
Beschreibung Schnur Beschreibung für die Auswertungsregel. Nein
Anzeigename Schnur Anzeigename für die Auswertungsregel. Nein
aktiviert boolean Gibt an, ob die Auswertungsregel aktiviert ist. Der Standardwert ist "true". Ja
eventType Objekt Typ des Auswertungsregelereignisses. Ja
Filter Objekt Modell des Auswertungsfilters. Nein
└– agentName Schnur Filtern Sie nach Agent-Namen. Nein
id Schnur Eindeutiger Bezeichner für die Auswertungsregel. Ja
Systemdaten Objekt Systemmetadaten für die Auswertungsregel. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluationRule

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluationRule

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Bewertungstaxonomien – Liste

GET {endpoint}/evaluationtaxonomies?api-version=2025-11-15-preview

Auflisten von Auswertungstaxonomien

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
inputName Anfrage Nein Schnur Filtern Sie nach dem Namen der Evaluierungseingabe.
inputType Anfrage Nein Schnur Filtern Sie nach Taxonomie-Eingabetyp.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedEvaluationTaxonomy

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Bewertungstaxonomien – get

GET {endpoint}/evaluationtaxonomies/{name}?api-version=2025-11-15-preview

Abrufen eines namentlich ausgeführten Evaluierungslaufs.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluationTaxonomy

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Bewertungstaxonomien - löschen

DELETE {endpoint}/evaluationtaxonomies/{name}?api-version=2025-11-15-preview

Löschen Sie eine Auswertungstaxonomie nach Namen.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 204

Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Bewertungstaxonomien – erstellen

PUT {endpoint}/evaluationtaxonomies/{name}?api-version=2025-11-15-preview

Erstellen Sie eine Auswertungstaxonomie.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Auswertungstaxonomie.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
properties Objekt Zusätzliche Eigenschaften für die Auswertungstaxonomie. Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein
taxonomyCategories Array Liste der Taxonomiekategorien. Nein
taxonomyInput Objekt Eingabekonfiguration für die Auswertungstaxonomie. Ja
└– Typ EvaluationTaxonomyInputType Eingabetyp der Bewertungstaxonomie. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluationTaxonomy

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluationTaxonomy

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Bewertungstaxonomien – Aktualisieren

PATCH {endpoint}/evaluationtaxonomies/{name}?api-version=2025-11-15-preview

Aktualisieren Sie eine Auswertungstaxonomie.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Auswertungstaxonomie.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
properties Objekt Zusätzliche Eigenschaften für die Auswertungstaxonomie. Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein
taxonomyCategories Array Liste der Taxonomiekategorien. Nein
taxonomyInput Objekt Eingabekonfiguration für die Auswertungstaxonomie. Nein
└– Typ EvaluationTaxonomyInputType Eingabetyp der Bewertungstaxonomie. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluationTaxonomy

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Bewertungen – neueste Versionen auflisten

GET {endpoint}/evaluators?api-version=2025-11-15-preview

Auflisten der neuesten Version jedes Evaluators

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
type Anfrage Nein Filtern Sie Evaluatoren nach Typ. Mögliche Werte: 'all', 'custom', 'builtin'.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedEvaluatorVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungen – Listenversionen

GET {endpoint}/evaluators/{name}/versions?api-version=2025-11-15-preview

Listet alle Versionen des angegebenen Evaluators auf

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
type Anfrage Nein Filtern Sie Evaluatoren nach Typ. Mögliche Werte: 'all', 'custom', 'builtin'.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedEvaluatorVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungen – Version erstellen

POST {endpoint}/evaluators/{name}/versions?api-version=2025-11-15-preview

Erstellen einer neuen EvaluatorVersion mit automatisch inkrementierter Versions-ID

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
categories Array Die Kategorien des Bewerters Ja
Definition Objekt Konfiguration des Basisauswerters mit Diskriminator Ja
└– data_schema Das JSON-Schema (Entwurf 2020-12) für die Eingabedaten des Evaluators. Dazu gehören Parameter wie Typ, Eigenschaften, erforderlich. Nein
└– init_parameters Das JSON-Schema (Entwurf 2020-12) für die Eingabeparameter des Evaluators. Dazu gehören Parameter wie Typ, Eigenschaften, erforderlich. Nein
└– Metriken Objekt Liste der von diesem Evaluator erzeugten Ausgabemetriken Nein
└– Typ EvaluatorDefinitionType Der Typ der Definition des Evaluators Nein
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
display_name Schnur Anzeigename für den Evaluator. Es hilft, den Evaluator leicht in Foundry zu finden. Es muss nicht eindeutig sein. Nein
evaluator_type Objekt Der Typ des Evaluators Ja
metadata Objekt Metadaten über den Evaluator Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein

Antworten

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluatorVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungen – Version abrufen

GET {endpoint}/evaluators/{name}/versions/{version}?api-version=2025-11-15-preview

Rufen Sie die spezifische Version der EvaluatorVersion ab. Der Dienst gibt den Fehler 404 Not Found zurück, wenn die EvaluatorVersion nicht vorhanden ist.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die spezifische Versions-ID der abzurufenden EvaluatorVersion.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluatorVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungen – Version löschen

DELETE {endpoint}/evaluators/{name}/versions/{version}?api-version=2025-11-15-preview

Löschen Sie die spezifische Version der EvaluatorVersion. Der Dienst gibt 204 No Content zurück, wenn die EvaluatorVersion erfolgreich gelöscht wurde oder wenn die EvaluatorVersion nicht vorhanden ist.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die Zu löschende Version der EvaluatorVersion.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 204

Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Auswertungen – Updateversion

PATCH {endpoint}/evaluators/{name}/versions/{version}?api-version=2025-11-15-preview

Aktualisieren einer vorhandenen EvaluatorVersion mit der angegebenen Versions-ID

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die Version der zu aktualisierenden EvaluatorVersion.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
categories Array Die Kategorien des Bewerters Nein
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
display_name Schnur Anzeigename für den Evaluator. Es hilft, den Evaluator leicht in Foundry zu finden. Es muss nicht eindeutig sein. Nein
metadata Objekt Metadaten über den Evaluator Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvaluatorVersion

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Indizes – neueste Liste

GET {endpoint}/indexes?api-version=2025-11-15-preview

Listet die neueste Version jedes Index auf

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedIndex

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Indizes – Listenversionen

GET {endpoint}/indexes/{name}/versions?api-version=2025-11-15-preview

Listet alle Versionen des angegebenen Index auf

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedIndex

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Indizes – Version abrufen

GET {endpoint}/indexes/{name}/versions/{version}?api-version=2025-11-15-preview

Rufen Sie die spezifische Version des Index ab. Der Dienst gibt den Fehler 404 Not Found zurück, wenn der Index nicht vorhanden ist.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die spezifische Versions-ID des abzurufenden Indexes.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Index

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Indizes – Version löschen

DELETE {endpoint}/indexes/{name}/versions/{version}?api-version=2025-11-15-preview

Löschen Sie die spezifische Version des Indexes. Der Dienst gibt 204 No Content zurück, wenn der Index erfolgreich gelöscht wurde oder wenn der Index nicht vorhanden ist.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die Version des Indexes, die gelöscht werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 204

Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Indizes – Erstellen oder Aktualisieren der Version

PATCH {endpoint}/indexes/{name}/versions/{version}?api-version=2025-11-15-preview

Erstellen Sie einen neuen Index oder aktualisieren Sie einen vorhandenen Index mit der angegebenen Versions-ID

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name der Ressource
version Pfad Ja Schnur Die spezifische Versions-ID des Indexes, der erstellt oder aktualisiert werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Inhaltstyp: application/merge-patch+json

Name Typ Description Erforderlich Default
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein
type Objekt Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Index

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json Index

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Insights – Generieren

POST {endpoint}/insights?api-version=2025-11-15-preview

Generieren von Erkenntnissen

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Wiederholbarkeit–Request-ID Überschrift Nein Schnur Eindeutiger, vom Client generierter Identifikator zur Sicherstellung der Request-Idempotenz. Verwenden Sie dieselbe ID für Wiederholungen, um doppelte Auswertungen zu vermeiden.
Wiederholbarkeit–First-Sent Überschrift Nein Schnur Zeitstempel, der angibt, wann diese Anforderung zum ersten Mal initiiert wurde. Wird in Verbindung mit repeatability-request-id zur Idempotenzkontrolle verwendet.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Anzeigename Schnur Benutzerfreundlicher Anzeigename für den Einblick. Ja
id Schnur Die eindeutige Kennung für den Insights-Bericht. Ja
metadata Objekt Metadaten zu den Erkenntnissen. Ja
└– completedAt Schnur Der Zeitstempel, zu dem die Erkenntnisse abgeschlossen wurden. Nein
└– createdAt Schnur Der Zeitstempel, zu dem die Erkenntnisse erstellt wurden. Nein
request Objekt Die Anforderung des Insights-Berichts. Ja
└– Typ InsightType Der Anforderungstyp. Nein
Ergebnis Objekt Das Ergebnis der Erkenntnisse. Nein
└– Typ InsightType Die Art der Erkenntnisse, die sich daraus ergeben. Nein
Staat Objekt Enumeration, die zulässige Betriebszustände beschreibt. Ja

Antworten

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json Erkenntnis

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Insights – Liste

GET {endpoint}/insights?api-version=2025-11-15-preview

Listen Sie alle Erkenntnisse in umgekehrter chronologischer Reihenfolge auf (neueste zuerst).

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
type Anfrage Nein Filtern Sie nach der Art der Analyse.
evalId Anfrage Nein Schnur Filtern Sie nach der Auswertungs-ID.
runId Anfrage Nein Schnur Filtern Sie nach der ID des Auswertungslaufs.
Name des Agenten. Anfrage Nein Schnur Filtern Sie nach dem Agent-Namen.
includeCoordinates Anfrage Nein boolean Gibt an, ob Koordinaten für die Visualisierung in die Antwort aufgenommen werden sollen. Der Standardwert ist „false“.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedInsight

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Insights – get

GET {endpoint}/insights/{id}?api-version=2025-11-15-preview

Erhalten Sie einen spezifischen Einblick nach ID.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
id Pfad Ja Schnur Die eindeutige Kennung für den Insights-Bericht.
includeCoordinates Anfrage Nein boolean Gibt an, ob Koordinaten für die Visualisierung in die Antwort aufgenommen werden sollen. Der Standardwert ist „false“.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Erkenntnis

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Speicher erstellen

POST {endpoint}/memory_stores?api-version=2025-11-15-preview

Erstellen Sie einen Speicher.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Definition Objekt Basisdefinition für Speicherspeicherkonfigurationen. Ja
└– Art MemoryStoreKind Die Art des Speichers. Nein
Beschreibung Schnur Eine für Menschen lesbare Beschreibung des Speichers. Nein
metadata Objekt Beliebige Schlüssel-Wert-Metadaten, die dem Speicher zugeordnet werden sollen. Nein
Name Schnur Der Name des Speichers. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json MemoryStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Speicher auflisten

GET {endpoint}/memory_stores?api-version=2025-11-15-preview

Listet alle Speicherspeicher auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Aktualisieren des Speicherspeichers

POST {endpoint}/memory_stores/{name}?api-version=2025-11-15-preview

Aktualisieren Sie einen Speicherspeicher.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name des zu aktualisierenden Speichers.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine für Menschen lesbare Beschreibung des Speichers. Nein
metadata Objekt Beliebige Schlüssel-Wert-Metadaten, die dem Speicher zugeordnet werden sollen. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json MemoryStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Speicher abrufen

GET {endpoint}/memory_stores/{name}?api-version=2025-11-15-preview

Rufen Sie einen Speicherspeicher ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name des abzurufenden Speichers.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json MemoryStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Speicher löschen

DELETE {endpoint}/memory_stores/{name}?api-version=2025-11-15-preview

Löschen Sie einen Speicherspeicher.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name des zu löschenden Speichers.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json DeleteMemoryStoreResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Updateergebnis abrufen

GET {endpoint}/memory_stores/{name}/updates/{update_id}?api-version=2025-11-15-preview

Abrufen des Aktualisierungsergebnisses des Speicherspeichers.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name des Speichers.
update_id Pfad Ja Schnur Die ID des Speicheraktualisierungsvorgangs.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json MemoryStoreUpdateResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Löschen von Bereichsspeichern

POST {endpoint}/memory_stores/{name}:delete_scope?api-version=2025-11-15-preview

Löschen Sie alle Speicher, die einem bestimmten Bereich zugeordnet sind, aus einem Speicherspeicher.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name des Speichers.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
scope Schnur Der Namespace, der Speicher logisch gruppiert und isoliert, die gelöscht werden sollen, z. B. eine Benutzer-ID. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json MemoryStoreDeleteScopeResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Erinnerungen durchsuchen

POST {endpoint}/memory_stores/{name}:search_memories?api-version=2025-11-15-preview

Suchen Sie nach relevanten Erinnerungen aus einem Speicher, basierend auf dem Unterhaltungskontext.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name des zu durchsuchenden Speichers.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
items Array Elemente, nach denen nach relevanten Erinnerungen gesucht werden kann. Nein
options Objekt Optionen für die Speichersuche. Nein
└– max_memories Integer Maximale Anzahl der zurückzugebenden Speicherelemente. Nein
previous_search_id Schnur Die eindeutige ID der vorherigen Suchanforderung, die die inkrementelle Speichersuche an der Stelle ermöglicht, an der der letzte Vorgang unterbrochen wurde. Nein
scope Schnur Der Namespace, der Speicher logisch gruppiert und isoliert, z. B. eine Benutzer-ID. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json MemoryStoreSearchResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Aktualisieren von Erinnerungen

POST {endpoint}/memory_stores/{name}:update_memories?api-version=2025-11-15-preview

Aktualisieren des Speichers mit Unterhaltungserinnerungen.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Der Name des zu aktualisierenden Speichers.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
items Array Gesprächsthemen, aus denen Erinnerungen extrahiert werden können. Nein
previous_update_id Schnur Die eindeutige ID der vorherigen Aktualisierungsanforderung, die inkrementelle Speicheraktualisierungen an der Stelle ermöglicht, an der der letzte Vorgang unterbrochen wurde. Nein
scope Schnur Der Namespace, der Speicher logisch gruppiert und isoliert, z. B. eine Benutzer-ID. Ja
update_delay Integer Zeitüberschreitung vor der Verarbeitung des Speicherupdates in Sekunden.
Wenn während dieses Zeitraums eine neue Aktualisierungsanforderung eingeht, wird die aktuelle Anforderung abgebrochen und die Zeitüberschreitung zurückgesetzt.
Legen Sie diesen Wert auf 0 fest, um das Update sofort und ohne Verzögerung auszulösen.
Der Standardwert ist 300 (5 Minuten).
Nein 300

Antworten

Statuscode: 202

Beschreibung: Die Anforderung wurde zur Verarbeitung akzeptiert, die Verarbeitung wurde jedoch noch nicht abgeschlossen.

Inhaltstyp Typ Beschreibung
Anwendung/json MemoryStoreUpdateResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Unterhaltung erstellen

POST {endpoint}/openai/conversations?api-version=2025-11-15-preview

Erstellen sie eine Unterhaltung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
items Array Anfängliche Elemente, die den Unterhaltungskontext enthalten sollen.
Sie können jeweils bis zu 20 Elemente hinzufügen.
Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationResource

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Unterhaltungen auflisten

GET {endpoint}/openai/conversations?api-version=2025-11-15-preview

Gibt die Liste aller Unterhaltungen zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
agent_name Anfrage Nein Schnur Filtern Sie nach Agent-Namen. Wenn angegeben, werden nur Elemente zurückgegeben, die dem angegebenen Agent zugeordnet sind.
agent_id Anfrage Nein Schnur Filtern nach Agent-ID im Format name:version. Wenn angegeben, werden nur Elemente zurückgegeben, die der angegebenen Agent-ID zugeordnet sind.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Unterhaltung aktualisieren

POST {endpoint}/openai/conversations/{conversation_id}?api-version=2025-11-15-preview

Aktualisieren einer Unterhaltung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
conversation_id Pfad Ja Schnur Die ID der zu aktualisierenden Unterhaltung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationResource

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Unterhaltung abrufen

GET {endpoint}/openai/conversations/{conversation_id}?api-version=2025-11-15-preview

Ruft eine Unterhaltung ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
conversation_id Pfad Ja Schnur Die ID der abzurufenden Unterhaltung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationResource

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Unterhaltung löschen

DELETE {endpoint}/openai/conversations/{conversation_id}?api-version=2025-11-15-preview

Löscht eine Unterhaltung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
conversation_id Pfad Ja Schnur Die ID der zu löschenden Unterhaltung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeletedConversationResource

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Erstellen von Unterhaltungselementen

POST {endpoint}/openai/conversations/{conversation_id}/items?api-version=2025-11-15-preview

Erstellen Sie Elemente in einer Unterhaltung mit der angegebenen ID.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
conversation_id Pfad Ja Schnur Die ID der Unterhaltung, auf der das Element erstellt werden muss.
einschließen Anfrage Nein Array Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen.
Weitere Informationen finden Sie im include Parameter zum Auflisten von Unterhaltungselementen.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
items Array Die Elemente, die der Unterhaltung hinzugefügt werden sollen. Sie können jeweils bis zu 20 Elemente hinzufügen. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationItemList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Auflisten von Unterhaltungselementen

GET {endpoint}/openai/conversations/{conversation_id}/items?api-version=2025-11-15-preview

Listet alle Elemente für eine Unterhaltung mit der angegebenen ID auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
conversation_id Pfad Ja Schnur Die ID der Unterhaltung, in der die Elemente aufgelistet werden müssen.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
item_type Anfrage Nein Nach Elementtyp filtern. Wenn angegeben, werden nur Elemente des angegebenen Typs zurückgegeben.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Unterhaltungselement abrufen

GET {endpoint}/openai/conversations/{conversation_id}/items/{item_id}?api-version=2025-11-15-preview

Ruft ein einzelnes Element aus einer Unterhaltung mit den angegebenen IDs ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
conversation_id Pfad Ja Schnur Die ID der Unterhaltung, die das Element enthält.
item_id Pfad Ja Schnur Die ID des abzurufenden Unterhaltungselements.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ItemResource

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Unterhaltungselement löschen

DELETE {endpoint}/openai/conversations/{conversation_id}/items/{item_id}?api-version=2025-11-15-preview

Löschen eines Elements aus einer Unterhaltung mit den angegebenen IDs.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
conversation_id Pfad Ja Schnur Die ID der Unterhaltung, aus der das Element gelöscht werden muss.
item_id Pfad Ja Schnur Die ID des zu löschenden Unterhaltungselements.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationResource

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI Evals - Listen-Evals

GET {endpoint}/openai/evals?api-version=2025-11-15-preview

Auflisten aller Auswertungen Listenauswertungen für ein Projekt.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
after Anfrage Nein Schnur Kennung für den letzten Ausführungslauf aus der vorherigen Paginierungsanforderung.
limit Anfrage Nein Anzahl der abzurufenden Ausführungen
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge der Ausführungen nach Zeitstempel Verwenden Sie asc für aufsteigende Reihenfolge oder desc für absteigende Reihenfolge. Wird standardmäßig auf asc festgelegt.
order_by Anfrage Nein Schnur
Mögliche Werte: created_at, updated_at
Evals können nach Erstellungszeit oder zuletzt aktualisierter Zeit sortiert werden. Verwendung
created_at für die Erstellungszeit oder updated_at für die uhrzeit der letzten Aktualisierung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI Evals - eval erstellen

POST {endpoint}/openai/evals?api-version=2025-11-15-preview

Erstellen Sie die Auswertung Erstellen Sie die Struktur einer Auswertung, die zum Testen der Leistung eines Modells verwendet werden kann. Eine Auswertung ist eine Reihe von Testkriterien und die Konfiguration für eine Datenquelle, die das Schema der in der Auswertung verwendeten Daten bestimmt. Nachdem Sie eine Auswertung erstellt haben, können Sie sie auf verschiedenen Modellen und Modellparametern ausführen. Wir unterstützen verschiedene Arten von Benotern und Datenquellen. Weitere Informationen finden Sie unter

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Datenquellenkonfiguration Objekt Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird.
Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
– Welche Daten beim Erstellen einer Ausführung erforderlich sind
Ja
└– include_sample_schema boolean Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) Nein
└– item_schema Objekt Das JSON-Schema für jede Zeile in der Datenquelle. Nein
└- Metadaten Objekt Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. Nein
└– Szenario enum Datenschemaszenario.
Mögliche Werte: red_team, , responsestraces
Nein
└– Typ enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: azure_ai_source
Nein
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Der Name der Auswertung. Nein
properties Objekt Satz unveränderlicher 16 Schlüsselwertpaare, die an ein Objekt angefügt werden können, um zusätzliche Informationen zu speichern.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Testkriterien Array Liste der Bewerter (Grader) für alle Auswertungsausführungen in dieser Gruppe Bewerter können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z. B. {{item.variable_name}}. Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den Namespace sample (d.h. {{sample.output_text}}). Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI evals - eval löschen

DELETE {endpoint}/openai/evals/{eval_id}?api-version=2025-11-15-preview

Löschen einer Auswertung Löschen einer Auswertung

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur Die ID der zu löschenden Auswertung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json DeleteEvalResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI evals - get eval

GET {endpoint}/openai/evals/{eval_id}?api-version=2025-11-15-preview

Abrufen einer Auswertung Abrufen einer Auswertung nach ID.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur Die ID der abzurufenden Auswertung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI evals - update eval

POST {endpoint}/openai/evals/{eval_id}?api-version=2025-11-15-preview

Aktualisieren einer Auswertung Aktualisieren bestimmter Eigenschaften einer Auswertung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur Die ID der zu aktualisierenden Auswertung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Nein
properties Objekt Satz unveränderlicher 16 Schlüsselwertpaare, die an ein Objekt angefügt werden können, um zusätzliche Informationen zu speichern.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI evals - Listenläufe

GET {endpoint}/openai/evals/{eval_id}/runs?api-version=2025-11-15-preview

Dient zum Abrufen einer Liste von Läufen für eine Auswertung Abrufen einer Liste von Läufen für eine Auswertung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur ID der Auswertung, zu der Ausführungen abgerufen werden sollen
after Anfrage Nein Schnur Kennung für den letzten Ausführungslauf aus der vorherigen Paginierungsanforderung.
limit Anfrage Nein Anzahl der abzurufenden Ausführungen
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge der Ausführungen nach Zeitstempel Verwenden Sie asc für aufsteigende Reihenfolge oder desc für absteigende Reihenfolge. Wird standardmäßig auf asc festgelegt.
status Anfrage Nein Schnur
Mögliche Werte: queued, in_progress, completed, canceled, . failed Filtern der Ausführungen nach Status Einer von queued, in_progress, failed, completed, . canceled

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI evals - eval run erstellen

POST {endpoint}/openai/evals/{eval_id}/runs?api-version=2025-11-15-preview

Auswertungsausführung erstellen

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur ID der Auswertung, für die eine Ausführung erstellt werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Datenquelle Objekt Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht. Ja
└– input_messages OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate oder OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference Wird beim Sampling aus einem Modell verwendet. Bestimmt die Struktur der Nachrichten, die an das Modell übergeben werden. Kann entweder ein Verweis auf eine vordefinierte Flugbahn (ie, item.input_trajectory) oder eine Vorlage mit variablen Verweisen auf den item Namespace sein. Nein
└– item_generation_params RedTeamItemGenerationParams Die Parameter für die Elementgenerierung. Nein
└─ Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
└– Stichprobenparameter OpenAI.CreateEvalResponsesRunDataSourceSamplingParams Nein
└- Quelle OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource oder OpenAI.EvalResponsesSource Bestimmt, was den Namespace in der item Datenquelle dieser Ausführung auffüllt. Nein
└- Ziel Ziel Die Zielkonfiguration für die Auswertung. Nein
└– Typ Schnur Der Diskriminator des Datenquellentyps. Nein
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Name der Ausführung Nein
properties Objekt Satz unveränderlicher 16 Schlüsselwertpaare, die an ein Objekt angefügt werden können, um zusätzliche Informationen zu speichern.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI evals - eval run löschen

DELETE {endpoint}/openai/evals/{eval_id}/runs/{run_id}?api-version=2025-11-15-preview

Auswertungsausführung löschen Löschen einer Eval-Ausführung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur Die ID der Auswertung, aus der der Lauf gelöscht werden soll.
run_id Pfad Ja Schnur ID der zu löschenden Ausführung

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json DeleteEvalRunResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI evals - get eval run

GET {endpoint}/openai/evals/{eval_id}/runs/{run_id}?api-version=2025-11-15-preview

Abrufen einer Auswertungsausführung Abrufen einer Auswertung, die nach ID ausgeführt wird.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur ID der Auswertung, zu der Ausführungen abgerufen werden sollen
run_id Pfad Ja Schnur ID der abzurufenden Ausführung

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI evals - abbrechen eval run

POST {endpoint}/openai/evals/{eval_id}/runs/{run_id}?api-version=2025-11-15-preview

Abbrechen der Auswertungsausführung Abbrechen einer laufenden Auswertungsausführung.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur Die ID der Auswertung, deren Ausführung Sie abbrechen möchten.
run_id Pfad Ja Schnur ID der Ausführung, die abgebrochen werden soll

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI-Evals - Ausgabeelemente abrufen

GET {endpoint}/openai/evals/{eval_id}/runs/{run_id}/output_items?api-version=2025-11-15-preview

Abrufen von Ausgabeelementen für die Auswertungsausführung Abrufen einer Liste der Ausgabeelemente für einen Auswertungslauf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur ID der Ausführung, für die Ausgabeelemente abgerufen werden sollen
after Anfrage Nein Schnur Kennung für den letzten Ausführungslauf aus der vorherigen Paginierungsanforderung.
limit Anfrage Nein Anzahl der abzurufenden Ausführungen
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge der Ausführungen nach Zeitstempel Verwenden Sie asc für aufsteigende Reihenfolge oder desc für absteigende Reihenfolge. Wird standardmäßig auf asc festgelegt.
status Anfrage Nein Schnur
Mögliche Werte: fail, pass
Filtert Ausgabeelemente nach Status. Verwendung failed zum Filtern nach fehlgeschlagener Ausgabe
Elemente oder pass zum Filtern nach übergebenen Ausgabeelementen.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

OpenAI-Evals - Ausgabeelement abrufen

GET {endpoint}/openai/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=2025-11-15-preview

Abrufen eines Ausgabeelements einer Auswertungsausführung Abrufen eines Ausgabeelements für die Auswertungsausführung nach ID.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
eval_id Pfad Ja Schnur ID der Auswertung, zu der Ausführungen abgerufen werden sollen
run_id Pfad Ja Schnur ID der abzurufenden Ausführung
output_item_id Pfad Ja Schnur Die ID des abzurufenden Ausgabeelements.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json EvalRunOutputItem

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Erstellen eines Feinabstimmungsauftrags

POST {endpoint}/openai/fine-tuning/jobs?api-version=2025-11-15-preview

Erstellt einen Feinabstimmungsauftrag, der den Prozess der Erstellung eines neuen Modells aus einem bestimmten Datensatz startet.

Die Antwort enthält Details des in die Warteschlange gestellten Auftrags einschließlich Auftragsstatus und den Namen der fein abgestimmten Modelle nach Abschluss.

Weitere Informationen zur Feinabstimmung

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
Dieser Wert ist nun zugunsten von method veraltet und sollte unter dem Parameter method übergeben werden.
Nein
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
Integrationen Array Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell string (siehe gültige Modelle unten) Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden
unterstützten Modelle verwenden.
Ja
seed Integer Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden.
Wenn Sie keinen Seed angeben, wird einer für Sie generiert.
Nein
suffix Schnur Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird.

Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen.
Nein Nichts
Trainingsdatei Schnur Die ID einer hochgeladenen Datei, die Trainingsdaten enthält.



Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.

Der Inhalt der Datei sollte sich unterscheiden, je nachdem, ob das Modell das ChatCompletion-Format verwendet oder wenn die Feinabstimmungsmethode das Präferenz-Format verwendet.

Weitere Details finden Sie in der Feinabstimmungsanleitung.
Ja
Validierungsdatei Schnur Die ID einer hochgeladenen Datei, die Validierungsdaten enthält.

Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs-
Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der
Feinabstimmungsergebnisdatei angezeigt werden.
Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein.

Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.

Weitere Details finden Sie in der Feinabstimmungsanleitung.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Auflisten von paginierten Feinabstimmungsaufträgen

GET {endpoint}/openai/fine-tuning/jobs?api-version=2025-11-15-preview

Auflisten der Feinabstimmungsaufträge Ihrer Organisation

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
after Anfrage Nein Schnur Bezeichner für den letzten Auftrag aus der vorherigen Paginierungsaufforderung.
limit Anfrage Nein Integer Anzahl der abzurufenden Feinabstimmungsaufträge.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListPaginatedFineTuningJobsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Feinabstimmungsauftrag abrufen

GET {endpoint}/openai/fine-tuning/jobs/{fine_tuning_job_id}?api-version=2025-11-15-preview

Rufen Sie Informationen zu einem Feinabstimmungsauftrag ab.

Weitere Informationen zur Feinabstimmung

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Abbrechen des Feinabstimmungsauftrags

POST {endpoint}/openai/fine-tuning/jobs/{fine_tuning_job_id}/cancel?api-version=2025-11-15-preview

Brechen Sie einen Feinabstimmungsauftrag sofort ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
fine_tuning_job_id Pfad Ja Schnur Die ID des abzubrechenden Feinabstimmungsauftrags.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Auflisten von Feinabstimmungsauftragsprüfpunkten

GET {endpoint}/openai/fine-tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=2025-11-15-preview

Auflisten von Prüfpunkten für einen Feinabstimmungsauftrag.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, für den Prüfpunkte abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für die letzte Prüfpunkt-ID aus der vorherigen Paginierungsanforderung.
limit Anfrage Nein Integer Anzahl der abzurufenden Prüfpunkte.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningJobCheckpointsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Auflisten von Feinabstimmungsauftragsereignissen

GET {endpoint}/openai/fine-tuning/jobs/{fine_tuning_job_id}/events?api-version=2025-11-15-preview

Erhalten Sie fein abgestimmte Statusupdates für einen Feinabstimmungsauftrag.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, für den Ereignisse abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für das letzte Ereignis aus der vorherigen Anforderung zur Paginierung.
limit Anfrage Nein Integer Anzahl der abzurufenden Ereignisse.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningJobEventsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Feinabstimmungsauftrag anhalten

POST {endpoint}/openai/fine-tuning/jobs/{fine_tuning_job_id}/pause?api-version=2025-11-15-preview

Anhalten eines ausgeführten Feinabstimmungsauftrags.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
fine_tuning_job_id Pfad Ja Schnur Die ID des anzuhaltenden Feinabstimmungsauftrags.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Feinabstimmungsauftrag fortsetzen

POST {endpoint}/openai/fine-tuning/jobs/{fine_tuning_job_id}/resume?api-version=2025-11-15-preview

Setzen Sie einen angehaltenen Feinabstimmungsauftrag fort.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, der fortgesetzt werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Antwort erstellen – Antwortdatenstrom erstellen

POST {endpoint}/openai/responses?api-version=2025-11-15-preview

Erstellt eine Modellantwort. Erstellt eine Modellantwort (Streamingantwort).

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Nein Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Agent AgentReference Der Agent, der zum Generieren der Antwort verwendet werden soll. Nein
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
Konversation (conversation) Zeichenfolge oder Objekt Nein
einschließen Array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Zurzeit
Unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung
in den Aufrufelementen des Code-Interpreter-Tools.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs
- file_search_call.results: Fügen Sie die Suchergebnisse von
des Aufrufs des Dateisuchtools.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-
Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in
mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B.
wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt ist
für das Null-Datenaufbewahrungsprogramm registriert).
Nein
Eingabe Zeichenfolge oder Array Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden.

Weitere Informationen:
- Texteingaben und -ausgaben
- Bildeingaben
- Dateieingaben
- Verwalten des Unterhaltungszustands
- Funktionsaufrufe
Nein
instructions Schnur Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
prompt OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
reasoning OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
Dienststufe OpenAI.ServiceTier Hinweis: service_tier gilt nicht für Azure OpenAI. Nein
store boolean Gibt an, ob die generierte Modellantwort gespeichert werden soll zur späteren Abfrage über
API.
Nein Richtig
Datenstrom boolean Bei Festlegung auf "true" werden die Modellantwortdaten an den Client gestreamt.
da sie mithilfe von server-sent-Ereignissen generiert werden.

finden Sie weitere Informationen.
Nein Falsch
structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Dateisuche.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt.
Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
user Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Response
text/event-stream OpenAI.ResponseStreamEvent

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Antworten auflisten

GET {endpoint}/openai/responses?api-version=2025-11-15-preview

Gibt die Liste aller Antworten zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
agent_name Anfrage Nein Schnur Filtern Sie nach Agent-Namen. Wenn angegeben, werden nur Elemente zurückgegeben, die dem angegebenen Agent zugeordnet sind.
agent_id Anfrage Nein Schnur Filtern nach Agent-ID im Format name:version. Wenn angegeben, werden nur Elemente zurückgegeben, die der angegebenen Agent-ID zugeordnet sind.
conversation_id Anfrage Nein Schnur Filtern nach Unterhaltungs-ID. Wenn angegeben, werden nur Antworten zurückgegeben, die der angegebenen Unterhaltung zugeordnet sind.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Antwort abrufen – Antwortdatenstrom abrufen

GET {endpoint}/openai/responses/{response_id}?api-version=2025-11-15-preview

Ruft eine Modellantwort mit der angegebenen ID ab. Ruft eine Modellantwort mit der angegebenen ID (Streamingantwort) ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Nein Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
response_id Pfad Ja Schnur
include[] Anfrage Nein Array
Datenstrom Anfrage Nein boolean
starting_after Anfrage Nein Integer
Akzeptieren Überschrift Nein Schnur
Möglicher Wert: text/event-stream

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Response
text/event-stream OpenAI.ResponseStreamEvent

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Antwort löschen

DELETE {endpoint}/openai/responses/{response_id}?api-version=2025-11-15-preview

Löscht eine Modellantwort.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
response_id Pfad Ja Schnur Die ID der zu löschenden Antwort.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json DeleteResponseResult

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Antwort abbrechen

POST {endpoint}/openai/responses/{response_id}/cancel?api-version=2025-11-15-preview

Bricht eine Modellantwort ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
response_id Pfad Ja Schnur Die ID der Antwort, die abgebrochen werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Response

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Listeneingabeelemente

GET {endpoint}/openai/responses/{response_id}/input_items?api-version=2025-11-15-preview

Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
response_id Pfad Ja Schnur
limit Anfrage Nein Integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt Die Antwortdaten für eine angeforderte Liste von Elementen.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json ApiErrorResponse

Redteams - Liste

GET {endpoint}/redTeams/runs?api-version=2025-11-15-preview

Listen Sie ein Redteam mit Namen auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedRedTeam

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Redteams – holen Sie sich

GET {endpoint}/redTeams/runs/{name}?api-version=2025-11-15-preview

Holen Sie sich ein redteam mit Namen.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
Name Pfad Ja Schnur Kennung des Red Team Runs.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json RedTeam

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Redteams – erstellen

POST {endpoint}/redTeams/runs:run?api-version=2025-11-15-preview

Erstellt einen Redteam-Lauf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
applicationScenario Schnur Anwendungsszenario für die Red-Team-Operation, um szenariospezifische Angriffe zu generieren. Nein
attackStrategies Array Liste der Angriffsstrategien oder verschachtelte Listen von Angriffsstrategien. Nein
Anzeigename Schnur Name des Red-Team-Laufs. Nein
id Schnur Kennung des Red Team Runs. Ja
numTurns Integer Anzahl der Simulationsrunden. Nein
properties Objekt Eigenschaften des roten Teams. Im Gegensatz zu Tags sind Eigenschaften nur add-only. Nachdem eine Eigenschaft hinzugefügt wurde, kann keine Eigenschaft entfernt werden. Nein
riskCategories Array Liste der Risikokategorien, für die Angriffsziele generiert werden sollen. Nein
simulationOnly boolean Reine Simulation oder Simulation + Bewertung. Standardwert false, wenn true, gibt der Scan die Konversation und nicht das Auswertungsergebnis aus. Nein Falsch
status Schnur Status des roten Teams. Sie wird vom Dienst festgelegt und ist schreibgeschützt. Nein
tags Objekt Tags des roten Teams. Im Gegensatz zu Eigenschaften sind Tags vollständig änderbar. Nein
target Objekt Abstrakte Klasse für die Zielkonfiguration. Ja
└– Typ Schnur Typ der Modellkonfiguration. Nein

Antworten

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json RedTeam

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Zeitpläne – Liste

GET {endpoint}/schedules?api-version=2025-11-15-preview

Listen Sie alle Zeitpläne auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedSchedule

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Zeitpläne – Löschen

DELETE {endpoint}/schedules/{id}?api-version=2025-11-15-preview

Löschen eines Zeitplans.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
id Pfad Ja Schnur Kennung des Zeitplans.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 204

Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Zeitpläne – abrufen

GET {endpoint}/schedules/{id}?api-version=2025-11-15-preview

Rufen Sie einen Zeitplan nach ID ab.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
id Pfad Ja Schnur Kennung des Zeitplans.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Zeitplan

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Zeitpläne – Erstellen oder Aktualisieren

PUT {endpoint}/schedules/{id}?api-version=2025-11-15-preview

Erstellen oder aktualisieren Sie einen Zeitplan nach ID.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
id Pfad Ja Schnur Kennung des Zeitplans.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zeitplans. Nein
Anzeigename Schnur Name des Zeitplans. Nein
aktiviert boolean Status des Zeitplans aktiviert. Ja
id Schnur Kennung des Zeitplans. Ja
properties Objekt Eigenschaften von Schedule. Im Gegensatz zu Tags sind Eigenschaften nur add-only. Nachdem eine Eigenschaft hinzugefügt wurde, kann keine Eigenschaft entfernt werden. Nein
Stand der Bereitstellung Objekt Planen Sie den Bereitstellungsstatus. Nein
Systemdaten Objekt Systemmetadaten für die Ressource. Ja
tags Objekt Tags des Zeitplans. Im Gegensatz zu Eigenschaften sind Tags vollständig änderbar. Nein
Aufgabe Objekt Aufgabenmodell planen. Ja
└– Konfiguration Objekt Konfiguration für die Aufgabe. Nein
└– Typ ScheduleTaskType Typ des Vorgangs. Nein
trigger Objekt Basismodell für Trigger des Zeitplans. Ja
└– Typ Trigger-Typ Typ des Auslösers. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Zeitplan

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json Zeitplan

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Zeitpläne – Listenausführungen

GET {endpoint}/schedules/{id}/runs?api-version=2025-11-15-preview

Listet alle geplanten Ausführungen auf.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
id Pfad Ja Schnur Kennung des Zeitplans.
x-ms-client-request-id Überschrift Nein Ein undurchsichtiger, global eindeutiger, clientgenerierter Zeichenfolgenbezeichner für die Anforderung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json PagedScheduleRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Zeitpläne – get run

GET {endpoint}/schedules/{scheduleId}/runs/{runId}?api-version=2025-11-15-preview

Rufen Sie einen Zeitplan ab, der nach id ausgeführt wird.

URI-Parameter

Name In Erforderlich Typ Description
endpoint Pfad Ja Schnur
url
Foundry Project-Endpunkt im Formular https://{ai-services-account-name}.services.ai.azure.com/api/projects/{project-name}. Wenn Sie nur ein Projekt im Foundry Hub haben oder das Standardprojekt in Ihrem Hub als Ziel festlegen möchten, verwenden Sie das Formular. https://{ai-services-account-name}.services.ai.azure.com/api/projects/_project
API-Version Anfrage Ja Schnur Die API-Version, die für diesen Vorgang verwendet werden soll.
scheduleId Pfad Ja Schnur Kennung des Zeitplans.
runId Pfad Ja Schnur Kennung der Zeitplanausführung.

Anfrage-Kopf

Name Erforderlich Typ Description
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_AI_Foundry_Project_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://ai.azure.com/

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://ai.azure.com/.default

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json ScheduleRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Azure.Core.Foundation.ErrorResponse

Komponenten

A2ATool

Ein Agent, der das A2A-Protokoll implementiert.

Name Typ Description Erforderlich Default
agent_card_path Schnur Der Pfad zur Agentenkarte relativ zu .base_url
Wenn nicht angegeben, wird standardmäßig /.well-known/agent-card.json
Nein
base_url Schnur Basis-URL des Agenten. Nein
project_connection_id Schnur Die Verbindungs-ID im Projekt für den A2A-Server.
In der Verbindung werden die Authentifizierung und andere Verbindungsdetails gespeichert, die für die Verbindung mit dem A2A-Server erforderlich sind.
Nein
type enum Der Typ des Tools. Immer a2a.
Möglicher Wert: a2a_preview
Ja

AISearchIndexResource

Eine AI Search Index-Ressource.

Name Typ Description Erforderlich Default
Filter Schnur Filterzeichenfolge für Suchressource. Weitere Informationen finden Sie hier. Nein
index_asset_id Schnur Indizieren Sie die Asset-ID für die Suchressource. Nein
index_name Schnur Der Name eines Indexes in einer indexResource, die diesem Agent zugeordnet ist. Nein
project_connection_id Schnur Eine Indexverbindungs-ID in einer IndexResource, die an diesen Agent angefügt ist. Nein
Abfrage_typ Objekt Verfügbare Abfragetypen für das Azure AI Search-Tool. Nein
top_k Integer Die Anzahl der Dokumente, die aus der Suche abgerufen und dem Modell präsentiert werden sollen. Nein

AgentClusterInsightResult

Erkenntnisse aus der Agent-Cluster-Analyse.

Name Typ Description Erforderlich Default
clusterInsight ClusterInsightResult Erkenntnisse aus der Clusteranalyse. Ja
type enum Die Art der Erkenntnisse, die sich daraus ergeben.
Möglicher Wert: AgentClusterInsight
Ja

AgentClusterInsightsRequest

Einblicke in die Ergebnisse der Agentenbewertung

Name Typ Description Erforderlich Default
Name des Agenten. Schnur Kennung für den Agenten. Ja
modelKonfiguration Objekt Konfiguration des Modells, das bei der Generierung von Erkenntnissen verwendet wird. Nein
└– modelDeploymentName Schnur Die Modellbereitstellung, die ausgewertet werden soll. Akzeptiert entweder den Bereitstellungsnamen allein oder mit dem Verbindungsnamen als {connectionName}/<modelDeploymentName>. Nein
type enum Der Anforderungstyp.
Möglicher Wert: AgentClusterInsight
Ja

AgentContainerObject

Die Details des Containers einer bestimmten Version eines Agents.

Name Typ Description Erforderlich Default
erstellt_am Schnur Die Erstellungszeit des Containers. Ja
error_message Schnur Die Fehlermeldung, wenn der Container nicht ausgeführt werden konnte, falls vorhanden. Nein
max_replicas Integer Die maximale Anzahl von Replikaten für den Container. Der Standardwert ist 1. Nein
min_replicas Integer Die Mindestanzahl der Replikate für den Container. Der Standardwert ist 1. Nein
Objekt enum Der Objekttyp, der immer "agent.container" ist.
Möglicher Wert: agent.container
Ja
status Objekt Status des Containers einer bestimmten Version eines Agents. Ja
updated_at Schnur Der Zeitpunkt der letzten Aktualisierung des Containers. Ja

AgentContainerOperationError

Die Fehlerdetails des Containervorgangs, falls vorhanden.

Name Typ Description Erforderlich Default
Code Schnur Der Fehlercode des Containervorgangs( falls vorhanden). Ja
Nachricht Schnur Die Fehlermeldung des Containervorgangs, falls vorhanden. Ja
type Schnur Der Fehlertyp des Containervorgangs, falls vorhanden. Ja

AgentContainerOperationObject

Der Containervorgang für eine bestimmte Version eines Agents.

Name Typ Description Erforderlich Default
agent_id Schnur Die ID der Momentaufnahme. Ja
agent_version_id Schnur Die ID der Agentversion. Ja
container Objekt Die Details des Containers einer bestimmten Version eines Agents. Nein
└– created_at Schnur Die Erstellungszeit des Containers. Nein
└– error_message Schnur Die Fehlermeldung, wenn der Container nicht ausgeführt werden konnte, falls vorhanden. Nein
└– max_replicas Integer Die maximale Anzahl von Replikaten für den Container. Der Standardwert ist 1. Nein
└– min_replicas Integer Die Mindestanzahl der Replikate für den Container. Der Standardwert ist 1. Nein
└- Objekt enum Der Objekttyp, der immer "agent.container" ist.
Möglicher Wert: agent.container
Nein
└─ Status AgentContainerStatus Der Status des Containers einer bestimmten Version eines Agents. Nein
└– updated_at Schnur Der Zeitpunkt der letzten Aktualisierung des Containers. Nein
Fehler Objekt Die Fehlerdetails des Containervorgangs, falls vorhanden. Nein
└– Code Schnur Der Fehlercode des Containervorgangs( falls vorhanden). Nein
└– Nachricht Schnur Die Fehlermeldung des Containervorgangs, falls vorhanden. Nein
└– Typ Schnur Der Fehlertyp des Containervorgangs, falls vorhanden. Nein
id Schnur Die ID des Containervorgangs. Diese ID ist eindeutiger Bezeichner im gesamten System. Ja
status Objekt Status des Containervorgangs für eine bestimmte Version eines Agents. Ja

AgentContainerOperationStatus

Status des Containervorgangs für eine bestimmte Version eines Agents.

Eigentum Wert
Beschreibung Status des Containervorgangs für eine bestimmte Version eines Agents.
Typ Schnur
Werte NotStarted
InProgress
Succeeded
Failed

AgentContainerStatus

Status des Containers einer bestimmten Version eines Agents.

Eigentum Wert
Beschreibung Status des Containers einer bestimmten Version eines Agents.
Typ Schnur
Werte Starting
Running
Stopping
Stopped
Failed
Deleting
Deleted
Updating

AgentDefinition

Diskriminator für AgentDefinition

Diese Komponente verwendet die Eigenschaft kind , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
workflow WorkflowAgentDefinition
hosted HostedAgentDefinition
container_app ContainerAppAgentDefinition
prompt PromptAgentDefinition
Name Typ Description Erforderlich Default
freundlich AgentKind Ja
rai_config Objekt Konfiguration für die Inhaltsfilterung und Sicherheitsfunktionen von Responsible AI (RAI). Nein
└– rai_policy_name Schnur Der Name der anzuwendenden RAI-Richtlinie. Nein

AgentId

Name Typ Description Erforderlich Default
Name Schnur Der Name des Agents. Ja
type enum
Möglicher Wert: agent_id
Ja
version Schnur Der Versionsbezeichner des Agents. Ja

AgentKind

Eigentum Wert
Typ Schnur
Werte prompt
hosted
container_app
workflow

AgentObject

Name Typ Description Erforderlich Default
id Schnur Der eindeutige Bezeichner des Agents. Ja
Name Schnur Der Name des Agents. Ja
Objekt enum Der Objekttyp, der immer 'agent' ist.
Möglicher Wert: agent
Ja
versions Objekt Die neueste Version des Agents. Ja
└– neueste AgentVersionObject Nein

AgentProtocol

Eigentum Wert
Typ Schnur
Werte activity_protocol
responses

Agent-Referenz

Name Typ Description Erforderlich Default
Name Schnur Der Name des Agents. Ja
type enum
Möglicher Wert: agent_reference
Ja
version Schnur Der Versionsbezeichner des Agents. Nein

AgentTaxonomyInput

Eingabekonfiguration für die Auswertungstaxonomie, wenn der Eingabetyp Agent ist.

Name Typ Description Erforderlich Default
riskCategories Array Liste der Risikokategorien, anhand derer bewertet werden soll. Ja
target Objekt Stellt ein Ziel dar, das einen Azure AI-Agent angibt. Ja
└– Name Schnur Der eindeutige Bezeichner des Azure AI-Agents. Nein
└– tool_descriptions Array Die Parameter, mit denen das Sampling-Verhalten des Agenten während der Textgenerierung gesteuert wird. Nein
└– Typ enum Der Typ des Ziels, immer azure_ai_agent.
Möglicher Wert: azure_ai_agent
Nein
└– Version Schnur Die Version des Azure AI-Agents. Nein
type enum Eingabetyp der Bewertungstaxonomie.
Möglicher Wert: agent
Ja

AgentTaxonomyInputUpdate

Eingabekonfiguration für die Auswertungstaxonomie, wenn der Eingabetyp Agent ist.

Name Typ Description Erforderlich Default
riskCategories Array Liste der Risikokategorien, anhand derer bewertet werden soll. Nein
target Objekt Stellt ein Ziel dar, das einen Azure AI-Agent angibt. Nein
└– Name Schnur Der eindeutige Bezeichner des Azure AI-Agents. Nein
└– tool_descriptions Array Die Parameter, mit denen das Sampling-Verhalten des Agenten während der Textgenerierung gesteuert wird. Nein
└– Typ enum Der Typ des Ziels, immer azure_ai_agent.
Möglicher Wert: azure_ai_agent
Nein
└– Version Schnur Die Version des Azure AI-Agents. Nein
type enum Eingabetyp der Bewertungstaxonomie.
Möglicher Wert: agent
Nein

AgentVersionObject

Name Typ Description Erforderlich Default
erstellt_am Integer Der Unix-Zeitstempel (Sekunden), zu dem der Agent erstellt wurde. Ja
Definition AgentDefinition Ja
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
id Schnur Die eindeutige Kennung der Agent-Version. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Name Schnur Der Name des Agents. Name kann zum Abrufen/Aktualisieren/Löschen des Agenten verwendet werden. Ja
Objekt enum Der Objekttyp, der immer 'agent.version' ist.
Möglicher Wert: agent.version
Ja
version Schnur Der Versionsbezeichner des Agents. Agenten sind unveränderlich und jedes Update erstellt eine neue Version, wobei der Name unverändert bleibt. Ja

AgenticIdentityCredentials

Definition der Anmeldeinformationen für die Agentenidentität

Name Typ Description Erforderlich Default
type enum Der Anmeldeinformationstyp
Möglicher Wert: AgenticIdentityToken
Ja

ApiErrorResponse

Fehlerantwort bei API-Fehlern.

Name Typ Description Erforderlich Default
Fehler OpenAI.Error Ja

ApiKeyCredentials

Definition der API-Schlüsselanmeldeinformationen

Name Typ Description Erforderlich Default
Schlüssel Schnur API-Schlüssel Nein
type enum Der Anmeldeinformationstyp
Möglicher Wert: ApiKey
Ja

AssetCredentialResponse

Stellt einen Verweis auf ein Blob für die Nutzung dar

Name Typ Description Erforderlich Default
blobReference Objekt Details zum Blobverweis. Ja
└– blobUri Schnur Blob-URI-Pfad für den Client zum Hochladen von Daten. Beispiel: https://blob.windows.core.net/Container/Path Nein
└– Anmeldeinformationen SasCredential Anmeldeinformationen für den Zugriff auf das Speicherkonto. Nein
└– storageAccountArmId Schnur ARM-ID des zu verwendenden Speicherkontos. Nein

AssetId

Bezeichner einer gespeicherten Ressource.

Typ: string

AttackStrategy

Strategien für Angriffe.

Eigentum Wert
Beschreibung Strategien für Angriffe.
Typ Schnur
Werte easy
moderate
difficult
ascii_art
ascii_smuggler
atbash
base64
binary
caesar
character_space
jailbreak
ansii_attack
character_swap
suffix_append
string_join
unicode_confusable
unicode_substitution
diacritic
flip
leetspeak
rot13
morse
url
baseline
indirect_jailbreak
tense
multi_turn
crescendo

Azure.Core.Foundation.Error

Das Fehlerobjekt.

Name Typ Description Erforderlich Default
Code Schnur Eine serverdefinierte Gruppe von Fehlercodes. Ja
details Array Ein Array von Details zu bestimmten Fehlern, die zu diesem gemeldeten Fehler geführt haben. Nein
innererror Objekt Ein Objekt, das spezifischere Informationen zum Fehler enthält. Gemäß den Richtlinien der Azure-REST-API: . https://aka.ms/AzureRestApiGuidelines#handling-errors Nein
└– Code Schnur Eine serverdefinierte Gruppe von Fehlercodes. Nein
└– innerer Fehler Azure.Core.Foundation.InnerError Innerer Fehler. Nein
Nachricht Schnur Eine lesbare Darstellung des Fehlers. Ja
target Schnur Das Ziel des Fehlers. Nein

Azure.Core.Foundation.ErrorResponse

Eine Antwort, die Fehlerdetails enthält.

Name Typ Description Erforderlich Default
Fehler Objekt Das Fehlerobjekt. Ja
└– Code Schnur Eine serverdefinierte Gruppe von Fehlercodes. Nein
└– Einzelheiten Array Ein Array von Details zu bestimmten Fehlern, die zu diesem gemeldeten Fehler geführt haben. Nein
└– innerer Fehler Azure.Core.Foundation.InnerError Ein Objekt, das spezifischere Informationen enthält als das aktuelle Objekt über den Fehler. Nein
└– Nachricht Schnur Eine lesbare Darstellung des Fehlers. Nein
└- Ziel Schnur Das Ziel des Fehlers. Nein

Azure.Core.Foundation.InnerError

Ein Objekt, das spezifischere Informationen zum Fehler enthält. Gemäß den Richtlinien der Azure-REST-API: . https://aka.ms/AzureRestApiGuidelines#handling-errors

Name Typ Description Erforderlich Default
Code Schnur Eine serverdefinierte Gruppe von Fehlercodes. Nein
innererror Objekt Ein Objekt, das spezifischere Informationen zum Fehler enthält. Gemäß den Richtlinien der Azure-REST-API: . https://aka.ms/AzureRestApiGuidelines#handling-errors Nein
└– Code Schnur Eine serverdefinierte Gruppe von Fehlercodes. Nein
└– innerer Fehler Azure.Core.Foundation.InnerError Innerer Fehler. Nein

Azure.Core.Foundation.OperationState

Enumeration, die zulässige Betriebszustände beschreibt.

Eigentum Wert
Typ Schnur
Werte NotStarted
Running
Succeeded
Failed
Canceled

Azure.Core.uuid

Universell eindeutige Kennung

Typ: string

Format: uuid

AzureAIAgentTarget

Stellt ein Ziel dar, das einen Azure AI-Agent angibt.

Name Typ Description Erforderlich Default
Name Schnur Der eindeutige Bezeichner des Azure AI-Agents. Ja
tool_descriptions Array Die Parameter, mit denen das Sampling-Verhalten des Agenten während der Textgenerierung gesteuert wird. Nein
type enum Der Typ des Ziels, immer azure_ai_agent.
Möglicher Wert: azure_ai_agent
Ja
version Schnur Die Version des Azure AI-Agents. Nein

AzureAIAgentTargetUpdate

Stellt ein Ziel dar, das einen Azure AI-Agent angibt.

Name Typ Description Erforderlich Default
Name Schnur Der eindeutige Bezeichner des Azure AI-Agents. Nein
tool_descriptions Array Die Parameter, mit denen das Sampling-Verhalten des Agenten während der Textgenerierung gesteuert wird. Nein
type enum Der Typ des Ziels, immer azure_ai_agent.
Möglicher Wert: azure_ai_agent
Nein
version Schnur Die Version des Azure AI-Agents. Nein

AzureAIAssistantTarget

Stellt ein Ziel dar, das einen Azure AI Assistant (Agent V1)-Endpunkt einschließlich seiner ID angibt.

Name Typ Description Erforderlich Default
id Schnur Der eindeutige Bezeichner des Azure AI-Assistenten. Nein
tool_descriptions Array Die Beschreibungen der Tools, die dem Assistenten zur Verfügung stehen. Ja
type enum Der Typ des Ziels, immer azure_ai_assistant.
Möglicher Wert: azure_ai_assistant
Ja

AzureAIAssistantTargetUpdate

Stellt ein Ziel dar, das einen Azure AI Assistant (Agent V1)-Endpunkt einschließlich seiner ID angibt.

Name Typ Description Erforderlich Default
id Schnur Der eindeutige Bezeichner des Azure AI-Assistenten. Nein
tool_descriptions Array Die Beschreibungen der Tools, die dem Assistenten zur Verfügung stehen. Nein
type enum Der Typ des Ziels, immer azure_ai_assistant.
Möglicher Wert: azure_ai_assistant
Nein

AzureAIEvaluator

Azure AI Evaluator-Definition für Gießerei-Evaluatoren.

Name Typ Description Erforderlich Default
data_mapping Objekt Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Nein
evaluator_name Schnur Der Name des Evaluators. Ja
evaluator_version Schnur Die Version des Evaluators. Nein
initialization_parameters Objekt Die Initialisierungsparameter für die Auswertung. Muss strukturierte Ausgaben unterstützen Nein
Name Schnur Name des Bewerters (Graders) Ja
type enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: azure_ai_evaluator
Ja

AzureAIModelTarget

Stellt ein Ziel dar, das ein Azure AI-Modell für Vorgänge angibt, die eine Modellauswahl erfordern.

Name Typ Description Erforderlich Default
Modell Schnur Der eindeutige Bezeichner des Azure AI-Modells. Nein
Parameter für Stichprobennahme Objekt Stellt eine Reihe von Parametern dar, die zum Steuern des Samplingverhaltens eines Sprachmodells während der Textgenerierung verwendet werden. Nein
└– max_completion_tokens Integer Die maximale Anzahl von Token, die im Abschluss zulässig sind. Nein
└- Samen Integer Der zufällige Samen zur Reproduzierbarkeit. Nein
└– Temperatur number Der Temperaturparameter für die Probenahme. Nein
└– top_p number Der Top-p-Parameter für die Kernsampling. Nein
type enum Der Typ des Ziels, immer azure_ai_model.
Möglicher Wert: azure_ai_model
Ja

AzureAIModelTargetUpdate

Stellt ein Ziel dar, das ein Azure AI-Modell für Vorgänge angibt, die eine Modellauswahl erfordern.

Name Typ Description Erforderlich Default
Modell Schnur Der eindeutige Bezeichner des Azure AI-Modells. Nein
Parameter für Stichprobennahme Objekt Stellt eine Reihe von Parametern dar, die zum Steuern des Samplingverhaltens eines Sprachmodells während der Textgenerierung verwendet werden. Nein
└– max_completion_tokens Integer Die maximale Anzahl von Token, die im Abschluss zulässig sind. Nein
└- Samen Integer Der zufällige Samen zur Reproduzierbarkeit. Nein
└– Temperatur number Der Temperaturparameter für die Probenahme. Nein
└– top_p number Der Top-p-Parameter für die Kernsampling. Nein
type enum Der Typ des Ziels, immer azure_ai_model.
Möglicher Wert: azure_ai_model
Nein

AzureAIRedTeam

Name Typ Description Erforderlich Default
item_generation_params Objekt Stellt die Parameter für die Generierung roter Teamelemente dar. Ja
└– attack_strategies Array Die Sammlung der zu verwendenden Angriffsstrategien. Nein
└– num_turns Integer Die Anzahl der im Spiel zulässigen Wendungen. Nein
└– Typ enum Der Typ der Elementgenerierungsparameter, immer red_team.
Möglicher Wert: red_team
Nein
target Objekt Basisklasse für Ziele mit Diskriminatorunterstützung. Ja
└– Typ Schnur Der Zieltyp. Nein
type enum Der Typ der Datenquelle. Immer azure_ai_red_team.
Möglicher Wert: azure_ai_red_team
Ja

AzureAIResponses

Stellt eine Datenquelle für Auswertungsläufe dar, die für Fortlaufende Auswertungsszenarien spezifisch sind.

Name Typ Description Erforderlich Default
event_configuration_id Schnur Der Ereigniskonfigurationsname, der dieser Auswertungsausführung zugeordnet ist. Ja
item_generation_params Objekt Stellt die Parameter für die Generierung von fortlaufenden Auswertungselementen dar. Ja
└– data_mapping Objekt Zuordnung von Quellfeldern zu response_id Feld, erforderlich zum Abrufen des Chatverlaufs. Nein
└– max_num_turns Integer Die maximale Anzahl der zu bewertenden Chatverlaufszahlen. Nein
└- Quelle OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource Die Quelle, aus der JSONL-Inhalte gelesen werden. Nein
└– Typ enum Der Typ der Elementgenerierungsparameter, immer ResponseRetrieval.
Möglicher Wert: response_retrieval
Nein
max_runs_hourly Integer Maximal zulässige Anzahl von Evaluierungsläufen pro Stunde. Ja
type enum Der Typ der Datenquelle, immer AzureAIResponses.
Möglicher Wert: azure_ai_responses
Ja

AzureAISearchAgentTool

Die Eingabedefinitionsinformationen für ein Azure AI-Suchtool, das zum Konfigurieren eines Agents verwendet wird.

Name Typ Description Erforderlich Default
azure_ai_search Objekt Eine Reihe von Indexressourcen, die vom tool azure_ai_search verwendet werden. Ja
└- Indizes Array Die an diesen Agent angefügten Indizes. Es kann maximal 1 Index geben.
an den Agent angefügte Ressource.
Nein
type enum Der Objekttyp, der immer 'azure_ai_search' ist.
Möglicher Wert: azure_ai_search
Ja

Azure-AI-Suchindex

Definition des Azure AI Search-Indexes

Name Typ Description Erforderlich Default
type enum Art des Index
Möglicher Wert: AzureSearch
Ja

AzureAISearchIndexUpdate

Definition des Azure AI Search-Indexes

Name Typ Description Erforderlich Default
type enum Art des Index
Möglicher Wert: AzureSearch
Ja

AzureAISearchQueryType

Verfügbare Abfragetypen für das Azure AI Search-Tool.

Eigentum Wert
Beschreibung Verfügbare Abfragetypen für das Azure AI Search-Tool.
Typ Schnur
Werte simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

AzureAISearchToolResource

Eine Reihe von Indexressourcen, die vom tool azure_ai_search verwendet werden.

Name Typ Description Erforderlich Default
indexe Array Die an diesen Agent angefügten Indizes. Es kann maximal 1 Index geben.
an den Agent angefügte Ressource.
Ja

AzureAISource

Name Typ Description Erforderlich Default
Szenario enum Datenschemaszenario.
Mögliche Werte: red_team, , responsestraces
Ja
type enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: azure_ai_source
Ja

AzureFunctionAgentTool

Die Eingabedefinitionsinformationen für ein Azure-Funktionstool, wie sie zum Konfigurieren eines Agents verwendet werden.

Name Typ Description Erforderlich Default
azure_function Objekt Die Definition der Azure-Funktion. Ja
└- Funktion Objekt Die Definition der Azure-Funktion und deren Parameter. Nein
└– Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
└– Name Schnur Der Name der funktion, die aufgerufen werden soll. Nein
└- Parameter Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Nein
└– input_binding AzureFunctionBinding Eingabespeicherwarteschlange. Der Warteschlangenspeichertrigger führt eine Funktion aus, wenn Meldungen hinzugefügt werden. Nein
└– output_binding AzureFunctionBinding Ausgabespeicherwarteschlange. Die Funktion schreibt die Ausgabe in diese Warteschlange, wenn die Eingabeelemente verarbeitet werden. Nein
type enum Der Objekttyp, der immer 'browser_automation' ist.
Möglicher Wert: azure_function
Ja

AzureFunctionBinding

Die Struktur zum Beibehalten des Namens und des URI der Speicherwarteschlange.

Name Typ Description Erforderlich Default
storage_queue Objekt Die Struktur zum Beibehalten des Namens und des URI der Speicherwarteschlange. Ja
└– queue_name Schnur Der Name einer Azure-Funktionsspeicherwarteschlange. Nein
└– queue_service_endpoint Schnur URI für den Azure Storage Queue-Dienst, mit dem Sie eine Warteschlange bearbeiten können. Nein
type enum Der Bindungstyp, der immer "storage_queue" ist.
Möglicher Wert: storage_queue
Ja

AzureFunctionDefinition

Die Definition der Azure-Funktion.

Name Typ Description Erforderlich Default
Funktion Objekt Die Definition der Azure-Funktion und deren Parameter. Ja
└– Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
└– Name Schnur Der Name der funktion, die aufgerufen werden soll. Nein
└- Parameter Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Nein
input_binding Objekt Die Struktur zum Beibehalten des Namens und des URI der Speicherwarteschlange. Ja
└– storage_queue AzureFunctionStorageQueue Speicherwarteschlange. Nein
└– Typ enum Der Bindungstyp, der immer "storage_queue" ist.
Möglicher Wert: storage_queue
Nein
output_binding Objekt Die Struktur zum Beibehalten des Namens und des URI der Speicherwarteschlange. Ja
└– storage_queue AzureFunctionStorageQueue Speicherwarteschlange. Nein
└– Typ enum Der Bindungstyp, der immer "storage_queue" ist.
Möglicher Wert: storage_queue
Nein

AzureFunctionStorageQueue

Die Struktur zum Beibehalten des Namens und des URI der Speicherwarteschlange.

Name Typ Description Erforderlich Default
queue_name Schnur Der Name einer Azure-Funktionsspeicherwarteschlange. Ja
queue_service_endpoint Schnur URI für den Azure Storage Queue-Dienst, mit dem Sie eine Warteschlange bearbeiten können. Ja

AzureOpenAIModelConfiguration

Konfiguration des Azure OpenAI-Modells. Die API-Version wird vom Dienst für die Abfrage des Modells ausgewählt.

Name Typ Description Erforderlich Default
modelDeploymentName Schnur Bereitstellungsname für das AOAI-Modell. Beispiel: gpt-4o, wenn in AIServices oder verbindungsbasiert connection_name/deployment_name (z.B. my-aoai-connection/gpt-4o). Ja
type enum
Möglicher Wert: AzureOpenAIModel
Ja

BaseCredentials

Eine Basisklasse für Verbindungsanmeldeinformationen

Diskriminator für BaseCredentials

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
ApiKey ApiKeyCredentials
AAD EntraIDCredentials
CustomKeys CustomCredential
SAS SASCredentials
None NoAuthenticationCredentials
AgenticIdentityToken AgenticIdentityCredentials
Name Typ Description Erforderlich Default
type Objekt Der von der Verbindung verwendete Anmeldeinformationstyp Ja

BingCustomSearchAgentTool

Die Eingabedefinitionsinformationen für ein benutzerdefiniertes Bing-Suchtool, die zum Konfigurieren eines Agents verwendet werden.

Name Typ Description Erforderlich Default
bing_custom_search_preview Objekt Die Parameter des benutzerdefinierten Bing-Suchwerkzeugs. Ja
└– search_configurations Array Die Projektverbindungen, die an dieses Werkzeug angehängt sind. Es kann maximal 1 Verbindung bestehen.
an das Tool angefügte Ressource.
Nein
type enum Der Objekttyp, der immer 'bing_custom_search' ist.
Möglicher Wert: bing_custom_search_preview
Ja

BingCustomSearchConfiguration

Eine benutzerdefinierte Bing-Suchkonfiguration.

Name Typ Description Erforderlich Default
zählen Integer Die Anzahl der Suchergebnisse, die in der Bing-API-Antwort zurückgegeben werden sollen Nein
freshness Schnur Filtern Sie die Suchergebnisse nach einem bestimmten Zeitraum. Akzeptierte Werte finden Sie hier. Nein
instance_name Schnur Name der benutzerdefinierten Konfigurationsinstanz, die für die Konfiguration angegeben wird. Ja
Markt Schnur Der Markt, aus dem die Ergebnisse stammen. Nein
project_connection_id Schnur Projektverbindungs-ID für die Erdung mit bing search Ja
set_lang Schnur Die Sprache, die für Zeichenfolgen der Benutzeroberfläche beim Aufrufen der Bing-API verwendet werden soll. Nein

BingCustomSearchToolParameters

Die Parameter des benutzerdefinierten Bing-Suchwerkzeugs.

Name Typ Description Erforderlich Default
search_configurations Array Die Projektverbindungen, die an dieses Werkzeug angehängt sind. Es kann maximal 1 Verbindung bestehen.
an das Tool angefügte Ressource.
Ja

BingGroundingAgentTool

Die Eingabedefinitionsinformationen für ein Bing-Grounding-Suchtool, wie zum Konfigurieren eines Agents verwendet.

Name Typ Description Erforderlich Default
bing_grounding Objekt Die Parameter des Suchwerkzeugs für die Bing-Erdung. Ja
└– search_configurations Array Die Suchkonfigurationen, die an dieses Tool angehängt sind. Es kann maximal 1 sein.
Die mit dem Tool verknüpfte Suchkonfigurationsressource.
Nein
type enum Der Objekttyp, der immer "bing_grounding" ist.
Möglicher Wert: bing_grounding
Ja

BingGroundingSearchConfiguration

Suchkonfiguration für Bing-Erdung

Name Typ Description Erforderlich Default
zählen Integer Die Anzahl der Suchergebnisse, die in der Bing-API-Antwort zurückgegeben werden sollen Nein
freshness Schnur Filtern Sie die Suchergebnisse nach einem bestimmten Zeitraum. Akzeptierte Werte finden Sie hier. Nein
Markt Schnur Der Markt, aus dem die Ergebnisse stammen. Nein
project_connection_id Schnur Projektverbindungs-ID für die Erdung mit bing search Ja
set_lang Schnur Die Sprache, die für Zeichenfolgen der Benutzeroberfläche beim Aufrufen der Bing-API verwendet werden soll. Nein

BingGroundingSearchToolParameters

Die Parameter des Suchwerkzeugs für die Bing-Erdung.

Name Typ Description Erforderlich Default
search_configurations Array Die Suchkonfigurationen, die an dieses Tool angehängt sind. Es kann maximal 1 sein.
Die mit dem Tool verknüpfte Suchkonfigurationsressource.
Ja

BlobReference

Details zum Blobverweis.

Name Typ Description Erforderlich Default
blobUri Schnur Blob-URI-Pfad für den Client zum Hochladen von Daten. Beispiel: https://blob.windows.core.net/Container/Path Ja
Zugangsdaten Objekt Definition der SAS-Anmeldeinformationen Ja
└– sasUri Schnur SAS-URI Nein
└– Typ enum Art der Anmeldeinformationen
Möglicher Wert: SAS
Nein
storageAccountArmId Schnur ARM-ID des zu verwendenden Speicherkontos. Ja

BrowserAutomationAgentTool

Die Eingabedefinitionsinformationen für ein Browser-Automatisierungstool, wie sie zum Konfigurieren eines Agenten verwendet werden.

Name Typ Description Erforderlich Default
browser_automation_preview Objekt Definition von Eingabeparametern für das Browser Automation Tool. Ja
└- Verbindung BrowserAutomationToolConnectionParameters Die Projektverbindungsparameter, die mit dem Browser Automation Tool verknüpft sind. Nein
type enum Der Objekttyp, der immer 'browser_automation' ist.
Möglicher Wert: browser_automation_preview
Ja

BrowserAutomationToolConnectionParameters

Definition der Eingabeparameter für die Verbindung, die vom Browser Automation Tool verwendet wird.

Name Typ Description Erforderlich Default
project_connection_id Schnur Die ID der Projektverbindung mit Ihrer Azure Playwright-Ressource. Ja

BrowserAutomationToolParameters

Definition von Eingabeparametern für das Browser Automation Tool.

Name Typ Description Erforderlich Default
connection Objekt Definition der Eingabeparameter für die Verbindung, die vom Browser Automation Tool verwendet wird. Ja
└– project_connection_id Schnur Die ID der Projektverbindung mit Ihrer Azure Playwright-Ressource. Nein

CaptureStructuredOutputsTool

Ein Tool zum Erfassen strukturierter Ausgaben

Name Typ Description Erforderlich Default
Ergebnisse Objekt Eine strukturierte Ausgabe, die vom Agenten erzeugt werden kann. Ja
└– Beschreibung Schnur Eine Beschreibung der auszugebenden Ausgabe. Wird vom Modell verwendet, um zu bestimmen, wann die Ausgabe ausgegeben werden soll. Nein
└– Name Schnur Der Name der strukturierten Ausgabe. Nein
└- Schema Das JSON-Schema für die strukturierte Ausgabe. Nein
└– streng boolean Gibt an, ob eine strenge Validierung erzwungen werden soll. Standard-true. Nein
type enum Der Typ des Tools. Immer capture_structured_outputs.
Möglicher Wert: capture_structured_outputs
Ja

ChartCoordinate

Koordinaten für das Analysediagramm.

Name Typ Description Erforderlich Default
Größe Integer Größe des Diagrammelements. Ja
x Integer Koordinate der X-Achse. Ja
y Integer Koordinate der Y-Achse. Ja

ChatSummaryMemoryItem

Ein Speicherelement, das eine Zusammenfassung enthält, die aus Unterhaltungen extrahiert wurde.

Name Typ Description Erforderlich Default
freundlich enum Die Art des Erinnerungselements.
Möglicher Wert: chat_summary
Ja

ClusterInsightResult

Erkenntnisse aus der Clusteranalyse.

Name Typ Description Erforderlich Default
clusters Array Liste der Cluster, die in den Erkenntnissen identifiziert wurden. Ja
Koordinaten Objekt Optionale Zuordnung von IDs zu 2D-Koordinaten, die von der UX zur Visualisierung verwendet werden.

Bei den Zuordnungsschlüsseln handelt es sich um Zeichenfolgenbezeichner (z. B. eine Cluster-ID oder eine Beispiel-ID)
und die Werte sind die Koordinaten und die visuelle Größe für das Rendern in einem 2D-Diagramm.

Diese Eigenschaft wird nicht angegeben, es sei denn, die Clientanforderungen koordinieren (z. B.
durch Übergeben includeCoordinates=true als Abfrageparameter).

Beispiel:
<br> {<br> "cluster-1": { "x": 12, "y": 34, "size": 8 },<br> "sample-123": { "x": 18, "y": 22, "size": 4 }<br> }<br>

Koordinaten sind nur für die clientseitige Visualisierung vorgesehen und nicht
ändern Sie die kanonischen Insights-Ergebnisse.
Nein
summary Objekt Zusammenfassung der Fehlerclusteranalyse. Ja
└- Methode Schnur Für das Clustering verwendete Methode. Nein
└– sampleCount Integer Gesamtzahl der analysierten Proben. Nein
└– uniqueClusterCount Integer Gesamtanzahl eindeutiger Cluster. Nein
└– uniqueSubclusterCount Integer Gesamtanzahl eindeutiger Subcluster-Beschriftungen. Nein
└– Nutzung ClusterTokenUsage Token-Nutzung beim Durchführen von Clustering-Analysen Nein

ClusterTokenUsage

Token-Nutzung für die Cluster-Analyse

Name Typ Description Erforderlich Default
inputTokenUsage Integer Verwendung des Eingabe-Tokens Ja
outputTokenUsage Integer Verwendung des Ausgabetokens Ja
totalTokenUsage Integer Gesamte Token-Nutzung Ja

CodeBasedEvaluatorDefinition

Codebasierte Evaluatordefinition mit Python-Code

Name Typ Description Erforderlich Default
code_text Schnur Inline-Codetext für den Evaluator Ja
type enum
Möglicher Wert: code
Ja

Verbindung

Antwort aus der Liste und Vorgänge zum Abrufen von Verbindungen

Name Typ Description Erforderlich Default
Zugangsdaten Objekt Eine Basisklasse für Verbindungsanmeldeinformationen Ja
└– Typ CredentialType Der Typ der Anmeldeinformationen, die von der Verbindung verwendet werden Nein
id Schnur Ein eindeutiger Bezeichner für die Verbindung, der vom Dienst generiert wird Ja
isDefault boolean Gibt an, ob die Verbindung als Standardverbindung ihres Typs gekennzeichnet ist Ja
metadata Objekt Metadaten der Verbindung Ja
Name Schnur Der Anzeigename der Verbindung, der vom Benutzer bereitgestellt wird. Ja
target Schnur Die für diesen Dienst zu verwendende Verbindungs-URL Ja
type Objekt Der Typ (oder die Kategorie) der Verbindung Ja

Verbindungstyp

Der Typ (oder die Kategorie) der Verbindung

Eigentum Wert
Beschreibung Der Typ (oder die Kategorie) der Verbindung
Typ Schnur
Werte AzureOpenAI
AzureBlob
AzureStorageAccount
CognitiveSearch
CosmosDB
ApiKey
AppConfig
AppInsights
CustomKeys
RemoteTool

ContainerAppAgentDefinition

Die Definition des Container-App-Agents.

Name Typ Description Erforderlich Default
container_app_resource_id Schnur Die Ressourcen-ID der Azure Container App, die diesen Agent hostet. Nicht versionsübergreifend veränderbar. Ja
container_protocol_versions Array Die Protokolle, die der Agent für die Eingangskommunikation der Container unterstützt. Ja
ingress_subdomain_suffix Schnur Das Suffix, das auf die App-Subdomäne angewendet werden soll, wenn eingehender Datenverkehr an den Agent gesendet wird. Dabei kann es sich um eine Beschriftung (z. B. "---aktuell"), eine bestimmte Revision (z. B. "--0000001") oder eine leere Bezeichnung handeln, um den Standardendpunkt für die Container-App zu verwenden. Ja
freundlich enum
Möglicher Wert: container_app
Ja

ContinuousEvalItemGenerationParams

Stellt die Parameter für die Generierung von fortlaufenden Auswertungselementen dar.

Name Typ Description Erforderlich Default
data_mapping Objekt Zuordnung von Quellfeldern zu response_id Feld, erforderlich zum Abrufen des Chatverlaufs. Ja
max_num_turns Integer Die maximale Anzahl der zu bewertenden Chatverlaufszahlen. Ja
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– Typ enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Nein
type enum Der Typ der Elementgenerierungsparameter, immer ResponseRetrieval.
Möglicher Wert: response_retrieval
Ja

ContinuousEvaluationRuleAction

Auswertungsregelaktion für die kontinuierliche Auswertung.

Name Typ Description Erforderlich Default
evalId Schnur Eval-ID, der kontinuierliche Auswertungsläufe hinzugefügt werden sollen. Ja
maxHourlyRuns Integer Maximal zulässige Anzahl von Evaluierungsläufen pro Stunde. Nein
type enum
Möglicher Wert: continuousEvaluation
Ja

CosmosDBIndex

Definition des CosmosDB-Vektorspeicher-Index

Name Typ Description Erforderlich Default
type enum Art des Index
Möglicher Wert: CosmosDBNoSqlVectorStore
Ja

CosmosDBIndexUpdate

Definition des CosmosDB-Vektorspeicher-Index

Name Typ Description Erforderlich Default
type enum Art des Index
Möglicher Wert: CosmosDBNoSqlVectorStore
Ja

CreateAgentFromManifestRequest

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
manifest_id Schnur Die Manifest-ID, aus der die Agentversion importiert werden soll. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Der eindeutige Name, der den Agent identifiziert. Name kann zum Abrufen/Aktualisieren/Löschen des Agenten verwendet werden.
- Muss mit alphanumerischen Zeichen beginnen und enden,
- Kann Bindestriche in der Mitte enthalten
- Darf 63 Zeichen nicht überschreiten.
Ja
parameter_values Objekt Die Eingaben in das Manifest, die zu einem vollständig materialisierten Agent führen. Ja

CreateAgentRequest

Name Typ Description Erforderlich Default
Definition Objekt Ja
└– Art AgentKind Nein
└- rai_config RaiConfig Konfiguration für die Inhaltsfilterung und Sicherheitsfunktionen von Responsible AI (RAI). Nein
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Der eindeutige Name, der den Agent identifiziert. Name kann zum Abrufen/Aktualisieren/Löschen des Agenten verwendet werden.
- Muss mit alphanumerischen Zeichen beginnen und enden,
- Kann Bindestriche in der Mitte enthalten
- Darf 63 Zeichen nicht überschreiten.
Ja

CreateAgentVersionFromManifestRequest

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
manifest_id Schnur Die Manifest-ID, aus der die Agentversion importiert werden soll. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
parameter_values Objekt Die Eingaben in das Manifest, die zu einem vollständig materialisierten Agent führen. Ja

CreateAgentVersionRequest

Name Typ Description Erforderlich Default
Definition Objekt Ja
└– Art AgentKind Nein
└- rai_config RaiConfig Konfiguration für die Inhaltsfilterung und Sicherheitsfunktionen von Responsible AI (RAI). Nein
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

ErstelleBewertungsAnfrage

Name Typ Description Erforderlich Default
Datenquellenkonfiguration Objekt Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird.
Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
– Welche Daten beim Erstellen einer Ausführung erforderlich sind
Ja
└– include_sample_schema boolean Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) Nein
└– item_schema Objekt Das JSON-Schema für jede Zeile in der Datenquelle. Nein
└- Metadaten Objekt Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. Nein
└– Szenario enum Datenschemaszenario.
Mögliche Werte: red_team, , responsestraces
Nein
└– Typ enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: azure_ai_source
Nein
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Der Name der Auswertung. Nein
properties Objekt Satz unveränderlicher 16 Schlüsselwertpaare, die an ein Objekt angefügt werden können, um zusätzliche Informationen zu speichern.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Testkriterien Array Liste der Bewerter (Grader) für alle Auswertungsausführungen in dieser Gruppe Bewerter können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z. B. {{item.variable_name}}. Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den Namespace sample (d.h. {{sample.output_text}}). Ja

CreateEvalRunRequest

Name Typ Description Erforderlich Default
Datenquelle Objekt Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht. Ja
└– input_messages OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate oder OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference Wird beim Sampling aus einem Modell verwendet. Bestimmt die Struktur der Nachrichten, die an das Modell übergeben werden. Kann entweder ein Verweis auf eine vordefinierte Flugbahn (ie, item.input_trajectory) oder eine Vorlage mit variablen Verweisen auf den item Namespace sein. Nein
└– item_generation_params RedTeamItemGenerationParams Die Parameter für die Elementgenerierung. Nein
└─ Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
└– Stichprobenparameter OpenAI.CreateEvalResponsesRunDataSourceSamplingParams Nein
└- Quelle OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource oder OpenAI.EvalResponsesSource Bestimmt, was den Namespace in der item Datenquelle dieser Ausführung auffüllt. Nein
└- Ziel Ziel Die Zielkonfiguration für die Auswertung. Nein
└– Typ Schnur Der Diskriminator des Datenquellentyps. Nein
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Name der Ausführung Nein
properties Objekt Satz unveränderlicher 16 Schlüsselwertpaare, die an ein Objekt angefügt werden können, um zusätzliche Informationen zu speichern.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein

CreatedBy

Name Typ Description Erforderlich Default
Agent Objekt Nein
└– Name Schnur Der Name des Agents. Nein
└– Typ enum
Möglicher Wert: agent_id
Nein
└– Version Schnur Der Versionsbezeichner des Agents. Nein
response_id Schnur Die Antwort, auf der das Element erstellt wird. Nein

CredentialType

Der von der Verbindung verwendete Anmeldeinformationstyp

Eigentum Wert
Beschreibung Der von der Verbindung verwendete Anmeldeinformationstyp
Typ Schnur
Werte ApiKey
AAD
SAS
CustomKeys
None
AgenticIdentityToken

CronTrigger

Cron-basierter Trigger.

Name Typ Description Erforderlich Default
endTime Schnur Endzeit für den Cron-Zeitplan im ISO 8601-Format. Nein
expression Schnur Cron-Ausdruck, der die Häufigkeit des Zeitplans definiert. Ja
startTime Schnur Startzeit für den Cron-Zeitplan im ISO 8601-Format. Nein
timeZone Schnur Zeitzone für den Cron-Zeitplan. Nein UTC
type enum
Möglicher Wert: Cron
Ja

CustomCredential

Definition von benutzerdefinierten Anmeldeinformationen

Name Typ Description Erforderlich Default
type enum Der Anmeldeinformationstyp
Möglicher Wert: CustomKeys
Ja

DailyRecurrenceSchedule

Täglicher Wiederholungsplan.

Name Typ Description Erforderlich Default
Stunden Array Stunden für den Wiederholungszeitplan. Ja
type enum Typ der täglichen Wiederholung.
Möglicher Wert: Daily
Ja

DatasetType

Aufzählung, um den Datentyp zu bestimmen.

Eigentum Wert
Beschreibung Aufzählung, um den Datentyp zu bestimmen.
Typ Schnur
Werte uri_file
uri_folder

DatasetVersion

DatasetVersion-Definition

Diskriminator für DatasetVersion

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
uri_file FileDatasetVersion
uri_folder FolderDatasetVersion
Name Typ Description Erforderlich Default
Verbindungsname Schnur Der Verbindungsname des Azure Storage-Kontos. Erforderlich, wenn startPendingUploadVersion vor dem Erstellen des Datasets nicht aufgerufen wurde Nein
dataUri Schnur URI der Daten (Beispiel) Ja
id Schnur Asset ID, eine eindeutige Kennung für das Asset Nein
isReference boolean Gibt an, ob das Dataset einen Verweis auf den Speicher enthält oder ob das Dataset den Speicher selbst verwaltet. Bei true werden die zugrunde liegenden Daten nicht gelöscht, wenn die Datensatzversion gelöscht wird Nein
Name Schnur Der Name der Ressource Ja
type Objekt Aufzählung, um den Datentyp zu bestimmen. Ja
version Schnur Die Version der Ressource Ja

DatasetVersionUpdate

DatasetVersion-Definition

Diskriminator für DatasetVersionUpdate

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
uri_file FileDatasetVersionUpdate
uri_folder FolderDatasetVersionUpdate
Name Typ Description Erforderlich Default
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein
type Objekt Aufzählung, um den Datentyp zu bestimmen. Ja

TagVonWoche

Wochentage für den Wiederholungsplan.

Eigentum Wert
Beschreibung Wochentage für den Wiederholungsplan.
Typ Schnur
Werte Sunday
Monday
Tuesday
Wednesday
Thursday
Friday
Saturday

DeleteAgentResponse

Ein gelöschtes Agent-Objekt

Name Typ Description Erforderlich Default
gelöscht boolean Gibt an, ob der Agent erfolgreich gelöscht wurde. Ja
Name Schnur Der Name des Agents. Ja
Objekt enum Der Objekttyp. Immer 'agent.deleted'.
Möglicher Wert: agent.deleted
Ja

DeleteAgentVersionResponse

Ein gelöschter Agent Version Objekt

Name Typ Description Erforderlich Default
gelöscht boolean Gibt an, ob der Agent erfolgreich gelöscht wurde. Ja
Name Schnur Der Name des Agents. Ja
Objekt enum Der Objekttyp. Immer 'agent.deleted'.
Möglicher Wert: agent.version.deleted
Ja
version Schnur Der Versionsbezeichner des Agents. Ja

DeleteEvalResponse

Ein gelöschtes Auswertungsobjekt

Name Typ Description Erforderlich Default
gelöscht boolean Gibt an, ob die Auswertung erfolgreich gelöscht wurde. Ja
eval_id Schnur id des eval. Ja
Objekt enum Der Objekttyp. Immer 'eval.deleted'.
Möglicher Wert: eval.deleted
Ja

DeleteEvalRunResponse

Ein gelöschtes Auswertungsausführungsobjekt.

Name Typ Description Erforderlich Default
gelöscht boolean Gibt an, ob die Auswertung erfolgreich gelöscht wurde. Nein
Objekt enum Der Objekttyp. Immer 'eval.deleted'.
Möglicher Wert: eval.deleted
Nein
run_id Schnur id des eval. Nein

DeleteMemoryStoreResponse

Name Typ Description Erforderlich Default
gelöscht boolean Gibt an, ob der Arbeitsspeicher erfolgreich gelöscht wurde. Ja
Name Schnur Der Name des Speichers. Ja
Objekt enum Der Objekttyp. Immer 'memory_store.gelöscht'.
Möglicher Wert: memory_store.deleted
Ja

DeleteResponseResult

Das Ergebnis eines Löschantwortvorgangs.

Name Typ Description Erforderlich Default
gelöscht enum True immer zurückgeben
Möglicher Wert: True
Ja
id Schnur Die Vorgangs-ID. Ja
Objekt enum Gibt immer "antwort" zurück.
Möglicher Wert: response
Ja

Einsatz

Definition der Modellbereitstellung

Diskriminator für die Bereitstellung

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
ModelDeployment ModelDeployment
Name Typ Description Erforderlich Default
Name Schnur Name der Bereitstellung Ja
type Objekt Ja

DeploymentType

Eigentum Wert
Typ Schnur
Werte ModelDeployment

EntraIDCredentials

Definition der Entra ID-Anmeldeinformationen

Name Typ Description Erforderlich Default
type enum Der Anmeldeinformationstyp
Möglicher Wert: AAD
Ja

Eval

Ein Eval-Objekt mit einer Datenquellenkonfiguration und Testkriterien. Eine Eval stellt eine Aufgabe dar, die für Ihre LLM-Integration durchgeführt werden soll. Beispiel:

  • Verbessern der Qualität meines Chatbots
  • Sehen Sie, wie gut mein Chatbot den Kundensupport verarbeitet
  • Überprüfen Sie, ob o4-mini bei meinem Anwendungsfall besser ist als gpt-4o
Name Typ Description Erforderlich Default
erstellt_am Objekt Ja
created_by Schnur der Name der Person, die die Ausführung erstellt hat. Nein
Datenquellenkonfiguration Objekt Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird.
Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
– Welche Daten beim Erstellen einer Ausführung erforderlich sind
Ja
└– include_sample_schema boolean Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) Nein
└– item_schema Objekt Das JSON-Schema für jede Zeile in der Datenquelle. Nein
└- Metadaten Objekt Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. Nein
└– Szenario enum Datenschemaszenario.
Mögliche Werte: red_team, , responsestraces
Nein
└– Typ enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: azure_ai_source
Nein
id Schnur Eindeutiger Bezeichner für die Auswertung. Ja
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
modified_at Objekt Nein
Name Schnur Der Name der Auswertung. Ja
Objekt enum Der Objekttyp.
Möglicher Wert: eval
Ja
properties Objekt Satz unveränderlicher 16 Schlüsselwertpaare, die an ein Objekt angefügt werden können, um zusätzliche Informationen zu speichern.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
Testkriterien Array Eine Liste der Testkriterien. Ja

EvalCompareReport

Erkenntnisse aus dem Bewertungsvergleich.

Name Typ Description Erforderlich Default
Vergleiche Array Die Vergleichsergebnisse für jede Behandlung werden mit dem Ausgangswert verglichen. Ja
method Schnur Die statistische Methode, die für den Vergleich verwendet wird. Ja
type enum Die Art der Erkenntnisse, die sich daraus ergeben.
Möglicher Wert: EvaluationComparison
Ja

EvalResult

Ergebnis der Bewertung.

Name Typ Description Erforderlich Default
Name Schnur Name des Schecks Ja
verabschiedet boolean Gibt an, ob die Prüfung bestanden oder fehlgeschlagen ist Ja
score number score Ja
type Schnur Art der Prüfung Ja

EvalRun

Ein Schema, das eine Auswertungsausführung darstellt.

Name Typ Description Erforderlich Default
erstellt_am Objekt Ja
created_by Schnur der Name der Person, die die Ausführung erstellt hat. Nein
Datenquelle Objekt Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht. Ja
└– input_messages OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate oder OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference Wird beim Sampling aus einem Modell verwendet. Bestimmt die Struktur der Nachrichten, die an das Modell übergeben werden. Kann entweder ein Verweis auf eine vordefinierte Flugbahn (ie, item.input_trajectory) oder eine Vorlage mit variablen Verweisen auf den item Namespace sein. Nein
└– item_generation_params RedTeamItemGenerationParams Die Parameter für die Elementgenerierung. Nein
└─ Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
└– Stichprobenparameter OpenAI.CreateEvalResponsesRunDataSourceSamplingParams Nein
└- Quelle OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource oder OpenAI.EvalResponsesSource Bestimmt, was den Namespace in der item Datenquelle dieser Ausführung auffüllt. Nein
└- Ziel Ziel Die Zielkonfiguration für die Auswertung. Nein
└– Typ Schnur Der Diskriminator des Datenquellentyps. Nein
Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Ja
eval_id Schnur Bezeichner der zugeordneten Auswertung Ja
id Schnur Eindeutiger Bezeichner für die Auswertungsausführung Ja
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Modell Schnur Das Modell, das ausgewertet wird, falls zutreffend. Ja
modified_at Objekt Nein
Name Schnur Name der Auswertungsausführung Ja
Objekt enum Der Typ des Objekts. Immer „eval.run“
Möglicher Wert: eval.run
Ja
pro_Modell_Nutzung Array Nutzungsstatistiken für jedes Modell während der Auswertungsausführung. Ja
Ergebnisse_pro_Testkriterien Array Ergebnisse pro Testkriterien, die während der Auswertungsausführung angewendet werden. Ja
properties Objekt Satz unveränderlicher 16 Schlüsselwertpaare, die an ein Objekt angefügt werden können, um zusätzliche Informationen zu speichern.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein
report_url Schnur URL zum gerenderten Bericht der Auswertungsausführung im Dashboard auf der Benutzeroberfläche Ja
Ergebnisanzahl Objekt Ja
└– fehler OpenAI.integer Nein
└– fehlgeschlagen OpenAI.integer Nein
└– bestanden OpenAI.integer Nein
└– Gesamtsumme OpenAI.integer Nein
status Schnur Status der Auswertungsausführung Ja

EvalRunDataSource

Basisklasse zum Ausführen von Datenquellen mit Diskriminatorunterstützung.

Diskriminator für EvalRunDataSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
azure_ai_traces TracesEvalRunDataSource
azure_ai_responses AzureAIResponses
azure_ai_target_completions TargetCompletions
Name Typ Description Erforderlich Default
type Schnur Der Diskriminator des Datenquellentyps. Ja

EvalRunOutputItem

Ein Schema, das ein Ausgabeelement einer Auswertungsausführung darstellt.

Name Typ Description Erforderlich Default
erstellt_am Objekt Ja
Datenquellenobjekt Objekt Details zum Datenquellelement der Eingabe Ja
datasource_item_id Objekt Ja
eval_id Schnur Der Bezeichner der Auswertungsgruppe. Ja
id Schnur Eindeutiger Bezeichner für das Ausgabeelement der Auswertungsausführung Ja
Objekt enum Der Typ des Objekts. Immer „eval.run.output_item“
Möglicher Wert: eval.run.output_item
Ja
results Array Eine Liste der Bewertungsergebnisse für dieses Ausgabeelement. Ja
run_id Schnur Der Bezeichner der Auswertungsausführung, die diesem Ausgabeelement zugeordnet ist. Ja
Beispiel Objekt Ja
└– Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Nein
└- finish_reason Schnur Nein
└– Eingabe Array Nein
└– max_completion_tokens OpenAI.integer Nein
└─ Modell Schnur Nein
└─ Ausgabe Array Nein
└- Samen OpenAI.integer Nein
└– Temperatur OpenAI.numeric Nein
└– top_p OpenAI.numeric Nein
└– Nutzung OpenAI.EvalRunOutputItemSampleUsage Nein
status Schnur Status der Auswertungsausführung Ja

EvalRunOutputItemResult

Ein einzelnes Graderergebnis für ein Auswertungsausführungsausgabeelement.

Name Typ Description Erforderlich Default
label Schnur Die Bezeichnung, die der Metrik "Testkriterien" zugeordnet ist (z. B. "bestanden", "fail", "good", "bad"). Nein
metric Schnur Der Name der Metrik (z. B. "Fluency", "f1_score"). Nein
Name Schnur Name des Bewerters (Graders) Ja
verabschiedet boolean Gibt an, ob der Grader die Ausgabe als Pass betrachtet hat. Ja
properties Objekt Weitere Details zur Metrik "Testkriterien". Nein
Grund Schnur Der Grund für die Testkriterienmetrik. Nein
Beispiel Objekt Optionale Beispiel- oder Zwischendaten, die vom Grader erzeugt werden. Nein
score Objekt Ja
threshold number Der Schwellenwert, der zum Ermitteln von Bestanden/Fehlschlagen für diese Testkriterien verwendet wird, wenn er numerisch ist. Nein
type Schnur Der Gradertyp (z. B. "string-check-grader"). Nein

EvalRunResultCompareItem

Metrikvergleich für eine Behandlung mit dem Ausgangswert.

Name Typ Description Erforderlich Default
deltaEstimate number Geschätzte Differenz zwischen der Behandlung und dem Ausgangswert. Ja
pValue number p-Wert für den Behandlungseffekt. Ja
treatmentEffect Objekt Art der Behandlungswirkung. Ja
treatmentRunId Schnur Die ID des Behandlungslaufs. Ja
behandlungRunSummary Objekt Zusammenfassende Statistik einer Metrik in einem Auswertungslauf. Ja
└- Mittelwert number Durchschnittswert der Metrik im Auswertungslauf. Nein
└– runId Schnur Die ID des Auswertungslaufs. Nein
└– sampleCount Integer Anzahl der Stichproben im Auswertungslauf. Nein
└– standardDeviation number Standardabweichung der Metrik im Auswertungslauf. Nein

EvalRunResultComparison

Die Vergleichsergebnisse für die Behandlung werden mit dem Ausgangswert verglichen.

Name Typ Description Erforderlich Default
baselineRunSummary Objekt Zusammenfassende Statistik einer Metrik in einem Auswertungslauf. Ja
└- Mittelwert number Durchschnittswert der Metrik im Auswertungslauf. Nein
└– runId Schnur Die ID des Auswertungslaufs. Nein
└– sampleCount Integer Anzahl der Stichproben im Auswertungslauf. Nein
└– standardDeviation number Standardabweichung der Metrik im Auswertungslauf. Nein
compareItems Array Liste der Vergleichsergebnisse für jeden Behandlungslauf. Ja
evaluator Schnur Name des Bewerters für dieses Prüfkriterium. Ja
metric Schnur Metrik, die ausgewertet wird. Ja
testingCriteria Schnur Name der Prüfkriterien. Ja

EvalRunResultSummary

Zusammenfassende Statistik einer Metrik in einem Auswertungslauf.

Name Typ Description Erforderlich Default
Durchschnitt number Durchschnittswert der Metrik im Auswertungslauf. Ja
runId Schnur Die ID des Auswertungslaufs. Ja
sampleCount Integer Anzahl der Stichproben im Auswertungslauf. Ja
standardDeviation number Standardabweichung der Metrik im Auswertungslauf. Ja

EvaluationComparisonRequest

Anfrage zum Evaluierungsvergleich

Name Typ Description Erforderlich Default
baselineRunId Schnur Die Baselineausführungs-ID für den Vergleich. Ja
evalId Schnur Kennung für die Auswertung. Ja
treatmentRunIds Array Liste der Behandlungslauf-IDs zum Vergleich. Ja
type enum Der Anforderungstyp.
Möglicher Wert: EvaluationComparison
Ja

EvaluationResultSample

Ein Auszug aus dem Auswertungsergebnis.

Name Typ Description Erforderlich Default
evaluationResult Objekt Ergebnis der Bewertung. Ja
└– Name Schnur Name des Schecks Nein
└– bestanden boolean Gibt an, ob die Prüfung bestanden oder fehlgeschlagen ist Nein
└- Score number score Nein
└– Typ Schnur Art der Prüfung Nein
type enum Art der Stichprobe für das Auswertungsergebnis
Möglicher Wert: EvaluationResultSample
Ja

EvaluationRule (Auswertungsregel)

Modell für Auswertungsregeln.

Name Typ Description Erforderlich Default
Handlung Objekt Evaluierungs-Aktionsmodell. Ja
└– Typ EvaluationRuleActionType Art der Evaluierungsmaßnahme. Nein
Beschreibung Schnur Beschreibung für die Auswertungsregel. Nein
Anzeigename Schnur Anzeigename für die Auswertungsregel. Nein
aktiviert boolean Gibt an, ob die Auswertungsregel aktiviert ist. Der Standardwert ist "true". Ja
eventType Objekt Typ des Auswertungsregelereignisses. Ja
Filter Objekt Modell des Auswertungsfilters. Nein
└– agentName Schnur Filtern Sie nach Agent-Namen. Nein
id Schnur Eindeutiger Bezeichner für die Auswertungsregel. Ja
Systemdaten Objekt Systemmetadaten für die Auswertungsregel. Ja

EvaluationRuleAction

Evaluierungs-Aktionsmodell.

Diskriminator für EvaluationRuleAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
continuousEvaluation ContinuousEvaluationRuleAction
humanEvaluation HumanEvaluationRuleAction
Name Typ Description Erforderlich Default
type Objekt Art der Evaluierungsmaßnahme. Ja

EvaluationRuleActionType

Art der Evaluierungsmaßnahme.

Eigentum Wert
Beschreibung Art der Evaluierungsmaßnahme.
Typ Schnur
Werte continuousEvaluation
humanEvaluation

EvaluationRuleEventType

Typ des Auswertungsregelereignisses.

Eigentum Wert
Beschreibung Typ des Auswertungsregelereignisses.
Typ Schnur
Werte responseCompleted
manual

EvaluationRuleFilter

Modell des Auswertungsfilters.

Name Typ Description Erforderlich Default
Name des Agenten. Schnur Filtern Sie nach Agent-Namen. Ja

EvaluationRunClusterInsightResult

Erkenntnisse aus der Cluster-Analyse des Evaluierungslaufs.

Name Typ Description Erforderlich Default
clusterInsight ClusterInsightResult Erkenntnisse aus der Clusteranalyse. Ja
type enum Die Art der Erkenntnisse, die sich daraus ergeben.
Möglicher Wert: EvaluationRunClusterInsight
Ja

EvaluationRunClusterInsightsRequest

Einblicke in die Evaluierungsergebnisse

Name Typ Description Erforderlich Default
evalId Schnur Auswertungs-ID für die Einblicke. Ja
modelKonfiguration Objekt Konfiguration des Modells, das bei der Generierung von Erkenntnissen verwendet wird. Nein
└– modelDeploymentName Schnur Die Modellbereitstellung, die ausgewertet werden soll. Akzeptiert entweder den Bereitstellungsnamen allein oder mit dem Verbindungsnamen als {connectionName}/<modelDeploymentName>. Nein
runIds Array Liste der Auswertungslauf-IDs für die Insights. Ja
type enum Der Typ der Einblicksanforderung.
Möglicher Wert: EvaluationRunClusterInsight
Ja

EvaluationScheduleTask

Auswertungsaufgabe für den Zeitplan.

Name Typ Description Erforderlich Default
evalId Schnur Kennung der Auswertungsgruppe. Ja
evalRun Objekt Die Nutzlast des Auswertungslaufs. Ja
type enum
Möglicher Wert: Evaluation
Ja

EvaluationTaxonomy

Definition der Evaluierungstaxonomie

Name Typ Description Erforderlich Default
id Schnur Asset ID, eine eindeutige Kennung für das Asset Nein
Name Schnur Der Name der Ressource Ja
properties Objekt Zusätzliche Eigenschaften für die Auswertungstaxonomie. Nein
taxonomyCategories Array Liste der Taxonomiekategorien. Nein
taxonomyInput Objekt Eingabekonfiguration für die Auswertungstaxonomie. Ja
└– Typ EvaluationTaxonomyInputType Eingabetyp der Bewertungstaxonomie. Nein
version Schnur Die Version der Ressource Ja

EvaluationTaxonomyCreateOrUpdate

Definition der Evaluierungstaxonomie

Name Typ Description Erforderlich Default
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
properties Objekt Zusätzliche Eigenschaften für die Auswertungstaxonomie. Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein
taxonomyCategories Array Liste der Taxonomiekategorien. Nein
taxonomyInput Objekt Eingabekonfiguration für die Auswertungstaxonomie. Ja
└– Typ EvaluationTaxonomyInputType Eingabetyp der Bewertungstaxonomie. Nein

EvaluationTaxonomyInput

Eingabekonfiguration für die Auswertungstaxonomie.

Diskriminator für EvaluationTaxonomyInput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
agent AgentTaxonomyInput
Name Typ Description Erforderlich Default
type Objekt Typ der Eingabe der Auswertungstaxonomie. Ja

EvaluationTaxonomyInputType

Typ der Eingabe der Auswertungstaxonomie.

Eigentum Wert
Beschreibung Typ der Eingabe der Auswertungstaxonomie.
Typ Schnur
Werte agent
policy

EvaluationTaxonomyInputUpdate

Eingabekonfiguration für die Auswertungstaxonomie.

Diskriminator für EvaluationTaxonomyInputUpdate

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
agent AgentTaxonomyInputUpdate
Name Typ Description Erforderlich Default
type Objekt Typ der Eingabe der Auswertungstaxonomie. Ja

EvaluationTaxonomyUpdate

Definition der Evaluierungstaxonomie

Name Typ Description Erforderlich Default
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
properties Objekt Zusätzliche Eigenschaften für die Auswertungstaxonomie. Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein
taxonomyCategories Array Liste der Taxonomiekategorien. Nein
taxonomyInput Objekt Eingabekonfiguration für die Auswertungstaxonomie. Nein
└– Typ EvaluationTaxonomyInputType Eingabetyp der Bewertungstaxonomie. Nein

EvaluatorCategory

Die Kategorie des Bewerters

Eigentum Wert
Beschreibung Die Kategorie des Bewerters
Typ Schnur
Werte quality
safety
agents

EvaluatorDefinition

Konfiguration des Basisauswerters mit Diskriminator

Diskriminator für EvaluatorDefinition

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
code CodeBasedEvaluatorDefinition
prompt PromptBasedEvaluatorDefinition
Name Typ Description Erforderlich Default
data_schema Das JSON-Schema (Entwurf 2020-12) für die Eingabedaten des Evaluators. Dazu gehören Parameter wie Typ, Eigenschaften, erforderlich. Nein
init_parameters Das JSON-Schema (Entwurf 2020-12) für die Eingabeparameter des Evaluators. Dazu gehören Parameter wie Typ, Eigenschaften, erforderlich. Nein
metrics Objekt Liste der von diesem Evaluator erzeugten Ausgabemetriken Nein
type Objekt Der Typ der Definition des Evaluators Ja

EvaluatorDefinitionType

Der Typ der Definition des Evaluators

Eigentum Wert
Beschreibung Der Typ der Definition des Evaluators
Typ Schnur
Werte prompt
code
prompt_and_code
service
openai_graders

EvaluatorMetric

Evaluator-Metrik

Name Typ Description Erforderlich Default
desirable_direction Objekt Die Richtung der Metrik, die angibt, ob ein höherer Wert besser, ein niedrigerer Wert besser oder neutral ist Nein
is_primary boolean Gibt an, ob diese Metrik primär ist, wenn mehrere Metriken vorhanden sind. Nein
max_value number Maximalwert für die Metrik. Wenn nicht angegeben, wird davon ausgegangen, dass es unbegrenzt ist. Nein
min_value number Mindestwert für die Metrik Nein
type Objekt Der Typ des Evaluators Nein

EvaluatorMetricDirection

Die Richtung der Metrik, die angibt, ob ein höherer Wert besser, ein niedrigerer Wert besser oder neutral ist

Eigentum Wert
Beschreibung Die Richtung der Metrik, die angibt, ob ein höherer Wert besser, ein niedrigerer Wert besser oder neutral ist
Typ Schnur
Werte increase
decrease
neutral

EvaluatorMetricType

Der Typ des Evaluators

Eigentum Wert
Beschreibung Der Typ des Evaluators
Typ Schnur
Werte ordinal
continuous
boolean

EvaluatorType

Der Typ des Evaluators

Eigentum Wert
Beschreibung Der Typ des Evaluators
Typ Schnur
Werte builtin
custom

EvaluatorVersion

Definition des Evaluators

Name Typ Description Erforderlich Default
categories Array Die Kategorien des Bewerters Ja
erstellt_am Integer Erstellungsdatum/-zeit des Evaluators Ja
created_by Schnur Ersteller des Evaluators Ja
Definition Objekt Konfiguration des Basisauswerters mit Diskriminator Ja
└– data_schema Das JSON-Schema (Entwurf 2020-12) für die Eingabedaten des Evaluators. Dazu gehören Parameter wie Typ, Eigenschaften, erforderlich. Nein
└– init_parameters Das JSON-Schema (Entwurf 2020-12) für die Eingabeparameter des Evaluators. Dazu gehören Parameter wie Typ, Eigenschaften, erforderlich. Nein
└– Metriken Objekt Liste der von diesem Evaluator erzeugten Ausgabemetriken Nein
└– Typ EvaluatorDefinitionType Der Typ der Definition des Evaluators Nein
display_name Schnur Anzeigename für den Evaluator. Es hilft, den Evaluator leicht in Foundry zu finden. Es muss nicht eindeutig sein. Nein
evaluator_type Objekt Der Typ des Evaluators Ja
id Schnur Asset ID, eine eindeutige Kennung für das Asset Nein
metadata Objekt Metadaten über den Evaluator Nein
modified_at Integer Datum/Uhrzeit der letzten Änderung des Evaluators Ja
Name Schnur Der Name der Ressource Ja
version Schnur Die Version der Ressource Ja

EvaluatorVersionCreate

Definition des Evaluators

Name Typ Description Erforderlich Default
categories Array Die Kategorien des Bewerters Ja
Definition Objekt Konfiguration des Basisauswerters mit Diskriminator Ja
└– data_schema Das JSON-Schema (Entwurf 2020-12) für die Eingabedaten des Evaluators. Dazu gehören Parameter wie Typ, Eigenschaften, erforderlich. Nein
└– init_parameters Das JSON-Schema (Entwurf 2020-12) für die Eingabeparameter des Evaluators. Dazu gehören Parameter wie Typ, Eigenschaften, erforderlich. Nein
└– Metriken Objekt Liste der von diesem Evaluator erzeugten Ausgabemetriken Nein
└– Typ EvaluatorDefinitionType Der Typ der Definition des Evaluators Nein
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
display_name Schnur Anzeigename für den Evaluator. Es hilft, den Evaluator leicht in Foundry zu finden. Es muss nicht eindeutig sein. Nein
evaluator_type Objekt Der Typ des Evaluators Ja
metadata Objekt Metadaten über den Evaluator Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein

EvaluatorVersionUpdate

Definition des Evaluators

Name Typ Description Erforderlich Default
categories Array Die Kategorien des Bewerters Nein
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
display_name Schnur Anzeigename für den Evaluator. Es hilft, den Evaluator leicht in Foundry zu finden. Es muss nicht eindeutig sein. Nein
metadata Objekt Metadaten über den Evaluator Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein

FabricDataAgentToolParameters

Die Parameter des Werkzeugs für den Fabric-Datenagenten.

Name Typ Description Erforderlich Default
project_connections Array Die Projektverbindungen, die an dieses Werkzeug angehängt sind. Es kann maximal 1 Verbindung bestehen.
an das Tool angefügte Ressource.
Nein

FileDatasetVersion

FileDatasetVersion-Definition

Name Typ Description Erforderlich Default
type enum Datasettyp
Möglicher Wert: uri_file
Ja

FileDatasetVersionUpdate

FileDatasetVersion-Definition

Name Typ Description Erforderlich Default
type enum Datasettyp
Möglicher Wert: uri_file
Ja

FolderDatasetVersion

FileDatasetVersion-Definition

Name Typ Description Erforderlich Default
type enum Datasettyp
Möglicher Wert: uri_folder
Ja

FolderDatasetVersionUpdate

FileDatasetVersion-Definition

Name Typ Description Erforderlich Default
type enum Datasettyp
Möglicher Wert: uri_folder
Ja

HostedAgentDefinition

Die Definition des gehosteten Agents.

Diskriminator für HostedAgentDefinition

Diese Komponente verwendet die Eigenschaft kind , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
hosted ImageBasedHostedAgentDefinition
Name Typ Description Erforderlich Default
container_protocol_versions Array Die Protokolle, die der Agent für die Eingangskommunikation der Container unterstützt. Ja
CPU Schnur Die CPU-Konfiguration für den gehosteten Agenten. Ja
environment_variables Objekt Umgebungsvariablen, die im Container des gehosteten Agents festgelegt werden sollen. Nein
freundlich enum
Möglicher Wert: hosted
Ja
Gedächtnis Schnur Die Arbeitsspeicherkonfiguration für den gehosteten Agent. Ja
Werkzeuge Array Ein Array von Tools, die das Modell des gehosteten Agents beim Generieren einer Antwort aufrufen kann. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Nein

HourlyRecurrenceSchedule

Stündlicher Wiederholungsplan.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: Hourly
Ja

HumanEvaluationRuleAction

Auswertungsregelaktion für die menschliche Auswertung.

Name Typ Description Erforderlich Default
templateId Objekt Bezeichner einer gespeicherten Ressource. Ja
type enum
Möglicher Wert: humanEvaluation
Ja

ImageBasedHostedAgentDefinition

Die Image-basierte Bereitstellungsdefinition für einen gehosteten Agent.

Name Typ Description Erforderlich Default
Bild Schnur Das Image für den gehosteten Agent. Ja
freundlich enum
Möglicher Wert: hosted
Ja

Index

Indexressourcendefinition

Diskriminator für Index

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
AzureSearch AzureAISearchIndex
ManagedAzureSearch ManagedAzureAISearchIndex
CosmosDBNoSqlVectorStore CosmosDBIndex
Name Typ Description Erforderlich Default
id Schnur Asset ID, eine eindeutige Kennung für das Asset Nein
Name Schnur Der Name der Ressource Ja
type Objekt Ja
version Schnur Die Version der Ressource Ja

IndexType

Eigentum Wert
Typ Schnur
Werte AzureSearch
CosmosDBNoSqlVectorStore
ManagedAzureSearch

IndexUpdate

Indexressourcendefinition

Diskriminator für IndexUpdate

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
AzureSearch AzureAISearchIndexUpdate
ManagedAzureSearch ManagedAzureAISearchIndexUpdate
CosmosDBNoSqlVectorStore CosmosDBIndexUpdate
Name Typ Description Erforderlich Default
Beschreibung Schnur Der Text der Objektbeschreibung. Nein
tags Objekt Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. Nein
type Objekt Ja

Einblick

Der Antworttext für Cluster Insights.

Name Typ Description Erforderlich Default
Anzeigename Schnur Benutzerfreundlicher Anzeigename für den Einblick. Ja
id Schnur Die eindeutige Kennung für den Insights-Bericht. Ja
metadata Objekt Metadaten zu den Erkenntnissen. Ja
└– completedAt Schnur Der Zeitstempel, zu dem die Erkenntnisse abgeschlossen wurden. Nein
└– createdAt Schnur Der Zeitstempel, zu dem die Erkenntnisse erstellt wurden. Nein
request Objekt Die Anforderung des Insights-Berichts. Ja
└– Typ InsightType Der Anforderungstyp. Nein
Ergebnis Objekt Das Ergebnis der Erkenntnisse. Nein
└– Typ InsightType Die Art der Erkenntnisse, die sich daraus ergeben. Nein
Staat Objekt Enumeration, die zulässige Betriebszustände beschreibt. Ja

InsightCluster

Ein Cluster von Analyseproben.

Name Typ Description Erforderlich Default
Beschreibung Schnur Beschreibung des Analyseclusters. Ja
id Schnur Die ID des Analyse-Clusters. Ja
label Schnur Bezeichnung für den Cluster Ja
proben Array Liste der Beispiele, die zu diesem Cluster gehören. Leer, wenn Stichproben Teil von Subclustern sind. Nein
subClusters Array Liste der Subcluster innerhalb dieses Clusters. Leer, wenn keine Subcluster vorhanden sind. Nein
Vorschlag Schnur Vorschlag für den Cluster Ja
suggestionTitle Schnur Der Titel des Vorschlags für den Cluster Ja
weight Integer Die Gewichtung des Analyse-Clusters. Dies gibt die Anzahl der Stichproben im Cluster an. Ja

InsightModelConfiguration

Konfiguration des Modells, das bei der Generierung von Erkenntnissen verwendet wird.

Name Typ Description Erforderlich Default
modelDeploymentName Schnur Die Modellbereitstellung, die ausgewertet werden soll. Akzeptiert entweder den Bereitstellungsnamen allein oder mit dem Verbindungsnamen als {connectionName}/<modelDeploymentName>. Ja

InsightRequest

Die Anforderung des Insights-Berichts.

Diskriminator für InsightRequest

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
EvaluationRunClusterInsight EvaluationRunClusterInsightsRequest
AgentClusterInsight AgentClusterInsightsRequest
EvaluationComparison EvaluationComparisonRequest
Name Typ Description Erforderlich Default
type Objekt Die Anforderung der Einblicke. Ja

InsightResult

Das Ergebnis der Erkenntnisse.

Diskriminator für InsightResult

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
EvaluationComparison EvalCompareReport
EvaluationRunClusterInsight EvaluationRunClusterInsightResult
AgentClusterInsight AgentClusterInsightResult
Name Typ Description Erforderlich Default
type Objekt Die Anforderung der Einblicke. Ja

InsightSample

Eine Probe aus der Analyse.

Diskriminator für InsightSample

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
EvaluationResultSample EvaluationResultSample
Name Typ Description Erforderlich Default
CorrelationInfo Objekt Info über die Korrelation für die Analyseprobe. Ja
features Objekt Funktionen zur Unterstützung des zusätzlichen Filterns von Daten in UX. Ja
id Schnur Die eindeutige Kennung für die Analyseprobe. Ja
type Objekt Die Art der Probe, die für die Analyse verwendet wird. Ja

InsightScheduleTask

Insight-Aufgabe für den Zeitplan.

Name Typ Description Erforderlich Default
Einblick Objekt Der Antworttext für Cluster Insights. Ja
└- displayName Schnur Benutzerfreundlicher Anzeigename für den Einblick. Nein
└– ID Schnur Die eindeutige Kennung für den Insights-Bericht. Nein
└- Metadaten InsightsMetadata Metadaten zum Insights-Bericht. Nein
└– Anfrage InsightRequest Anforderung der Insights-Analyse. Nein
└- Ergebnis InsightResult Das Ergebnis des Insights-Berichts. Nein
└– Zustand Azure.Core.Foundation.OperationState Der aktuelle Stand der Erkenntnisse. Nein
type enum
Möglicher Wert: Insight
Ja

InsightSummary

Zusammenfassung der Fehlerclusteranalyse.

Name Typ Description Erforderlich Default
method Schnur Für das Clustering verwendete Methode. Ja
sampleCount Integer Gesamtzahl der analysierten Proben. Ja
uniqueClusterCount Integer Gesamtanzahl eindeutiger Cluster. Ja
uniqueSubclusterCount Integer Gesamtanzahl eindeutiger Subcluster-Beschriftungen. Ja
usage Objekt Token-Nutzung für die Cluster-Analyse Ja
└– inputTokenUsage Integer Verwendung des Eingabe-Tokens Nein
└– outputTokenUsage Integer Verwendung des Ausgabetokens Nein
└- totalTokenUsage Integer Gesamte Token-Nutzung Nein

InsightType

Die Anforderung der Einblicke.

Eigentum Wert
Typ Schnur
Werte EvaluationRunClusterInsight
AgentClusterInsight
EvaluationComparison

InsightsMetadata

Metadaten zu den Erkenntnissen.

Name Typ Description Erforderlich Default
completedAt Schnur Der Zeitstempel, zu dem die Erkenntnisse abgeschlossen wurden. Nein
ErstelltAm Schnur Der Zeitstempel, zu dem die Erkenntnisse erstellt wurden. Ja

ItemGenerationParams

Stellt den Satz von Parametern dar, die zum Steuern von Elementgenerierungsvorgängen verwendet werden.

Diskriminator für ItemGenerationParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
Name Typ Description Erforderlich Default
type Schnur Der Typ der zu verwendenden Elementgenerierungsparameter. Ja

ManagedAzureAISearchIndex

Definition des Managed Azure AI Search-Index

Name Typ Description Erforderlich Default
type enum Art des Index
Möglicher Wert: ManagedAzureSearch
Ja

ManagedAzureAISearchIndexUpdate

Definition des Managed Azure AI Search-Index

Name Typ Description Erforderlich Default
type enum Art des Index
Möglicher Wert: ManagedAzureSearch
Ja

MemoryItem

Ein einzelnes Speicherelement, das im Speicherspeicher gespeichert ist und Inhalte und Metadaten enthält.

Diskriminator für MemoryItem

Diese Komponente verwendet die Eigenschaft kind , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
user_profile UserProfileMemoryItem
chat_summary ChatSummaryMemoryItem
Name Typ Description Erforderlich Default
Inhalt Schnur Der Inhalt des Speichers. Ja
freundlich Objekt Art des Speicherelements. Ja
memory_id Schnur Die eindeutige ID des Speicherelements. Ja
scope Schnur Der Namespace, der Speicher logisch gruppiert und isoliert, z. B. eine Benutzer-ID. Ja
updated_at Integer Der Zeitpunkt der letzten Aktualisierung des Speicherelements. Ja

MemoryItemKind

Art des Speicherelements.

Eigentum Wert
Beschreibung Art des Speicherelements.
Typ Schnur
Werte user_profile
chat_summary

MemoryOperation

Stellt einen einzelnen Speichervorgang (Erstellen, Aktualisieren oder Löschen) dar, der für ein Speicherelement ausgeführt wird.

Name Typ Description Erforderlich Default
freundlich Objekt Art der Speicheroperation. Ja
memory_item Objekt Ein einzelnes Speicherelement, das im Speicherspeicher gespeichert ist und Inhalte und Metadaten enthält. Ja
└– Inhalt Schnur Der Inhalt des Speichers. Nein
└– Art MemoryItemKind Die Art des Erinnerungselements. Nein
└– memory_id Schnur Die eindeutige ID des Speicherelements. Nein
└– Bereich Schnur Der Namespace, der Speicher logisch gruppiert und isoliert, z. B. eine Benutzer-ID. Nein
└– updated_at Integer Der Zeitpunkt der letzten Aktualisierung des Speicherelements. Nein

MemoryOperationKind

Art der Speicheroperation.

Eigentum Wert
Beschreibung Art der Speicheroperation.
Typ Schnur
Werte create
update
delete

MemorySearchItem

Ein aus der Speichersuche abgerufenes Speicherelement.

Name Typ Description Erforderlich Default
memory_item Objekt Ein einzelnes Speicherelement, das im Speicherspeicher gespeichert ist und Inhalte und Metadaten enthält. Ja
└– Inhalt Schnur Der Inhalt des Speichers. Nein
└– Art MemoryItemKind Die Art des Erinnerungselements. Nein
└– memory_id Schnur Die eindeutige ID des Speicherelements. Nein
└– Bereich Schnur Der Namespace, der Speicher logisch gruppiert und isoliert, z. B. eine Benutzer-ID. Nein
└– updated_at Integer Der Zeitpunkt der letzten Aktualisierung des Speicherelements. Nein

MemorySearchOptions

Optionen für die Speichersuche.

Name Typ Description Erforderlich Default
max_memories Integer Maximale Anzahl der zurückzugebenden Speicherelemente. Nein

MemorySearchTool

Ein Werkzeug zur Integration von Erinnerungen in den Agenten.

Name Typ Description Erforderlich Default
memory_store_name Schnur Der Name des zu verwendenden Speichers. Ja
scope Schnur Der Namespace, der zum Gruppieren und Isolieren von Speichern verwendet wird, z. B. eine Benutzer-ID.
Begrenzt die Speicher, die abgerufen oder aktualisiert werden können.
Verwenden Sie eine spezielle Variable, {{$userId}} um Speicher auf den aktuell angemeldeten Benutzer zu beschränken.
Ja
search_options Objekt Optionen für die Speichersuche. Nein
└– max_memories Integer Maximale Anzahl der zurückzugebenden Speicherelemente. Nein
type enum Der Typ des Tools. Immer memory_search.
Möglicher Wert: memory_search
Ja
update_delay Integer Zeit zum Warten, bevor Erinnerungen nach Inaktivität aktualisiert werden (Sekunden). Standardwert 300. Nein 300

MemorySearchToolCallItemParam

Name Typ Description Erforderlich Default
results Array Die Ergebnisse, die von der Speichersuche zurückgegeben werden. Nein
type enum
Möglicher Wert: memory_search_call
Ja

MemorySearchToolCallItemResource

Name Typ Description Erforderlich Default
results Array Die Ergebnisse, die von der Speichersuche zurückgegeben werden. Nein
status enum Der Status des Speichersuchtoolaufrufs. Einer von in_progress,
searching, oder completed,incompletefailed
Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Ja
type enum
Möglicher Wert: memory_search_call
Ja

MemoryStoreDefaultDefinition

Standardimplementierung des Arbeitsspeichers.

Name Typ Description Erforderlich Default
chat_model Schnur Der Name oder Bezeichner der Bereitstellung des Chatvervollständigungsmodells, das für die Speicherverarbeitung verwendet wird. Ja
embedding_model Schnur Der Name oder Bezeichner der Bereitstellung des Einbettungsmodells, die für die Speicherverarbeitung verwendet wird. Ja
freundlich enum Die Art des Speichers.
Möglicher Wert: default
Ja
options Objekt Standardkonfigurationen für Speicherspeicher. Nein
└– chat_summary_enabled boolean Gibt an, ob die Extraktion und Speicherung von Chatzusammenfassungen aktiviert werden soll. Der Standardwert ist "true". Nein Richtig
└– user_profile_details Schnur Bestimmte Kategorien oder Typen von Benutzerprofilinformationen, die extrahiert und gespeichert werden sollen. Nein
└– user_profile_enabled boolean Gibt an, ob die Extraktion und Speicherung von Benutzerprofilen aktiviert werden soll. Der Standardwert ist "true". Nein Richtig

MemoryStoreDefaultOptions

Standardkonfigurationen für Speicherspeicher.

Name Typ Description Erforderlich Default
chat_summary_enabled boolean Gibt an, ob die Extraktion und Speicherung von Chatzusammenfassungen aktiviert werden soll. Der Standardwert ist "true". Ja Richtig
user_profile_details Schnur Bestimmte Kategorien oder Typen von Benutzerprofilinformationen, die extrahiert und gespeichert werden sollen. Nein
user_profile_enabled boolean Gibt an, ob die Extraktion und Speicherung von Benutzerprofilen aktiviert werden soll. Der Standardwert ist "true". Ja Richtig

MemoryStoreDefinition

Basisdefinition für Speicherspeicherkonfigurationen.

Diskriminator für MemoryStoreDefinition

Diese Komponente verwendet die Eigenschaft kind , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
default MemoryStoreDefaultDefinition
Name Typ Description Erforderlich Default
freundlich Objekt Der Typ der zu verwendenden Speicherimplementierung. Ja

MemoryStoreDeleteScopeResponse

Antwort für das Löschen von Erinnerungen aus einem Bereich.

Name Typ Description Erforderlich Default
gelöscht boolean Gibt an, ob der Löschvorgang erfolgreich war. Ja
Name Schnur Der Name des Speichers. Ja
Objekt enum Der Objekttyp. Immer 'memory_store.scope.deleted'.
Möglicher Wert: memory_store.scope.deleted
Ja
scope Schnur Der Bereich, aus dem Erinnerungen gelöscht wurden. Ja

MemoryStoreKind

Der Typ der zu verwendenden Speicherimplementierung.

Eigentum Wert
Beschreibung Der Typ der zu verwendenden Speicherimplementierung.
Typ Schnur
Werte default

MemoryStoreObject

Ein Speicher, der Benutzerspeicher speichern und abrufen kann.

Name Typ Description Erforderlich Default
erstellt_am Integer Der Unix-Zeitstempel (Sekunden), zu dem der Speicher erstellt wurde. Ja
Definition Objekt Basisdefinition für Speicherspeicherkonfigurationen. Ja
└– Art MemoryStoreKind Die Art des Speichers. Nein
Beschreibung Schnur Eine für Menschen lesbare Beschreibung des Speichers. Nein
id Schnur Der eindeutige Bezeichner des Speichers. Ja
metadata Objekt Beliebige Schlüssel-Wert-Metadaten, die dem Speicher zugeordnet werden sollen. Nein
Name Schnur Der Name des Speichers. Ja
Objekt enum Der Objekttyp, der immer 'memory_store' ist.
Möglicher Wert: memory_store
Ja
updated_at Integer Der Unix-Zeitstempel (Sekunden), zu dem der Speicher zuletzt aktualisiert wurde. Ja

MemoryStoreOperationUsage

Verwendungsstatistiken eines Speichervorgangs.

Name Typ Description Erforderlich Default
embedding_tokens Integer Die Anzahl der einbettenden Token. Ja
input_tokens Integer Die Anzahl der Eingabetoken. Ja
input_tokens_details Objekt Eine detaillierte Aufschlüsselung der Eingabetoken. Ja
└– zwischengespeicherte_Token Integer Die Anzahl der Token, die aus dem Cache abgerufen wurden.
Weitere Informationen zum Zwischenspeichern von Prompts.
Nein
output_tokens Integer Die Anzahl der Ausgabetoken. Ja
output_tokens_details Objekt Eine detaillierte Aufschlüsselung der Ausgabetoken. Ja
└– reasoning_tokens Integer Die Anzahl der Begründungstoken Nein
Gesamtanzahl Tokens Integer Die Gesamtzahl der verwendeten Token. Ja

MemoryStoreSearchResponse

Antwort auf die Speichersuche.

Name Typ Description Erforderlich Default
Erinnerungen Array Zugehörige Speicherelemente, die während des Suchvorgangs gefunden wurden. Ja
search_id Schnur Die eindeutige ID dieser Suchanforderung. Verwenden Sie diesen Wert als previous_search_id in nachfolgenden Anforderungen, um inkrementelle Suchen durchzuführen. Ja
usage Objekt Verwendungsstatistiken eines Speichervorgangs. Ja
└– embedding_tokens Integer Die Anzahl der einbettenden Token. Nein
└─ Eingabe-Tokens Integer Die Anzahl der Eingabetoken. Nein
└– input_tokens_details Objekt Eine detaillierte Aufschlüsselung der Eingabetoken. Nein
└– zwischengespeicherte_Token Integer Die Anzahl der Token, die aus dem Cache abgerufen wurden.
Weitere Informationen zum Zwischenspeichern von Prompts.
Nein
└– Ausgabe-Tokens Integer Die Anzahl der Ausgabetoken. Nein
└– output_tokens_details Objekt Eine detaillierte Aufschlüsselung der Ausgabetoken. Nein
└– reasoning_tokens Integer Die Anzahl der Begründungstoken Nein
└– total_tokens Integer Die Gesamtzahl der verwendeten Token. Nein

MemoryStoreUpdateCompletedResult

Ergebnis der Speicheraktualisierung.

Name Typ Description Erforderlich Default
memory_operations Array Eine Liste der einzelnen Speichervorgänge, die während des Updates ausgeführt wurden. Ja
usage Objekt Verwendungsstatistiken eines Speichervorgangs. Ja
└– embedding_tokens Integer Die Anzahl der einbettenden Token. Nein
└─ Eingabe-Tokens Integer Die Anzahl der Eingabetoken. Nein
└– input_tokens_details Objekt Eine detaillierte Aufschlüsselung der Eingabetoken. Nein
└– zwischengespeicherte_Token Integer Die Anzahl der Token, die aus dem Cache abgerufen wurden.
Weitere Informationen zum Zwischenspeichern von Prompts.
Nein
└– Ausgabe-Tokens Integer Die Anzahl der Ausgabetoken. Nein
└– output_tokens_details Objekt Eine detaillierte Aufschlüsselung der Ausgabetoken. Nein
└– reasoning_tokens Integer Die Anzahl der Begründungstoken Nein
└– total_tokens Integer Die Gesamtzahl der verwendeten Token. Nein

MemoryStoreUpdateResponse

Stellt den Status eines Aktualisierungsvorgangs für den Arbeitsspeicher bereit.

Name Typ Description Erforderlich Default
Fehler Objekt Nein
└– additionalInfo Objekt Nein
└– Code Schnur Nein
└– debugInfo Objekt Nein
└– Einzelheiten Array Nein
└– Nachricht Schnur Nein
└─ param Schnur Nein
└– Typ Schnur Nein
Ergebnis Objekt Ergebnis der Speicheraktualisierung. Nein
└– memory_operations Array Eine Liste der einzelnen Speichervorgänge, die während des Updates ausgeführt wurden. Nein
└– Nutzung MemoryStoreOperationUsage Verwendungsstatistiken, die dem Speicheraktualisierungsvorgang zugeordnet sind. Nein
status Objekt Status eines Aktualisierungsvorgangs für den Arbeitsspeicher. Ja
superseded_by Schnur Der update_id der Vorgang durch den Status "Abgelöst" ersetzt wurde. Nein
update_id Schnur Die eindeutige ID dieser Aktualisierungsanforderung. Verwenden Sie diesen Wert wie previous_update_id in nachfolgenden Anforderungen, um inkrementelle Aktualisierungen durchzuführen. Ja

MemoryStoreUpdateStatus

Status eines Aktualisierungsvorgangs für den Arbeitsspeicher.

Eigentum Wert
Beschreibung Status eines Aktualisierungsvorgangs für den Arbeitsspeicher.
Typ Schnur
Werte queued
in_progress
completed
failed
superseded

MicrosoftFabricAgentTool

Die Eingabedefinitionsinformationen für ein Microsoft Fabric-Tool, das zum Konfigurieren eines Agents verwendet wird.

Name Typ Description Erforderlich Default
fabric_dataagent_preview Objekt Die Parameter des Werkzeugs für den Fabric-Datenagenten. Ja
└– project_connections Array Die Projektverbindungen, die an dieses Werkzeug angehängt sind. Es kann maximal 1 Verbindung bestehen.
an das Tool angefügte Ressource.
Nein
type enum Der Objekttyp, der immer "fabric_dataagent" ist.
Möglicher Wert: fabric_dataagent_preview
Ja

ModelDeployment

Definition der Modellbereitstellung

Name Typ Description Erforderlich Default
capabilities Objekt Funktionen des bereitgestellten Modells Ja
Verbindungsname Schnur Name der Verbindung, von der aus die Bereitstellung stammt Nein
modelName Schnur Herausgeberspezifischer Name des bereitgestellten Modells Ja
modelPublisher Schnur Name des Herausgebers des bereitgestellten Modells Ja
modelVersion Schnur Herausgeberspezifische Version des bereitgestellten Modells Ja
sku Objekt Sku-Informationen Ja
└– Kapazität Integer Sku-Kapazität Nein
└- Familie Schnur Familie Sku Nein
└– Name Schnur Sku-Name Nein
└– Größe Schnur Sku-Größe Nein
└– Stufe Schnur Sku-Ebene Nein
type enum Der Typ der Bereitstellung
Möglicher Wert: ModelDeployment
Ja

ModelSamplingParams

Stellt eine Reihe von Parametern dar, die zum Steuern des Samplingverhaltens eines Sprachmodells während der Textgenerierung verwendet werden.

Name Typ Description Erforderlich Default
max_completion_tokens Integer Die maximale Anzahl von Token, die im Abschluss zulässig sind. Ja
seed Integer Der zufällige Samen zur Reproduzierbarkeit. Ja
Temperatur number Der Temperaturparameter für die Probenahme. Ja
top_p number Der Top-p-Parameter für die Kernsampling. Ja

ModelSamplingParamsUpdate

Stellt eine Reihe von Parametern dar, die zum Steuern des Samplingverhaltens eines Sprachmodells während der Textgenerierung verwendet werden.

Name Typ Description Erforderlich Default
max_completion_tokens Integer Die maximale Anzahl von Token, die im Abschluss zulässig sind. Nein
seed Integer Der zufällige Samen zur Reproduzierbarkeit. Nein
Temperatur number Der Temperaturparameter für die Probenahme. Nein
top_p number Der Top-p-Parameter für die Kernsampling. Nein

MonthlyRecurrenceSchedule

Monatlicher Wiederholungsplan.

Name Typ Description Erforderlich Default
daysOfMonth Array Tage des Monats für den Wiederholungsplan. Ja
type enum Art der monatlichen Wiederholung.
Möglicher Wert: Monthly
Ja

NoAuthenticationCredentials

Anmeldeinformationen, für die keine Authentifizierung erforderlich ist

Name Typ Description Erforderlich Default
type enum Der Anmeldeinformationstyp
Möglicher Wert: None
Ja

OAuthConsentRequestItemResource

Fordern Sie vom Dienst an, dass der Benutzer die OAuth-Zustimmung durchführt.

Name Typ Description Erforderlich Default
consent_link Schnur Der Link, den der Benutzer zum Ausführen der OAuth-Zustimmung verwenden kann. Ja
id Schnur Ja
Serverbeschriftung Schnur Die Serverbezeichnung für die OAuth-Zustimmungsanforderung. Ja
type enum
Möglicher Wert: oauth_consent_request
Ja

OneTimeTrigger

Einmaliger Auslöser.

Name Typ Description Erforderlich Default
timeZone Schnur Zeitzone für den einmaligen Auslöser. Nein UTC
triggerAt Schnur Datum und Uhrzeit für den einmaligen Auslöser im ISO 8601-Format. Ja
type enum
Möglicher Wert: OneTime
Ja

OpenAI.Annotation

Diskriminator für OpenAI.Annotation

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Name Typ Description Erforderlich Default
type OpenAI.AnnotationType Ja

OpenAI.AnnotationFileCitation

Ein Verweis auf eine Datei.

Name Typ Description Erforderlich Default
Datei-ID Schnur Die ID der Datei. Ja
filename Schnur Der Dateiname der Datei, auf die verwiesen wird. Ja
Index Integer Der Index der Datei in der Liste der Dateien. Ja
type enum Der Typ des Dateizitats Immer file_citation.
Möglicher Wert: file_citation
Ja

OpenAI.AnnotationFilePath

Ein Pfad zu einer Datei.

Name Typ Description Erforderlich Default
Datei-ID Schnur Die ID der Datei. Ja
Index Integer Der Index der Datei in der Liste der Dateien. Ja
type enum Der Typ des Dateipfads. Immer file_path.
Möglicher Wert: file_path
Ja

OpenAI.AnnotationType

Eigentum Wert
Typ Schnur
Werte file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.

Name Typ Description Erforderlich Default
end_index Integer Der Index des letzten Zeichens des URL-Zitats in der Nachricht. Ja
start_index Integer Der Index des ersten Zeichens des URL-Zitats in der Nachricht. Ja
title Schnur Der Titel der Webressource. Ja
type enum Der Typ des URL-Zitats. Immer url_citation.
Möglicher Wert: url_citation
Ja
url Schnur Die URL der Webressource. Ja

OpenAI.ApproximateLocation

Name Typ Description Erforderlich Default
city Schnur Nein
country Schnur Nein
region Schnur Nein
timezone Schnur Nein
type enum
Möglicher Wert: approximate
Ja

OpenAI.ChatCompletionTool

Ein Funktionstool, das zum Generieren einer Antwort verwendet werden kann.

Name Typ Description Erforderlich Default
Funktion OpenAI.FunctionObject Ja
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.CodeInterpreterOutput

Diskriminator für OpenAI.CodeInterpreterOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Name Typ Description Erforderlich Default
type OpenAI.CodeInterpreterOutputType Ja

OpenAI.CodeInterpreterOutputImage

Die Bildausgabe des Code-Interpreters.

Name Typ Description Erforderlich Default
type enum Der Typ der Ausgabe. Immer „image“.
Möglicher Wert: image
Ja
url Schnur Die URL der Bildausgabe des Code-Interpreters. Ja

OpenAI.CodeInterpreterOutputLogs

Die Protokollausgabe aus dem Code-Interpreter.

Name Typ Description Erforderlich Default
logs Schnur Die Protokollausgabe aus dem Code-Interpreter. Ja
type enum Der Typ der Ausgabe. Immer „logs“.
Möglicher Wert: logs
Ja

OpenAI.CodeInterpreterOutputType

Eigentum Wert
Typ Schnur
Werte logs
image

OpenAI.CodeInterpreterTool

Ein Tool, das Python-Code ausführt, um eine Antwort auf eine Eingabeaufforderung zu generieren.

Name Typ Description Erforderlich Default
container Objekt Konfiguration für einen Codedolmetschercontainer. Optionales Angeben der IDs
der Dateien, für die der Code ausgeführt werden soll.
Ja
└– file_ids Array Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. Nein
└– Typ enum Immer auto.
Möglicher Wert: auto
Nein
type enum Der Typ des Codedolmetschertools. Immer code_interpreter.
Möglicher Wert: code_interpreter
Ja

OpenAI.CodeInterpreterToolAuto

Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll.

Name Typ Description Erforderlich Default
Datei-IDs Array Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. Nein
type enum Immer auto.
Möglicher Wert: auto
Ja

OpenAI.CodeInterpreterToolCallItemParam

Ein Toolaufruf zum Ausführen von Code.

Name Typ Description Erforderlich Default
Code Schnur Der auszuführende Code oder NULL, falls nicht verfügbar. Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
Ergebnisse Array Die vom Code-Interpreter generierten Ausgaben, z. B. Protokolle oder Bilder.
Kann NULL sein, wenn keine Ausgaben verfügbar sind.
Ja
type enum
Möglicher Wert: code_interpreter_call
Ja

OpenAI.CodeInterpreterToolCallItemResource

Ein Toolaufruf zum Ausführen von Code.

Name Typ Description Erforderlich Default
Code Schnur Der auszuführende Code oder NULL, falls nicht verfügbar. Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
Ergebnisse Array Die vom Code-Interpreter generierten Ausgaben, z. B. Protokolle oder Bilder.
Kann NULL sein, wenn keine Ausgaben verfügbar sind.
Ja
status enum
Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed
Ja
type enum
Möglicher Wert: code_interpreter_call
Ja

OpenAI.Vergleichsfilter

Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.

Name Typ Description Erforderlich Default
Schlüssel Schnur Der Schlüssel für den Vergleich mit dem Wert Ja
type enum Gibt den Vergleichsoperator an:
eq (gleich), ne (ungleich), (größer als), gtgte (größer als oder gleich), lt (kleiner als), lte (kleiner oder gleich).
Mögliche Werte: eq, , ne, gtgte, , , ltlte
Ja
Wert Zeichenfolge oder Zahl oder boolescher Wert Ja

OpenAI.CompoundFilter

Kombinieren mehrerer Filter mit and oder or.

Name Typ Description Erforderlich Default
filters Array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Ja
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Ja

OpenAI.ComputerAction

Diskriminator für OpenAI.ComputerAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Name Typ Description Erforderlich Default
type OpenAI.ComputerActionType Ja

OpenAI.ComputerActionClick

Ein Klickvorgang.

Name Typ Description Erforderlich Default
button enum Gibt an, welche Maustaste während des Klickens gedrückt wurde. Eines von left, right, wheel, back oder forward
Mögliche Werte: left, , rightwheel, , backforward
Ja
type enum Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft
immer auf click festgelegt.
Möglicher Wert: click
Ja
x Integer Die x-Koordinate, an der der Klick aufgetreten ist. Ja
y Integer Die y-Koordinate, an der der Klick aufgetreten ist. Ja

OpenAI.ComputerActionDoubleClick

Eine Doppelklickaktion

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für eine Doppelklickaktion ist diese Eigenschaft
immer auf double_click festgelegt.
Möglicher Wert: double_click
Ja
x Integer Die x-Koordinate, an der der Doppelklick aufgetreten ist. Ja
y Integer Die y-Koordinate, an der der Doppelklick aufgetreten ist. Ja

OpenAI.ComputerActionDrag

Eine Ziehaktion

Name Typ Description Erforderlich Default
Pfad Array Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array angezeigt
von Objekten, z. B.
<br>[<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br>]<br>
Ja
type enum Gibt den Ereignistyp an. Für eine Ziehaktion ist diese Eigenschaft
immer auf drag festgelegt.
Möglicher Wert: drag
Ja

OpenAI.ComputerActionKeyPress

Eine Sammlung von Tastendrücken, die das Modell ausführen möchte.

Name Typ Description Erforderlich Default
keys Array Die Tastenkombination, die das Modell gedrückt haben möchte. Dies ist ein
Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen.
Ja
type enum Gibt den Ereignistyp an. Bei einer Tastendruckaktion ist diese Eigenschaft
immer auf keypress festgelegt.
Möglicher Wert: keypress
Ja

OpenAI.ComputerActionMove

Aktion zur Änderung der Mauszeigerposition

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für das Verschieben ist diese Eigenschaft
immer auf move festgelegt.
Möglicher Wert: move
Ja
x Integer Die x-Koordinate, zu der verschoben werden soll. Ja
y Integer Die y-Koordinate, zu der verschoben werden soll. Ja

OpenAI.ComputerActionScreenshot

Screenshotaktion

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft
immer auf screenshot festgelegt.
Möglicher Wert: screenshot
Ja

OpenAI.ComputerActionScroll

Eine Scrollaktion

Name Typ Description Erforderlich Default
scroll_x Integer Der horizontale Scrollabstand Ja
scroll_y Integer Der vertikale Scrollabstand Ja
type enum Gibt den Ereignistyp an. Für eine Scrollaktion ist diese Eigenschaft
immer auf scroll festgelegt.
Möglicher Wert: scroll
Ja
x Integer Die X-Koordinate, an der das Scrollen erfolgt ist Ja
y Integer Die y-Koordinate, bei der das Scrollen stattfindet. Ja

OpenAI.ComputerActionType

Eigentum Wert
Typ Schnur
Werte screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Eine Aktion zum Eingeben von Text.

Name Typ Description Erforderlich Default
Text Schnur Der einzugebende Text. Ja
type enum Gibt den Ereignistyp an. Für eine Typaktion ist diese Eigenschaft
immer auf type festgelegt.
Möglicher Wert: type
Ja

OpenAI.ComputerActionWait

Eine Warteaktion.

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft
immer auf wait festgelegt.
Möglicher Wert: wait
Ja

OpenAI.ComputerToolCallItemParam

Ein Toolaufruf eines von einem Computer verwendeten Tools Weitere Informationen finden Sie im Handbuch zur Computerbenutzung .

Name Typ Description Erforderlich Default
Handlung OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
pending_safety_checks Array Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Ja
type enum
Möglicher Wert: computer_call
Ja

OpenAI.ComputerToolCallItemResource

Ein Toolaufruf eines von einem Computer verwendeten Tools Weitere Informationen finden Sie im Handbuch zur Computerbenutzung .

Name Typ Description Erforderlich Default
Handlung OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
pending_safety_checks Array Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: computer_call
Ja

OpenAI.ComputerToolCallOutputItemOutput

Diskriminator for OpenAI.ComputerToolCallOutputItemOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Name Typ Description Erforderlich Default
type OpenAI.ComputerToolCallOutputItemOutputType Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. Ja

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Name Typ Description Erforderlich Default
Datei-ID Schnur Nein
image_url Schnur Nein
type enum
Möglicher Wert: computer_screenshot
Ja

OpenAI.ComputerToolCallOutputItemOutputType

Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.

Eigentum Wert
Beschreibung Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
Typ Schnur
Werte computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

Die Ausgabe eines Computertoolaufrufs

Name Typ Description Erforderlich Default
acknowledged_safety_checks Array Die von der API gemeldeten Sicherheitskontrollen, die von der API anerkannt wurden.
entwickelnden Person bestätigt wurden
Nein
call_id Schnur Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. Ja
output OpenAI.ComputerToolCallOutputItemOutput Ja
type enum
Möglicher Wert: computer_call_output
Ja

OpenAI.ComputerToolCallOutputItemResource

Die Ausgabe eines Computertoolaufrufs

Name Typ Description Erforderlich Default
acknowledged_safety_checks Array Die von der API gemeldeten Sicherheitskontrollen, die von der API anerkannt wurden.
entwickelnden Person bestätigt wurden
Nein
call_id Schnur Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. Ja
output OpenAI.ComputerToolCallOutputItemOutput Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: computer_call_output
Ja

OpenAI.ComputerToolCallSafetyCheck

Eine ausstehende Sicherheitsüberprüfung für den Computertelefonanruf.

Name Typ Description Erforderlich Default
Code Schnur Der Typ der ausstehenden Sicherheitsüberprüfung. Ja
id Schnur Die ID der ausstehenden Sicherheitsprüfung Ja
Nachricht Schnur Details zur ausstehenden Sicherheitsüberprüfung. Ja

OpenAI.ComputerUsePreviewTool

Ein Tool, das einen virtuellen Computer steuert.

Name Typ Description Erforderlich Default
Anzeigehöhe Integer Die Höhe der Computeranzeige. Ja
Bildschirmbreite Integer Die Breite der Computeranzeige. Ja
environment enum Der Typ der zu steuernden Computerumgebung.
Mögliche Werte: windows, , maclinux, , ubuntubrowser
Ja
type enum Der Typ des Tools zur Computernutzung. Immer computer_use_preview.
Möglicher Wert: computer_use_preview
Ja

OpenAI.ConversationItemList

Name Typ Description Erforderlich Default
Daten Array Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ConversationResource

Name Typ Description Erforderlich Default
erstellt_am Integer Ja
id Schnur Die eindeutige ID der Unterhaltung. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Objekt enum Der Objekttyp, der immer "Unterhaltung" ist.
Möglicher Wert: conversation
Ja

OpenAI.Coordinate

Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.

Name Typ Description Erforderlich Default
x Integer Die x-Koordinate. Ja
y Integer Die y-Koordinate. Ja

OpenAI.CreateConversationRequest

Erstellen einer Unterhaltung

Name Typ Description Erforderlich Default
items Array Anfängliche Elemente, die den Unterhaltungskontext enthalten sollen.
Sie können jeweils bis zu 20 Elemente hinzufügen.
Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

OpenAI.CreateEvalCompletionsRunDataSource

Ein CompletionsRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.

Name Typ Description Erforderlich Default
Eingabenachrichten Objekt Nein
└– item_reference Schnur Nein
└- Vorlage Array Nein
└– Typ enum
Möglicher Wert: item_reference
Nein
Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
Parameter für Stichprobennahme OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams Nein
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– erstellt_nach OpenAI.integer Nein
└– created_before OpenAI.integer Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– Grenzwert OpenAI.integer Nein
└- Metadaten OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Nein
└– Typ enum Der Quelltyp. Immer stored_completions.
Möglicher Wert: stored_completions
Nein
type enum Der Typ der Ausführungsdatenquelle. Immer completions.
Möglicher Wert: completions
Ja

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference

Name Typ Description Erforderlich Default
item_reference Schnur Ja
type enum
Möglicher Wert: item_reference
Ja

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate

Name Typ Description Erforderlich Default
template Array Ja
type enum
Möglicher Wert: template
Ja

OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams

Name Typ Description Erforderlich Default
max_completion_tokens OpenAI.integer Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
Antwortformat Objekt Standardantwortformat. Wird verwendet, um Textantworten zu generieren. Nein
└– json_schema Objekt Konfigurationsoptionen für strukturierte Ausgaben, einschließlich eines JSON-Schemas. Nein
└– Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell
bestimmt wird, wie im Format geantwortet werden soll.
Nein
└– Name Schnur Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder
Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen).
Nein
└- Schema Objekt Nein
└– streng boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genau definierten Schema.
im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn
strict ist true. Weitere Informationen finden Sie in im Leitfaden für strukturierte
Ausgaben
.
Nein Falsch
└– Typ enum Der Typ des zu definierenden Antwortformats. Immer json_object.
Möglicher Wert: json_object
Nein
seed Objekt Nein
Temperatur Objekt Nein
Werkzeuge Array Nein
top_p Objekt Nein

OpenAI.CreateEvalCustomDataSourceConfig

Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird. Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Typ Description Erforderlich Default
Beispielschema einfügen boolean Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) Nein
Artikel-Schema Objekt Das JSON-Schema für jede Zeile in der Datenquelle. Ja
type enum Der Typ der Datenquelle. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.CreateEvalJsonlRunDataSource

Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht.

Name Typ Description Erforderlich Default
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– Typ enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Nein
type enum Der Typ der Datenquelle. Immer jsonl.
Möglicher Wert: jsonl
Ja

OpenAI.CreateEvalLogsDataSourceConfig

Eine Datenquellenkonfiguration, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw.

Name Typ Description Erforderlich Default
metadata Objekt Metadatenfilter für die Protokolldatenquelle. Nein
type enum Der Typ der Datenquelle. Immer logs.
Möglicher Wert: logs
Ja

OpenAI.CreateEvalResponsesRunDataSource

Ein ResponsesRunDataSource-Objekt, das die Konfiguration einer Modellstichprobenentnahme beschreibt.

Name Typ Description Erforderlich Default
Eingabenachrichten Objekt Nein
└– item_reference Schnur Nein
└- Vorlage Array Nein
└– Typ enum
Möglicher Wert: item_reference
Nein
Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
Parameter für Stichprobennahme OpenAI.CreateEvalResponsesRunDataSourceSamplingParams Nein
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– erstellt_nach OpenAI.integer Nein
└– created_before OpenAI.integer Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– instructions_search Schnur Nein
└- Metadaten Objekt Nein
└─ Modell Schnur Nein
└– reasoning_effort OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
└– Temperatur OpenAI.numeric Nein
└- Werkzeuge Array Nein
└– top_p OpenAI.numeric Nein
└– Typ enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Nein
└– Benutzer Array Nein
type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Ja

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference

Name Typ Description Erforderlich Default
item_reference Schnur Ja
type enum
Möglicher Wert: item_reference
Ja

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate

Name Typ Description Erforderlich Default
template Array Ja
type enum
Möglicher Wert: template
Ja

OpenAI.CreateEvalResponsesRunDataSourceSamplingParams

Name Typ Description Erforderlich Default
max_completion_tokens OpenAI.integer Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
seed Objekt Nein
Temperatur Objekt Nein
Text OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText Nein
Werkzeuge Array Nein
top_p Objekt Nein

OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText

Name Typ Description Erforderlich Default
format OpenAI.TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } ermöglicht strukturierten Ausgaben,
dadurch wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Weitere Informationen finden Sie in der


Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

*Nicht empfohlen für gpt-4o und neuere Modelle:**

Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, der
stellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schema
wird für Modelle bevorzugt, die es unterstützen.
Nein

OpenAI.CreateEvalStoredCompletionsDataSourceConfig

Veraltet zugunsten von LogsDataSourceConfig.

Name Typ Description Erforderlich Default
metadata Objekt Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. Nein
type enum Der Typ der Datenquelle. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.CreateFineTuningJobRequest

Gültige Modelle:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Name Typ Description Erforderlich Default
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
Dieser Wert ist nun zugunsten von method veraltet und sollte unter dem Parameter method übergeben werden.
Nein
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
Integrationen Array Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell string (siehe gültige Modelle unten) Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden
unterstützten Modelle verwenden.
Ja
seed Integer Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden.
Wenn Sie keinen Seed angeben, wird einer für Sie generiert.
Nein
suffix Schnur Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird.

Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen.
Nein Nichts
Trainingsdatei Schnur Die ID einer hochgeladenen Datei, die Trainingsdaten enthält.



Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.

Der Inhalt der Datei sollte sich unterscheiden, je nachdem, ob das Modell das ChatCompletion-Format verwendet oder wenn die Feinabstimmungsmethode das Präferenz-Format verwendet.

Weitere Details finden Sie in der Feinabstimmungsanleitung.
Ja
Validierungsdatei Schnur Die ID einer hochgeladenen Datei, die Validierungsdaten enthält.

Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs-
Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der
Feinabstimmungsergebnisdatei angezeigt werden.
Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein.

Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.

Weitere Details finden Sie in der Feinabstimmungsanleitung.
Nein

OpenAI.CreateFineTuningJobRequestIntegration

Diskriminator für OpenAI.CreateFineTuningJobRequestIntegration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Name Typ Description Erforderlich Default
type string (siehe gültige Modelle unten) Ja

OpenAI.CreateFineTuningJobRequestWandbIntegration

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: wandb
Ja
wandb Objekt Ja
└– Entität Schnur Nein
└– Name Schnur Nein
└- Projekt Schnur Nein
└- Tags Array Nein

OpenAI.CreateResponse

Name Typ Description Erforderlich Default
Agent Objekt Nein
└– Name Schnur Der Name des Agents. Nein
└– Typ enum
Möglicher Wert: agent_reference
Nein
└– Version Schnur Der Versionsbezeichner des Agents. Nein
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
Konversation (conversation) Objekt Nein
└– ID Schnur Nein
einschließen Array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Zurzeit
Unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung
in den Aufrufelementen des Code-Interpreter-Tools.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs
- file_search_call.results: Fügen Sie die Suchergebnisse von
des Aufrufs des Dateisuchtools.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-
Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in
mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B.
wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt ist
für das Null-Datenaufbewahrungsprogramm registriert).
Nein
Eingabe Zeichenfolge oder Array Nein
instructions Schnur Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– ID Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem
Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere
Antworteingabetypen wie Bilder oder Dateien sein.
Nein
└– Version Schnur Optionale Version der Promptvorlage. Nein
reasoning Objekt Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
└– generate_summary enum Veraltet: Verwenden Sie summary stattdessen. Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen. Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
nützlich zum Debuggen und Verstehen des Denkprozesses des Modells.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
Dienststufe Objekt Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.
* Bei Festlegung auf "Auto" wird die Anforderung mit der Dienstebene verarbeitet.
in den Project-Einstellungen konfiguriert. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
* Bei Festlegung auf "Standard" wird die Anforderung mit dem Standard verarbeitet.
Preise und Leistung für das ausgewählte Modell.
* Bei Festlegung auf "Flex"
oder "priority", dann wird die Anforderung mit dem entsprechenden Dienst verarbeitet.
Rang. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
* Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".

Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier
Wert basierend auf dem Verarbeitungsmodus, der tatsächlich zum Verarbeiten der Anforderung verwendet wird. Dieser Antwortwert
kann sich von dem im Parameter festgelegten Wert unterscheiden.
Nein
store boolean Gibt an, ob die generierte Modellantwort gespeichert werden soll zur späteren Abfrage über
API.
Nein Richtig
Datenstrom boolean Bei Festlegung auf "true" werden die Modellantwortdaten an den Client gestreamt.
da sie mithilfe von server-sent-Ereignissen generiert werden.

finden Sie weitere Informationen.
Nein Falsch
structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
tool_choice Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Nachricht oder eines Anrufs auswählen kann.
von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
Erfahren Sie mehr über integrierte Tools.
Nein
Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Dateisuche.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt.
Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
user Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Nein

OpenAI.DeletedConversationResource

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: conversation.deleted
Ja

OpenAI.EasyInputMessage

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
role Schnur Ja

OpenAI.Error

Name Typ Description Erforderlich Default
zusätzlicheInformationen Objekt Nein
Code Schnur Ja
debugInfo Objekt Nein
details Array Nein
Nachricht Schnur Ja
param Schnur Ja
type Schnur Ja

OpenAI.EvalApiError

Ein Objekt, das eine Fehlerantwort der Eval-API darstellt.

Name Typ Description Erforderlich Default
Code Schnur Der Fehlercode. Ja
Nachricht Schnur Die Fehlermeldung. Ja

OpenAI.EvalGraderLabelModel

Name Typ Description Erforderlich Default
Eingabe Array Ja
labels Array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
Name Schnur Name des Bewerters (Graders) Ja
passing_labels Array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
type enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.EvalGraderPython

Name Typ Description Erforderlich Default
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen Objekt Nein
source Schnur Der Quellcode des Python-Skripts. Ja
type enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.EvalGraderScoreModel

Name Typ Description Erforderlich Default
Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen Objekt Nein
range Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme Objekt Nein
└– max_completions_tokens OpenAI.integer Nein
└– reasoning_effort OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
└- Samen OpenAI.integer Nein
└– Temperatur OpenAI.numeric Nein
└– top_p OpenAI.numeric Nein
type enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.EvalGraderScoreModelSamplingParams

Name Typ Description Erforderlich Default
max_completions_tokens Objekt Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
seed Objekt Nein
Temperatur Objekt Nein
top_p Objekt Nein

OpenAI.EvalGraderStringCheck

Name Typ Description Erforderlich Default
Eingabe Schnur Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Name Schnur Name des Bewerters (Graders) Ja
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Ja
Referenz Schnur Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
type enum Der Objekttyp, der immer string_check ist.
Möglicher Wert: string_check
Ja

OpenAI.EvalGraderTextSimilarity

Name Typ Description Erforderlich Default
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer der folgenden Werte: cosine, fuzzy_match, bleu,
gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5
oder rouge_l.
Mögliche Werte: cosine, , fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2rouge_3rouge_4rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen Objekt Ja
Referenz Schnur Der Text, für die Bewertung. Ja
type enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.EvalItem

Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Typ Description Erforderlich Default
Inhalt Objekt Eine Texteingabe für das Modell. Ja
└– Daten Schnur Base64-codierte Audiodaten. Nein
└– Detail Schnur Nein
└─ Format enum Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und
wav.
Mögliche Werte: mp3, wav
Nein
└– image_url Schnur Nein
└– Text Schnur Nein
└– Typ enum Der Typ des Eingabeelements. Immer input_audio.
Möglicher Wert: input_audio
Nein
role enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder
developer.
Mögliche Werte: user, , assistant, systemdeveloper
Ja
type enum Der Typ der Nachrichteneingabe. Immer message.
Möglicher Wert: message
Nein

OpenAI.EvalItemContentInputImage

Name Typ Description Erforderlich Default
detail Schnur Nein
image_url Schnur Ja
type enum
Möglicher Wert: input_image
Ja

OpenAI.EvalItemContentOutputText

Name Typ Description Erforderlich Default
Text Schnur Ja
type enum
Möglicher Wert: output_text
Ja

OpenAI.EvalJsonlFileContentSource

Name Typ Description Erforderlich Default
Inhalt Array Der Inhalt der JSONL-Datei. Ja
type enum Der Typ der JSONL-Quelle. Immer file_content.
Möglicher Wert: file_content
Ja

OpenAI.EvalJsonlFileContentSourceContent

Name Typ Description Erforderlich Default
item Objekt Ja
Beispiel Objekt Nein

OpenAI.EvalJsonlFileIdSource

Name Typ Description Erforderlich Default
id Schnur Der Bezeichner der Datei. Ja
type enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Ja

OpenAI.EvalResponsesSource

Ein EvalResponsesSource-Objekt, das die Datenquellenkonfiguration einer Ausführung beschreibt.

Name Typ Description Erforderlich Default
created_after Objekt Nein
erstellt_vor Objekt Nein
instructions_search Schnur Nein
metadata Objekt Nein
Modell Schnur Nein
Denkanstrengung Objekt Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
Temperatur Objekt Nein
Werkzeuge Array Nein
top_p Objekt Nein
type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Ja
Nutzer Array Nein

OpenAI.EvalRunOutputItemSample

Name Typ Description Erforderlich Default
Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Ja
Beendigungsgrund Schnur Ja
Eingabe Array Ja
max_completion_tokens OpenAI.integer Ja
Modell Schnur Ja
output Array Ja
seed OpenAI.integer Ja
Temperatur OpenAI.numeric Ja
top_p OpenAI.numeric Ja
usage OpenAI.EvalRunOutputItemSampleUsage Ja

OpenAI.EvalRunOutputItemSampleInput

Name Typ Description Erforderlich Default
Inhalt Schnur Ja
role Schnur Ja

OpenAI.EvalRunOutputItemSampleOutput

Name Typ Description Erforderlich Default
Inhalt Schnur Nein
role Schnur Nein

OpenAI.EvalRunOutputItemSampleUsage

Name Typ Description Erforderlich Default
cached_tokens OpenAI.integer Ja
completion_tokens OpenAI.integer Ja
prompt_tokens OpenAI.integer Ja
Gesamtanzahl Tokens OpenAI.integer Ja

OpenAI.EvalRunPerModelUsage

Name Typ Description Erforderlich Default
cached_tokens OpenAI.integer Ja
completion_tokens OpenAI.integer Ja
invocation_count OpenAI.integer Ja
model_name Schnur Ja
prompt_tokens OpenAI.integer Ja
Gesamtanzahl Tokens OpenAI.integer Ja

OpenAI.EvalRunPerTestingCriteriaResults

Name Typ Description Erforderlich Default
misslungen OpenAI.integer Ja
verabschiedet OpenAI.integer Ja
Testkriterien Schnur Ja

OpenAI.EvalRunResultCounts

Name Typ Description Erforderlich Default
fehlered OpenAI.integer Ja
misslungen OpenAI.integer Ja
verabschiedet OpenAI.integer Ja
gesamt OpenAI.integer Ja

OpenAI.EvalStoredCompletionsSource

Eine StoredCompletionsRunDataSource-Konfiguration, die eine Gruppe von Filtern beschreibt

Name Typ Description Erforderlich Default
created_after Objekt Nein
erstellt_vor Objekt Nein
limit Objekt Nein
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Modell Schnur Nein
type enum Der Quelltyp. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.FileSearchTool

Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.

Name Typ Description Erforderlich Default
filters Objekt Nein
max_anzahl_ergebnisse Integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. Nein
Ranglistenoptionen Objekt Nein
└– Ranker enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
Nein
└─ Punktschwelle number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. Nein
type enum Der Typ des Dateisuchtools. Immer file_search.
Möglicher Wert: file_search
Ja
vector_store_ids Array Die IDs der zu durchsuchenden Vektorspeicher. Ja

OpenAI.FileSearchToolCallItemParam

Die Ergebnisse eines Dateisuchtoolaufrufs. Weitere Informationen finden Sie in der Anleitung zur Dateisuche .

Name Typ Description Erforderlich Default
Abfragen Array Die Zum Suchen nach Dateien verwendeten Abfragen. Ja
results Array Die Ergebnisse des Aufrufs des Dateisuchtools. Nein
type enum
Möglicher Wert: file_search_call
Ja

OpenAI.FileSearchToolCallItemResource

Die Ergebnisse eines Dateisuchtoolaufrufs. Weitere Informationen finden Sie in der Anleitung zur Dateisuche .

Name Typ Description Erforderlich Default
Abfragen Array Die Zum Suchen nach Dateien verwendeten Abfragen. Ja
results Array Die Ergebnisse des Aufrufs des Dateisuchtools. Nein
status enum Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress,
searching, incomplete oder failed
Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Ja
type enum
Möglicher Wert: file_search_call
Ja

OpenAI.Filters

Name Typ Description Erforderlich Default
filters Array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Ja
Schlüssel Schnur Der Schlüssel für den Vergleich mit dem Wert Ja
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Ja
Wert Zeichenfolge oder Zahl oder boolescher Wert Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. Ja

OpenAI.FineTuneDPOHyperparameters

Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden.

Name Typ Description Erforderlich Default
Batch-Größe enum
Möglicher Wert: auto
Nein
Beta enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein

OpenAI.FineTuneDPOMethod

Konfiguration für die DPO-Feinabstimmungsmethode.

Name Typ Description Erforderlich Default
Hyperparameter OpenAI.FineTuneDPOHyperparameters Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden. Nein

OpenAI.FineTuneMethod

Die Methode, die für die Feinabstimmung verwendet wird.

Name Typ Description Erforderlich Default
dpo OpenAI.FineTuneDPOMethod Konfiguration für die DPO-Feinabstimmungsmethode. Nein
Verstärkung OpenAI.FineTuneReinforcementMethod Konfiguration für die Optimierungsmethode zur Verstärkung. Nein
überwacht OpenAI.FineTuneSupervisedMethod Konfiguration für die überwachte Feinabstimmungsmethode. Nein
type enum Der Typ der Methode. Ist entweder supervised, dpo oder reinforcement.
Mögliche Werte: supervised, , dporeinforcement
Ja

OpenAI.FineTuneReinforcementHyperparameters

Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter.

Name Typ Description Erforderlich Default
Batch-Größe enum
Möglicher Wert: auto
Nein
compute_multiplier enum
Möglicher Wert: auto
Nein
eval_interval enum
Möglicher Wert: auto
Nein
eval_samples enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein
Denkanstrengung enum Ebene des Begründungsaufwands.
Mögliche Werte: default, , low, mediumhigh
Nein

OpenAI.FineTuneReinforcementMethod

Konfiguration für die Optimierungsmethode zur Verstärkung.

Name Typ Description Erforderlich Default
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└– calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer der folgenden Werte: cosine, fuzzy_match, bleu,
gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5
oder rouge_l.
Mögliche Werte: cosine, , fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2rouge_3rouge_4rouge_5rouge_l
Nein
└– Noten OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderLabelModel Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter OpenAI.EvalGraderScoreModelSamplingParams Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein
Hyperparameter OpenAI.FineTuneReinforcementHyperparameters Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter. Nein

OpenAI.FineTuneSupervisedHyperparameters

Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.

Name Typ Description Erforderlich Default
Batch-Größe enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein

OpenAI.FineTuneSupervisedMethod

Konfiguration für die überwachte Feinabstimmungsmethode.

Name Typ Description Erforderlich Default
Hyperparameter OpenAI.FineTuneSupervisedHyperparameters Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Nein

OpenAI.FineTuningIntegration

Diskriminator für OpenAI.FineTuningIntegration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
wandb OpenAI.FineTuningIntegrationWandb
Name Typ Description Erforderlich Default
type string (siehe gültige Modelle unten) Ja

OpenAI.FineTuningIntegrationWandb

Name Typ Description Erforderlich Default
type enum Der Typ der Integration, die für den Feinabstimmungsauftrag aktiviert wird
Möglicher Wert: wandb
Ja
wandb Objekt Die Einstellungen für Ihre Integration mit Gewichtungen und Trends. Diese Nutzdaten geben das Projekt an, zu dem
Metriken gesendet werden. Optional können Sie einen expliziten Anzeigenamen für Ihre Ausführung festlegen, Tags hinzufügen
zu Ihrer Ausführung, und eine Standardentität (Team, Benutzername usw.) festlegen, die Ihrer Ausführung zugeordnet werden soll.
Ja
└– Entität Schnur Die Entität, die für die Ausführung verwendet werden soll. Auf diese Weise können Sie das Team oder den Benutzernamen des WandB-Benutzers festlegen, den Sie
mit der Ausführung verknüpft haben möchten. Wenn nicht festgelegt, wird die Standardentität für den registrierten WandB-API-Schlüssel verwendet.
Nein
└– Name Schnur Ein Anzeigename, der für die Ausführung festgelegt werden soll. Wenn nicht festgelegt, verwenden wir die Auftrags-ID als Namen. Nein
└- Projekt Schnur Der Name des Projekts, unter dem die neue Ausführung erstellt wird. Nein
└- Tags Array Eine Liste der Tags, die der neu erstellten Ausführung angefügt werden sollen. Diese Tags werden direkt an WandB weitergeleitet. Some
Standardtags werden von OpenAI generiert: „openai/finetune“, „openai/{base-model}“, „openai/{ftjob-abcdef}“.
Nein

OpenAI.FineTuningJob

Das Objekt fine_tuning.job stellt einen Feinabstimmungsauftrag dar, der über die API erstellt wurde.

Name Typ Description Erforderlich Default
erstellt_am Integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. Ja
Fehler Objekt Bei Feinabstimmungsaufträgen mit Status failed, wird dies weitere Informationen zur Ursache des Fehlers enthalten. Ja
└– Code Schnur Ein computerlesbarer Fehlercode. Nein
└– Nachricht Schnur Eine für Menschen lesbare Fehlermeldung. Nein
└─ param Schnur Der Parameter, der ungültig war, in der Regel training_file oder validation_file. Dieses Feld ist null, wenn der Fehler nicht parameterspezifisch war. Nein
geschätzte Fertigstellung Integer Unix-Zeitstempel (in Sekunden) für die Vervollständigung des Feinabstimmungsauftrags. Der Wert wird NULL sein, wenn der Feinabstimmungsauftrag nicht ausgeführt wird. Nein
fine_tuned_model Schnur Der Name des fein abgestimmten Modells, das erstellt wird. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
finished_at Integer Der Unix-Zeitstempel (in Sekunden) für den Abschlusszeitpunkt des Feinabstimmungsauftrags. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert wird nur zurückgegeben, wenn supervised Aufträge ausgeführt werden. Ja
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
id Schnur Der Objektbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Integrationen Array Eine Liste der Integrationen, die für diesen Feinabstimmungsauftrag aktiviert werden sollen. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell Schnur Das Basismodell, das fein abgestimmt wird. Ja
Objekt enum Der Objekttyp, der immer „fine_tuning.job“ ist.
Möglicher Wert: fine_tuning.job
Ja
organization_id Schnur Die Organisation, die den Feinabstimmungsauftrag besitzt. Ja
Ergebnisdateien Array Die kompilierten Ergebnisdatei-ID(s) für den Feinabstimmungsauftrag. Sie können die Ergebnisse mit der Datei-API abrufen. Ja
seed Integer Der für den Optimierungsauftrag verwendete Seed Ja
status enum Der aktuelle Status des Feinabstimmungsauftrags, der entweder validating_files, queued, running, succeeded, failed oder cancelled sein kann.
Mögliche Werte: validating_files, , queued, runningsucceeded, , , failedcancelled
Ja
trainierte Token Integer Die Gesamtzahl der verrechenbaren Tokens, die durch diesen Feinabstimmungsauftrag verarbeitet wurden. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
Trainingsdatei Schnur Die Datei-ID, die für das Training verwendet wird. Sie können die Trainingsdaten mit der Datein-API abrufen. Ja
user_provided_suffix Schnur Das beschreibende Suffix, das auf den Auftrag angewendet wurde, wie in der Auftragserstellungsanforderung angegeben. Nein
Validierungsdatei Schnur Die zur Überprüfung verwendete Datei-ID. Sie können die Überprüfungsergebnisse mit der Datein-API abrufen. Ja

OpenAI.FineTuningJobCheckpoint

Das Objekt fine_tuning.job.checkpoint stellt einen Modellprüfpunkt für einen Feinabstimmungsauftrag dar, der zur Verwendung bereit ist.

Name Typ Description Erforderlich Default
erstellt_am Integer Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Prüfpunkts. Ja
fine_tuned_model_checkpoint Schnur Der Name des erstellten fein abgestimmten Prüfpunktmodells. Ja
fine_tuning_job_id Schnur Name des Optimierungsauftrags, aus dem dieser Prüfpunkt erstellt wurde Ja
id Schnur Der Prüfpunktbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
metrics Objekt Metriken bei der Schrittnummer während des Feinabstimmungsauftrags. Ja
└– full_valid_loss number Nein
└– Durchschnittliche Token-Genauigkeit für die gültigen vollständigen Daten number Nein
└– Schritt number Nein
└– train_loss number Nein
└– train_mean_token_accuracy number Nein
└– valid_loss number Nein
└– valid_mean_token_accuracy number Nein
Objekt enum Der Objekttyp, der immer „fine_tuning.job.checkpoint“ ist.
Möglicher Wert: fine_tuning.job.checkpoint
Ja
Schrittnummer Integer Die Schrittnummer, bei der der Prüfpunkt erstellt wurde. Ja

OpenAI.FineTuningJobEvent

Ereignisobjekt des Feinabstimmungsauftrags

Name Typ Description Erforderlich Default
erstellt_am Integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. Ja
Daten Die dem Ereignis zugeordneten Daten. Nein
id Schnur Der Objektbezeichner. Ja
Ebene enum Der Protokolliergrad des Ereignisses.
Mögliche Werte: info, , warnerror
Ja
Nachricht Schnur Die Meldung des Ereignisses. Ja
Objekt enum Der Objekttyp, der immer „fine_tuning.job.event“ ist.
Möglicher Wert: fine_tuning.job.event
Ja
type enum Den Typ des Ereignisses
Mögliche Werte: message, metrics
Nein

OpenAI.FunctionObject

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
Name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
parameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Nein
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. Weitere Informationen zu strukturierten Ausgaben in der Nein Falsch

OpenAI.FunctionTool

Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll. Nein
Name Schnur Der Name der aufzurufenden Funktion. Ja
parameters Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt. Ja
strict boolean Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standard-true. Ja
type enum Der Typ des Funktionstools. Immer function.
Möglicher Wert: function
Ja

OpenAI.FunctionToolCallItemParam

Ein Toolaufruf zum Ausführen einer Funktion. Weitere Informationen finden Sie in der Funktionsaufrufanleitung.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
Name Schnur Der Name der auszuführenden Funktion. Ja
type enum
Möglicher Wert: function_call
Ja

OpenAI.FunctionToolCallItemResource

Ein Toolaufruf zum Ausführen einer Funktion. Weitere Informationen finden Sie in der Funktionsaufrufanleitung.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
Name Schnur Der Name der auszuführenden Funktion. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: function_call
Ja

OpenAI.FunctionToolCallOutputItemParam

Die Ausgabe eines Funktionstoolaufrufs

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Funktionswerzeugaufrufs. Ja
type enum
Möglicher Wert: function_call_output
Ja

OpenAI.FunctionToolCallOutputItemResource

Die Ausgabe eines Funktionstoolaufrufs

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Funktionswerzeugaufrufs. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: function_call_output
Ja

OpenAI.GraderLabelModel

Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.

Name Typ Description Erforderlich Default
Eingabe Array Ja
labels Array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
Name Schnur Name des Bewerters (Graders) Ja
passing_labels Array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
type enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.GraderMulti

Ein MultiGrader-Objekt kombiniert die Ausgabe mehrerer Bewerter, um eine einzelne Bewertung zu erzeugen.

Name Typ Description Erforderlich Default
calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Ja
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer der folgenden Werte: cosine, fuzzy_match, bleu,
gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5
oder rouge_l.
Mögliche Werte: cosine, , fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2rouge_3rouge_4rouge_5rouge_l
Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe Array Nein
└- Etiketten Array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– passing_labels Array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Nein
└– Bereich Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter OpenAI.EvalGraderScoreModelSamplingParams Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Nein
Name Schnur Name des Bewerters (Graders) Ja
type enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Ja

OpenAI.GraderPython

Ein PythonGrader-Objekt, das ein Python-Skript für die Eingabe ausführt.

Name Typ Description Erforderlich Default
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
Name Schnur Name des Bewerters (Graders) Ja
source Schnur Der Quellcode des Python-Skripts. Ja
type enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.GraderScoreModel

Ein ScoreModelGrader-Objekt, das ein Modell verwendet, um der Eingabe eine Bewertung zuzuweisen.

Name Typ Description Erforderlich Default
Eingabe Array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
Name Schnur Name des Bewerters (Graders) Ja
range Array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme Objekt Nein
└– max_completions_tokens OpenAI.integer Nein
└– reasoning_effort OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
└- Samen OpenAI.integer Nein
└– Temperatur OpenAI.numeric Nein
└– top_p OpenAI.numeric Nein
type enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.GraderStringCheck

Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt.

Name Typ Description Erforderlich Default
Eingabe Schnur Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Name Schnur Name des Bewerters (Graders) Ja
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Ja
Referenz Schnur Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
type enum Der Objekttyp, der immer string_check ist.
Möglicher Wert: string_check
Ja

OpenAI.GraderTextSimilarity

Ein TextSimilarityGrader -Objekt, das Text basierend auf Ähnlichkeitsmetriken benotet.

Name Typ Description Erforderlich Default
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer der folgenden Werte: cosine, fuzzy_match, bleu,
gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5
oder rouge_l.
Mögliche Werte: cosine, , fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2rouge_3rouge_4rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
Name Schnur Name des Bewerters (Graders) Ja
Referenz Schnur Der Text, für die Bewertung. Ja
type enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.ImageGenTool

Mithilfe eines Modells wie gpt-image-1 generiert ein Tool Bilder.

Name Typ Description Erforderlich Default
background enum Hintergrundtyp für das generierte Bild. Einer von transparent,
opaque oder auto. Standardwert: auto.
Mögliche Werte: transparent, , opaqueauto
Nein
input_image_mask Objekt Optionale Maske für die Bildbearbeitung. Enthält image_url
(Zeichenfolge, optional) und file_id (Zeichenfolge, optional).
Nein
└– file_id Schnur Datei-ID für das Maskenbild. Nein
└– image_url Schnur Base64-codiertes Maskenbild. Nein
Modell enum Das zu verwendende Modell der Bildgenerierung. Standardwert: gpt-image-1.
Möglicher Wert: gpt-image-1
Nein
moderation enum Moderationsebene für das generierte Bild. Standardwert: auto.
Mögliche Werte: auto, low
Nein
Ausgabekomprimierung Integer Komprimierungsebene für das Ausgabebild. Standardwert: 100. Nein 100
Ausgabeformat enum Das Ausgabeformat des generierten Bilds. Einer von png, , webpoder
jpeg. Standardwert: png.
Mögliche Werte: png, , webpjpeg
Nein
unvollständige Bilder Integer Anzahl der Teilbilder, die im Streamingmodus generiert werden sollen, von 0 (Standardwert) bis 3. Nein 0
quality enum Die Qualität des generierten Bilds. Einer der folgenden Werte: low, medium, high,
oder auto. Standardwert: auto.
Mögliche Werte: low, , medium, highauto
Nein
Größe enum Die Größe des generierten Bilds. Einer der folgenden Werte: 1024x1024, 1024x1536,
1536x1024 oder auto. Standardwert: auto.
Mögliche Werte: 1024x1024, , 1024x1536, 1536x1024auto
Nein
type enum Der Typ des Tools zur Bildgenerierung. Immer image_generation.
Möglicher Wert: image_generation
Ja

OpenAI.ImageGenToolCallItemParam

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Typ Description Erforderlich Default
Ergebnis Schnur Das generierte Bild, das in Base64 codiert wurde. Ja
type enum
Möglicher Wert: image_generation_call
Ja

OpenAI.ImageGenToolCallItemResource

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Typ Description Erforderlich Default
Ergebnis Schnur Das generierte Bild, das in Base64 codiert wurde. Ja
status enum
Mögliche Werte: in_progress, , completed, generatingfailed
Ja
type enum
Möglicher Wert: image_generation_call
Ja

OpenAI.Includable

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:

  • code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
  • computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen.
  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
  • reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
Eigentum Wert
Beschreibung Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Zurzeit
Unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung
in den Aufrufelementen des Code-Interpreter-Tools.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs
- file_search_call.results: Fügen Sie die Suchergebnisse von
des Aufrufs des Dateisuchtools.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-
Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in
mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B.
wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt ist
für das Null-Datenaufbewahrungsprogramm registriert).
Typ Schnur
Werte code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content
web_search_call.results
web_search_call.action.sources
memory_search_call.results

OpenAI.ItemContent

Diskriminator für OpenAI.ItemContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Name Typ Description Erforderlich Default
type OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. Ja

OpenAI.ItemContentInputAudio

Eine Audioeingabe für das Modell.

Name Typ Description Erforderlich Default
Daten Schnur Base64-codierte Audiodaten. Ja
format enum Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und
wav.
Mögliche Werte: mp3, wav
Ja
type enum Der Typ des Eingabeelements. Immer input_audio.
Möglicher Wert: input_audio
Ja

OpenAI.ItemContentInputFile

Eine Dateieingabe für das Modell.

Name Typ Description Erforderlich Default
file_data Schnur Der Inhalt der Datei, die an das Modell gesendet werden soll. Nein
Datei-ID Schnur Die ID der Datei, die an das Modell gesendet werden soll. Nein
filename Schnur Der Name der Datei, die an das Modell gesendet werden soll. Nein
type enum Der Typ des Eingabeelements. Immer input_file.
Möglicher Wert: input_file
Ja

OpenAI.ItemContentInputImage

Eine Bildeingabe für das Modell. Erfahren Sie mehr über Bildeingaben.

Name Typ Description Erforderlich Default
detail enum Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer der folgenden Werte: high, low oder auto. Wird standardmäßig auf auto festgelegt.
Mögliche Werte: low, , highauto
Nein
Datei-ID Schnur Die ID der Datei, die an das Modell gesendet werden soll. Nein
image_url Schnur Die URL des Bilds, das an das Modell gesendet werden soll. Ein vollständig qualifizierte URL oder ein base64-codiertes Bild innerhalb einer Daten-URL. Nein
type enum Der Typ des Eingabeelements. Immer input_image.
Möglicher Wert: input_image
Ja

OpenAI.ItemContentInputText

Eine Texteingabe für das Modell.

Name Typ Description Erforderlich Default
Text Schnur Die Texteingabe für das Modell. Ja
type enum Der Typ des Eingabeelements. Immer input_text.
Möglicher Wert: input_text
Ja

OpenAI.ItemContentOutputAudio

Eine Audioausgabe aus dem Modell.

Name Typ Description Erforderlich Default
Daten Schnur Base64-codierte Audiodaten aus dem Modell. Ja
Transkript Schnur Die Transkription der Audiodaten aus dem Modell. Ja
type enum Der Typ des Ausgabeaudios. Immer output_audio.
Möglicher Wert: output_audio
Ja

OpenAI.ItemContentOutputText

Eine Textausgabe aus dem Modell.

Name Typ Description Erforderlich Default
Anmerkungen Array Die Anmerkungen der Textausgabe Ja
logprobs Array Nein
Text Schnur Die Textausgabe aus dem Modell. Ja
type enum Der Typ des Ausgabetexts. Immer output_text.
Möglicher Wert: output_text
Ja

OpenAI.ItemContentRefusal

Eine Ablehnung des Modells

Name Typ Description Erforderlich Default
Ablehnung Schnur Die Erklärung der Ablehnung aus dem Modell. Ja
type enum Die Art der Ablehnung. Immer refusal.
Möglicher Wert: refusal
Ja

OpenAI.ItemContentType

Mehr modaler Eingabe- und Ausgabeinhalt.

Eigentum Wert
Beschreibung Mehr modaler Eingabe- und Ausgabeinhalt.
Typ Schnur
Werte input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
message OpenAI.ResponsesMessageItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
memory_search_call MemorySearchToolCallItemParam
Name Typ Description Erforderlich Default
type OpenAI.ItemType Ja

OpenAI.ItemReferenceItemParam

Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.

Name Typ Description Erforderlich Default
id Schnur Die dienstseitig erzeugte ID des zuvor generierten Antwortelements, auf die verwiesen wird. Ja
type enum
Möglicher Wert: item_reference
Ja

OpenAI.ItemResource

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
structured_outputs StructuredOutputsItemResource
workflow_action WorkflowActionOutputItemResource
oauth_consent_request OAuthConsentRequestItemResource
message OpenAI.ResponsesMessageItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_call OpenAI.MCPCallItemResource
memory_search_call MemorySearchToolCallItemResource
Name Typ Description Erforderlich Default
created_by Objekt Nein
└– Agent AgentId Der Agent, der das Element erstellt hat. Nein
└– response_id Schnur Die Antwort, auf der das Element erstellt wird. Nein
id Schnur Ja
type OpenAI.ItemType Ja

OpenAI.ItemType

Eigentum Wert
Typ Schnur
Werte message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call
structured_outputs
workflow_action
memory_search_call
oauth_consent_request

OpenAI.ListFineTuningJobCheckpointsResponse

Name Typ Description Erforderlich Default
Daten Array Ja
first_id Schnur Nein
has_more boolean Ja
last_id Schnur Nein
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListFineTuningJobEventsResponse

Name Typ Description Erforderlich Default
Daten Array Ja
has_more boolean Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListPaginatedFineTuningJobsResponse

Name Typ Description Erforderlich Default
Daten Array Ja
has_more boolean Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.LocalShellExecAction

Führen Sie einen Shellbefehl auf dem Server aus.

Name Typ Description Erforderlich Default
command Array Der auszuführende Befehl. Ja
Umgebung Objekt Umgebungsvariablen, die für den Befehl festgelegt werden sollen. Ja
timeout_ms Integer Optionales Zeitlimit in Millisekunden für den Befehl. Nein
type enum Der Typ der lokalen Shellaktion. Immer exec.
Möglicher Wert: exec
Ja
user Schnur Optionaler Benutzer, als welcher der Befehl ausgeführt werden soll. Nein
working_directory Schnur Optionales Arbeitsverzeichnis, in dem der Befehl ausgeführt werden soll. Nein

OpenAI.LocalShellTool

Ein Tool, mit dem das Modell Shellbefehle in einer lokalen Umgebung ausführen kann.

Name Typ Description Erforderlich Default
type enum Der Typ des lokalen Shelltools. Immer local_shell.
Möglicher Wert: local_shell
Ja

OpenAI.LocalShellToolCallItemParam

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ Description Erforderlich Default
Handlung OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
type enum
Möglicher Wert: local_shell_call
Ja

OpenAI.LocalShellToolCallItemResource

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ Description Erforderlich Default
Handlung OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
status enum
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: local_shell_call
Ja

OpenAI.LocalShellToolCallOutputItemParam

Die Ausgabe eines Aufrufs eines lokalen Shelltools.

Name Typ Description Erforderlich Default
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. Ja
type enum
Möglicher Wert: local_shell_call_output
Ja

OpenAI.LocalShellToolCallOutputItemResource

Die Ausgabe eines Aufrufs eines lokalen Shelltools.

Name Typ Description Erforderlich Default
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. Ja
status enum
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum
Möglicher Wert: local_shell_call_output
Ja

OpenAI.Location

Diskriminator für OpenAI.Location

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
approximate OpenAI.ApproximateLocation
Name Typ Description Erforderlich Default
type OpenAI.LocationType Ja

OpenAI.LocationType

Eigentum Wert
Typ Schnur
Werte approximate

OpenAI.LogProb

Die Protokollwahrscheinlichkeit eines Tokens.

Name Typ Description Erforderlich Default
Byte Array Ja
logprob number Ja
token Schnur Ja
top_logprobs Array Ja

OpenAI.MCPApprovalRequestItemParam

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
Name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Ja
type enum
Möglicher Wert: mcp_approval_request
Ja

OpenAI.MCPApprovalRequestItemResource

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
Name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Ja
type enum
Möglicher Wert: mcp_approval_request
Ja

OpenAI.MCPApprovalResponseItemParam

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Typ Description Erforderlich Default
approval_request_id Schnur Die ID der Genehmigungsanforderung, die beantwortet wird. Ja
Genehmigen boolean Gibt an, ob die Anforderung genehmigt wurde. Ja
Grund Schnur Optionaler Grund für die Entscheidung. Nein
type enum
Möglicher Wert: mcp_approval_response
Ja

OpenAI.MCPApprovalResponseItemResource

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Typ Description Erforderlich Default
approval_request_id Schnur Die ID der Genehmigungsanforderung, die beantwortet wird. Ja
Genehmigen boolean Gibt an, ob die Anforderung genehmigt wurde. Ja
Grund Schnur Optionaler Grund für die Entscheidung. Nein
type enum
Möglicher Wert: mcp_approval_response
Ja

OpenAI.MCPCallItemParam

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Schnur Der Fehler des Toolaufrufs( falls vorhanden). Nein
Name Schnur Der Name des tools, das ausgeführt wurde. Ja
output Schnur Die Ausgabe vom Toolaufruf. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
type enum
Möglicher Wert: mcp_call
Ja

OpenAI.MCPCallItemResource

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Schnur Der Fehler des Toolaufrufs( falls vorhanden). Nein
Name Schnur Der Name des tools, das ausgeführt wurde. Ja
output Schnur Die Ausgabe vom Toolaufruf. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
type enum
Möglicher Wert: mcp_call
Ja

OpenAI.MCPListToolsItemParam

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ Description Erforderlich Default
Fehler Schnur Fehlermeldung, wenn der Server keine Tools auflisten konnte. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge Array Die auf dem Server verfügbaren Tools. Ja
type enum
Möglicher Wert: mcp_list_tools
Ja

OpenAI.MCPListToolsItemResource

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ Description Erforderlich Default
Fehler Schnur Fehlermeldung, wenn der Server keine Tools auflisten konnte. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge Array Die auf dem Server verfügbaren Tools. Ja
type enum
Möglicher Wert: mcp_list_tools
Ja

OpenAI.MCPListToolsTool

Ein Tool, das auf einem MCP-Server verfügbar ist.

Name Typ Description Erforderlich Default
Anmerkungen Zusätzliche Anmerkungen zum Tool. Nein
Beschreibung Schnur Die Beschreibung des Tools. Nein
input_schema Das JSON-Schema, das die Eingabe des Tools beschreibt. Ja
Name Schnur Der Name des Tools. Ja

OpenAI.MCPTool

Gewähren Sie dem Modell Zugriff auf zusätzliche Tools über MCP-Server (Remote Model Context Protocol). Erfahren Sie mehr über MCP.

Name Typ Description Erforderlich Default
erlaubte_Werkzeuge Objekt Nein
└– tool_names Array Liste der zulässigen Toolnamen. Nein
headers Objekt Optionale HTTP-Header, die an den MCP-Server gesendet werden sollen. Verwendung für die Authentifizierung
oder andere Zwecke.
Nein
project_connection_id Schnur Die Verbindungs-ID im Projekt für den MCP-Server. In der Verbindung werden die Authentifizierung und andere Verbindungsdetails gespeichert, die für die Verbindung mit dem MCP-Server erforderlich sind. Nein
Genehmigung erforderlich Objekt (siehe unten für gültige Modelle) Geben Sie an, welche Tools des MCP-Servers eine Genehmigung erfordern. Nein
Serverbeschriftung Schnur Eine Bezeichnung für diesen MCP-Server, die verwendet wird, um sie in Toolaufrufen zu identifizieren. Ja
server_url Schnur Die URL für den MCP-Server. Ja
type enum Der Typ des MCP-Tools. Immer mcp.
Möglicher Wert: mcp
Ja

OpenAI.Metadata

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

Typ: Objekt

OpenAI.Prompt

Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr.

Name Typ Description Erforderlich Default
id Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Ja
variables Objekt Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem
Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere
Antworteingabetypen wie Bilder oder Dateien sein.
Nein
version Schnur Optionale Version der Promptvorlage. Nein

OpenAI.RankingOptions

Name Typ Description Erforderlich Default
Bewerter enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
Nein
score-threshold number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. Nein

OpenAI.Reasoning

Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.

Name Typ Description Erforderlich Default
effort Objekt Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
generate_summary enum Veraltet: Verwenden Sie summary stattdessen. Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen. Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
nützlich zum Debuggen und Verstehen des Denkprozesses des Modells.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein

OpenAI.ReasoningEffort

Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.

Eigentum Wert
Beschreibung Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Typ Schnur
Werte none
minimal
low
medium
high

OpenAI.ReasoningItemParam

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Stellen Sie sicher, dass Sie diese Elemente in input Ihre Antwort-API für nachfolgende Durchläufe einer Konversation aufnehmen, wenn Sie den Unterhaltungsstatus manuell verwalten.

Name Typ Description Erforderlich Default
encrypted_content Schnur Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort erfolgt
Generiert mit reasoning.encrypted_content im include Parameter.
Nein
summary Array Begründung der Textinhalte. Ja
type enum
Möglicher Wert: reasoning
Ja

OpenAI.ReasoningItemResource

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Stellen Sie sicher, dass Sie diese Elemente in input Ihre Antwort-API für nachfolgende Durchläufe einer Konversation aufnehmen, wenn Sie den Unterhaltungsstatus manuell verwalten.

Name Typ Description Erforderlich Default
encrypted_content Schnur Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort erfolgt
Generiert mit reasoning.encrypted_content im include Parameter.
Nein
summary Array Begründung der Textinhalte. Ja
type enum
Möglicher Wert: reasoning
Ja

OpenAI.ReasoningItemSummaryPart

Diskriminator für OpenAI.ReasoningItemSummaryPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
summary_text OpenAI.ReasoningItemSummaryTextPart
Name Typ Description Erforderlich Default
type OpenAI.ReasoningItemSummaryPartType Ja

OpenAI.ReasoningItemSummaryPartType

Eigentum Wert
Typ Schnur
Werte summary_text

OpenAI.ReasoningItemSummaryTextPart

Name Typ Description Erforderlich Default
Text Schnur Ja
type enum
Möglicher Wert: summary_text
Ja

OpenAI.Response

Name Typ Description Erforderlich Default
Agent Objekt Nein
└– Name Schnur Der Name des Agents. Nein
└– Typ enum
Möglicher Wert: agent_id
Nein
└– Version Schnur Der Versionsbezeichner des Agents. Nein
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
Konversation (conversation) Objekt Ja
└– ID Schnur Nein
erstellt_am Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
Fehler Objekt Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Ja
└– Code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Nein
└– Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Nein
id Schnur Eindeutiger Bezeichner für diese Antwort Ja
incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Ja
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
instructions Zeichenfolge oder Array Ja
max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
output Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
output_text Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im output Array, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– ID Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem
Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere
Antworteingabetypen wie Bilder oder Dateien sein.
Nein
└– Version Schnur Optionale Version der Promptvorlage. Nein
reasoning Objekt Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
└– generate_summary enum Veraltet: Verwenden Sie summary stattdessen. Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen. Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
nützlich zum Debuggen und Verstehen des Denkprozesses des Modells.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
Dienststufe Objekt Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.
* Bei Festlegung auf "Auto" wird die Anforderung mit der Dienstebene verarbeitet.
in den Project-Einstellungen konfiguriert. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
* Bei Festlegung auf "Standard" wird die Anforderung mit dem Standard verarbeitet.
Preise und Leistung für das ausgewählte Modell.
* Bei Festlegung auf "Flex"
oder "priority", dann wird die Anforderung mit dem entsprechenden Dienst verarbeitet.
Rang. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
* Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".

Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier
Wert basierend auf dem Verarbeitungsmodus, der tatsächlich zum Verarbeiten der Anforderung verwendet wird. Dieser Antwortwert
kann sich von dem im Parameter festgelegten Wert unterscheiden.
Nein
status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Ja
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
tool_choice Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Nachricht oder eines Anrufs auswählen kann.
von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
Erfahren Sie mehr über integrierte Tools.
Nein
Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

* Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Websuche
oder Dateisuche. Weitere Informationen zu
integrierte Tools.
* Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt. Weitere Informationen zu
Funktionsaufrufe.
Nein
top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Ja
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
user Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Ja

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Wird ausgegeben, wenn ein partieller Codeschnipsel vom Code-Interpreter gestreamt wird.

Name Typ Description Erforderlich Default
delta Schnur Der partielle Codeschnipsel, der vom Code-Interpreter gestreamt wird. Ja
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Code gestreamt wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call_code.delta.
Möglicher Wert: response.code_interpreter_call_code.delta
Ja

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Wird ausgegeben, wenn der Codeschnipsel vom Code-Interpreter abgeschlossen wird.

Name Typ Description Erforderlich Default
Code Schnur Die endgültige Ausgabe des Codeausschnitts durch den Code-Interpreter. Ja
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Code abgeschlossen wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call_code.done.
Möglicher Wert: response.code_interpreter_call_code.done
Ja

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Wird ausgegeben, wenn der Codedolmetscheraufruf abgeschlossen ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters abgeschlossen wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call.completed.
Möglicher Wert: response.code_interpreter_call.completed
Ja

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters in Arbeit ist. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call.in_progress.
Möglicher Wert: response.code_interpreter_call.in_progress
Ja

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index Integer Der Index des Ausgabeelements in der Antwort, für die der Code-Interpreter Code interpretiert. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call.interpreting.
Möglicher Wert: response.code_interpreter_call.interpreting
Ja

OpenAI.ResponseCompletedEvent

Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Agent AgentId Der für diese Antwort verwendete Agent Nein
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
└– Unterhaltung Objekt Nein
└– ID Schnur Nein
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im output Array, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└- service_tier OpenAI.ServiceTier Hinweis: service_tier gilt nicht für Azure OpenAI. Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

* Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Websuche
oder Dateisuche. Weitere Informationen zu
integrierte Tools.
* Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt. Weitere Informationen zu
Funktionsaufrufe.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Nein
type enum Typ des Ereignisses Immer response.completed.
Möglicher Wert: response.completed
Ja

OpenAI.ResponseContentPartAddedEvent

Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.

Name Typ Description Erforderlich Default
content_index Integer Der Index des hinzugefügten Inhaltsteils. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
output_index Integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
part Objekt Ja
└– Typ OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. Nein
type enum Typ des Ereignisses Immer response.content_part.added.
Möglicher Wert: response.content_part.added
Ja

OpenAI.ResponseContentPartDoneEvent

Wird ausgegeben, wenn ein Inhaltsteil abgeschlossen ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, der abgeschlossen ist. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
output_index Integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
part Objekt Ja
└– Typ OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. Nein
type enum Typ des Ereignisses Immer response.content_part.done.
Möglicher Wert: response.content_part.done
Ja

OpenAI.ResponseCreatedEvent

Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Agent AgentId Der für diese Antwort verwendete Agent Nein
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
└– Unterhaltung Objekt Nein
└– ID Schnur Nein
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im output Array, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└- service_tier OpenAI.ServiceTier Hinweis: service_tier gilt nicht für Azure OpenAI. Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

* Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Websuche
oder Dateisuche. Weitere Informationen zu
integrierte Tools.
* Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt. Weitere Informationen zu
Funktionsaufrufe.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Nein
type enum Typ des Ereignisses Immer response.created.
Möglicher Wert: response.created
Ja

OpenAI.ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Name Typ Description Erforderlich Default
Code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Ja
Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Ja

OpenAI.ResponseErrorCode

Der Fehlercode für die Antwort.

Eigentum Wert
Beschreibung Der Fehlercode für die Antwort.
Typ Schnur
Werte server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Wird ausgegeben, wenn ein Fehler auftritt.

Name Typ Description Erforderlich Default
Code Schnur Der Fehlercode. Ja
Nachricht Schnur Die Fehlermeldung. Ja
param Schnur Der Fehlerparameter. Ja
type enum Typ des Ereignisses Immer error.
Möglicher Wert: error
Ja

OpenAI.ResponseFailedEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Agent AgentId Der für diese Antwort verwendete Agent Nein
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
└– Unterhaltung Objekt Nein
└– ID Schnur Nein
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im output Array, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└- service_tier OpenAI.ServiceTier Hinweis: service_tier gilt nicht für Azure OpenAI. Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

* Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Websuche
oder Dateisuche. Weitere Informationen zu
integrierte Tools.
* Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt. Weitere Informationen zu
Funktionsaufrufe.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Nein
type enum Typ des Ereignisses Immer response.failed.
Möglicher Wert: response.failed
Ja

OpenAI.ResponseFileSearchCallCompletedEvent

Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. Ja
output_index Integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
type enum Typ des Ereignisses Immer response.file_search_call.completed.
Möglicher Wert: response.file_search_call.completed
Ja

OpenAI.ResponseFileSearchCallInProgressEvent

Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. Ja
output_index Integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
type enum Typ des Ereignisses Immer response.file_search_call.in_progress.
Möglicher Wert: response.file_search_call.in_progress
Ja

OpenAI.ResponseFileSearchCallSearchingEvent

Wird ausgegeben, wenn eine Dateisuche aktuell ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. Ja
output_index Integer Der Index des Ausgabeelements, das der Dateisuchaufruf sucht. Ja
type enum Typ des Ereignisses Immer response.file_search_call.searching.
Möglicher Wert: response.file_search_call.searching
Ja

OpenAI.ResponseFormat

Diskriminator für OpenAI.ResponseFormat

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Name Typ Description Erforderlich Default
type enum
Mögliche Werte: text, , json_objectjson_schema
Ja

OpenAI.ResponseFormatJsonObject

JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten. Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer json_object.
Möglicher Wert: json_object
Ja

OpenAI.ResponseFormatJsonSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu Strukturierten Ausgaben.

Name Typ Description Erforderlich Default
JSON-Schema Objekt Konfigurationsoptionen für strukturierte Ausgaben, einschließlich eines JSON-Schemas. Ja
└– Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell
bestimmt wird, wie im Format geantwortet werden soll.
Nein
└– Name Schnur Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder
Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen).
Nein
└- Schema Objekt Nein
└– streng boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genau definierten Schema.
im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn
strict ist true. Weitere Informationen finden Sie in im Leitfaden für strukturierte
Ausgaben
.
Nein Falsch
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Ja

OpenAI.ResponseFormatText

Standardantwortformat. Wird verwendet, um Textantworten zu generieren.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer text.
Möglicher Wert: text
Ja

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein partielles Argumentdelta eines Funktionsaufrufs vorhanden ist.

Name Typ Description Erforderlich Default
delta Schnur Das hinzugefügte Argumentdelta des Funktionsaufrufs Ja
item_id Schnur Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. Ja
output_index Integer Der Index des Ausgabeelements, dem das Argumentdelta des Funktionsaufrufs hinzugefügt wird Ja
type enum Typ des Ereignisses Immer response.function_call_arguments.delta.
Möglicher Wert: response.function_call_arguments.delta
Ja

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Wird ausgegeben, wenn Funktionsaufrufargumente finalisiert werden.

Name Typ Description Erforderlich Default
Argumente Schnur Die Funktionsaufrufargumente. Ja
item_id Schnur Die ID des Elements. Ja
output_index Integer Der Index des Ausgabeelements. Ja
type enum
Möglicher Wert: response.function_call_arguments.done
Ja

OpenAI.ResponseImageGenCallCompletedEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung abgeschlossen ist und das endgültige Bild verfügbar ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.completed”.
Möglicher Wert: response.image_generation_call.completed
Ja

OpenAI.ResponseImageGenCallGeneratingEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung aktiv ein Bild (Zwischenzustand) generiert.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.generating.
Möglicher Wert: response.image_generation_call.generating
Ja

OpenAI.ResponseImageGenCallInProgressEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.in_progress”.
Möglicher Wert: response.image_generation_call.in_progress
Ja

OpenAI.ResponseImageGenCallPartialImageEvent

Wird ausgegeben, wenn ein Teilbild während des Bildgenerierungsstreamings verfügbar ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
partial_image_b64 Schnur Base64-codierte Teilbilddaten, die für das Rendern als Bild geeignet sind. Ja
partial_image_index Integer 0-basierter Index für das Teilbild (Back-End ist 1-basiert, dies ist jedoch 0-basiert für den Benutzer). Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.partial_image”.
Möglicher Wert: response.image_generation_call.partial_image
Ja

OpenAI.ResponseInProgressEvent

Wird ausgegeben, wenn die Antwort derzeit verarbeitet wird.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Agent AgentId Der für diese Antwort verwendete Agent Nein
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
└– Unterhaltung Objekt Nein
└– ID Schnur Nein
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im output Array, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└- service_tier OpenAI.ServiceTier Hinweis: service_tier gilt nicht für Azure OpenAI. Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

* Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Websuche
oder Dateisuche. Weitere Informationen zu
integrierte Tools.
* Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt. Weitere Informationen zu
Funktionsaufrufe.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Nein
type enum Typ des Ereignisses Immer response.in_progress.
Möglicher Wert: response.in_progress
Ja

OpenAI.ResponseIncompleteEvent

Ein Ereignis, das ausgelöst wird, wenn eine Antwort als unvollständig beendet wird.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Agent AgentId Der für diese Antwort verwendete Agent Nein
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
└– Unterhaltung Objekt Nein
└– ID Schnur Nein
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im output Array, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└- service_tier OpenAI.ServiceTier Hinweis: service_tier gilt nicht für Azure OpenAI. Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

* Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Websuche
oder Dateisuche. Weitere Informationen zu
integrierte Tools.
* Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt. Weitere Informationen zu
Funktionsaufrufe.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Nein
type enum Typ des Ereignisses Immer response.incomplete.
Möglicher Wert: response.incomplete
Ja

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein Delta (partielle Aktualisierung) für die Argumente eines MCP-Toolaufrufs vorhanden ist.

Name Typ Description Erforderlich Default
delta Die teilweise Aktualisierung der Argumente für den MCP-Toolaufruf. Ja
item_id Schnur Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.mcp_call.arguments_delta”.
Möglicher Wert: response.mcp_call.arguments_delta
Ja

OpenAI.ResponseMCPCallArgumentsDoneEvent

Wird ausgelöst, wenn die Argumente für einen MCP-Toolaufruf endgültig festgelegt sind.

Name Typ Description Erforderlich Default
Argumente Die finalen Argumente für den MCP-Tool-Aufruf. Ja
item_id Schnur Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.mcp_call.arguments_done”.
Möglicher Wert: response.mcp_call.arguments_done
Ja

OpenAI.ResponseMCPCallCompletedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf erfolgreich abgeschlossen wurde.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_call.completed“.
Möglicher Wert: response.mcp_call.completed
Ja

OpenAI.ResponseMCPCallFailedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf fehlgeschlagen ist.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_call.failed“.
Möglicher Wert: response.mcp_call.failed
Ja

OpenAI.ResponseMCPCallInProgressEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.mcp_call.in_progress”.
Möglicher Wert: response.mcp_call.in_progress
Ja

OpenAI.ResponseMCPListToolsCompletedEvent

Wird ausgegeben, wenn die Liste der verfügbaren MCP-Tools erfolgreich abgerufen wurde.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_list_tools.completed”.
Möglicher Wert: response.mcp_list_tools.completed
Ja

OpenAI.ResponseMCPListToolsFailedEvent

Wird ausgegeben, wenn der Versuch, die verfügbaren MCP-Tools auflisten, fehlgeschlagen ist.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_list_tools.failed”.
Möglicher Wert: response.mcp_list_tools.failed
Ja

OpenAI.ResponseMCPListToolsInProgressEvent

Wird ausgegeben, wenn sich das System im Prozess des Abrufens der Liste der verfügbaren MCP-Tools befindet.

Name Typ Description Erforderlich Default
type enum Typ des Ereignisses Immer „response.mcp_list_tools.in_progress”.
Möglicher Wert: response.mcp_list_tools.in_progress
Ja

OpenAI.ResponseOutputItemAddedEvent

Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.

Name Typ Description Erforderlich Default
item Objekt Inhaltselement, das zum Generieren einer Antwort verwendet wird. Ja
└– created_by Erstelltvon Die Informationen zum Ersteller des Elements Nein
└– ID Schnur Nein
└– Typ OpenAI.ItemType Nein
output_index Integer Der Index des Ausgabeelements, das hinzugefügt wurde. Ja
type enum Typ des Ereignisses Immer response.output_item.added.
Möglicher Wert: response.output_item.added
Ja

OpenAI.ResponseOutputItemDoneEvent

Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.

Name Typ Description Erforderlich Default
item Objekt Inhaltselement, das zum Generieren einer Antwort verwendet wird. Ja
└– created_by Erstelltvon Die Informationen zum Ersteller des Elements Nein
└– ID Schnur Nein
└– Typ OpenAI.ItemType Nein
output_index Integer Der Index des Ausgabeelements, das als erledigt markiert wurde. Ja
type enum Typ des Ereignisses Immer response.output_item.done.
Möglicher Wert: response.output_item.done
Ja

OpenAI.ResponsePromptVariables

Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

Typ: Objekt

OpenAI.ResponseQueuedEvent

Wird ausgegeben, wenn eine Antwort in die Warteschlange gestellt wird und darauf wartet, verarbeitet zu werden.

Name Typ Description Erforderlich Default
response Objekt Ja
└– Agent AgentId Der für diese Antwort verwendete Agent Nein
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Weitere Informationen zu Hintergrundantworten.
Nein Falsch
└– Unterhaltung Objekt Nein
└– ID Schnur Nein
└– created_at Integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ unvollständige_Details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens Integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. Nein
└– max_tool_calls Integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ Ausgabe Array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im output Array, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen. Weitere Informationen zu
Verwalten des Unterhaltungszustands.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– Begründung OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└- service_tier OpenAI.ServiceTier Hinweis: service_tier gilt nicht für Azure OpenAI. Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– structured_inputs Objekt Die strukturierten Eingaben für die Antwort, die an der Eingabeaufforderungsvorlagenersetzung oder Toolargumentbindungen teilnehmen können. Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└– Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Anzeigen von Texteingaben und -ausgaben
und strukturierte Ausgaben
Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

* Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, z. B. die Websuche
oder Dateisuche. Weitere Informationen zu
integrierte Tools.
* Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Ermöglichen, dass das Modell Ihren eigenen Code ausführt. Weitere Informationen zu
Funktionsaufrufe.
Nein
└– top_logprobs Integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└– Abschneiden enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen Antworten den Rahmen überschreitet
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Schnur Erfahren Sie mehr über bewährte Methoden zur Sicherheit. Nein
type enum Typ des Ereignisses Immer „response.queued”.
Möglicher Wert: response.queued
Ja

OpenAI.ResponseReasoningDeltaEvent

Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Begründungsinhalt vorhanden ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des inhaltlichen Begründungsteils innerhalb des Ausgabeelements. Ja
delta Die teilweise Aktualisierung des Begründungsinhalts. Ja
item_id Schnur Der eindeutige Bezeichner des Artikels, dessen Argumentation aktualisiert wird. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
type enum Typ des Ereignisses Immer „response.reasoning.delta”.
Möglicher Wert: response.reasoning.delta
Ja

OpenAI.ResponseReasoningDoneEvent

Wird ausgegeben, wenn der Begründungsinhalt für ein Element abgeschlossen ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des inhaltlichen Begründungsteils innerhalb des Ausgabeelements. Ja
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Begründung abgeschlossen ist. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Text Schnur Der abschließende Text für die Begründung. Ja
type enum Typ des Ereignisses Immer „response.reasoning.delta”.
Möglicher Wert: response.reasoning.done
Ja

OpenAI.ResponseReasoningSummaryDeltaEvent

Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Begründungszusammenfassungsinhalt vorhanden ist.

Name Typ Description Erforderlich Default
delta Die partielle Aktualisierung der Begründungszusammenfassung. Ja
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Zusammenfassung der Gründe aktualisiert wird. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
summary_index Integer Der Index des Zusammenfassungsabschnitts innerhalb des Ausgabeelements. Ja
type enum Typ des Ereignisses Immer „response.reasoning_summary.delta”.
Möglicher Wert: response.reasoning_summary.delta
Ja

OpenAI.ResponseReasoningSummaryDoneEvent

Wird ausgegeben, wenn der Zusammenfassungsinhalt der Gründe für ein Element abgeschlossen ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Zusammenfassung der Gründe abgeschlossen ist. Ja
output_index Integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
summary_index Integer Der Index des Zusammenfassungsabschnitts innerhalb des Ausgabeelements. Ja
Text Schnur Der abschließende Zusammenfassungstext für die Begründung. Ja
type enum Typ des Ereignisses Immer „response.reasoning_summary.done”.
Möglicher Wert: response.reasoning_summary.done
Ja

OpenAI.ResponseReasoningSummaryPartAddedEvent

Wird ausgegeben, wenn ein neuer Zusammenfassungsteil für die Begründung hinzugefügt wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
part Objekt Ja
└– Typ OpenAI.ReasoningItemSummaryPartType Nein
summary_index Integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_part.added.
Möglicher Wert: response.reasoning_summary_part.added
Ja

OpenAI.ResponseReasoningSummaryPartDoneEvent

Wird ausgelöst, wenn ein Teil der Argumentationszusammenfassung abgeschlossen ist.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
part Objekt Ja
└– Typ OpenAI.ReasoningItemSummaryPartType Nein
summary_index Integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_part.done.
Möglicher Wert: response.reasoning_summary_part.done
Ja

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Wird ausgegeben, wenn ein Delta zu einem Begründungszusammenfassungstext hinzugefügt wird.

Name Typ Description Erforderlich Default
delta Schnur Das Textdelta, das der Zusammenfassung hinzugefügt wurde. Ja
item_id Schnur Die ID des Elements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Ja
summary_index Integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_text.delta.
Möglicher Wert: response.reasoning_summary_text.delta
Ja

OpenAI.ResponseReasoningSummaryTextDoneEvent

Wird ausgegeben, wenn ein Grundübersichtstext abgeschlossen ist.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungstext zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem dieser Zusammenfassungstext zugeordnet ist. Ja
summary_index Integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
Text Schnur Der vollständige Text der vollständigen Zusammenfassung der Begründung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_text.done.
Möglicher Wert: response.reasoning_summary_text.done
Ja

OpenAI.ResponseRefusalDeltaEvent

Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. Ja
delta Schnur Der Verweigerungstext, der hinzugefügt wird. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Ja
output_index Integer Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Ja
type enum Typ des Ereignisses Immer response.refusal.delta.
Möglicher Wert: response.refusal.delta
Ja

OpenAI.ResponseRefusalDoneEvent

Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, dass der Ablehnungstext abgeschlossen wird Ja
item_id Schnur Die ID des Ausgabeelements, bei dem der Ablehnungstext finalisiert wurde. Ja
output_index Integer Der Index des Ausgabeelements, dass der Ablehnungstext abgeschlossen wird Ja
Ablehnung Schnur Der endgültige Ablehnungstext. Ja
type enum Typ des Ereignisses Immer response.refusal.done.
Möglicher Wert: response.refusal.done
Ja

OpenAI.ResponseStreamEvent

Diskriminator für OpenAI.ResponseStreamEvent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Name Typ Description Erforderlich Default
sequence_number Integer Die Sequenznummer für dieses Ereignis. Ja
type OpenAI.ResponseStreamEventType Ja

OpenAI.ResponseStreamEventType

Eigentum Wert
Typ Schnur
Werte response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde Ja
delta Schnur Das Textdelta, das hinzugefügt wurde Ja
item_id Schnur Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. Ja
output_index Integer Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde Ja
type enum Typ des Ereignisses Immer response.output_text.delta.
Möglicher Wert: response.output_text.delta
Ja

OpenAI.ResponseTextDoneEvent

Wird gesendet, wenn der Textinhalt finalisiert ist.

Name Typ Description Erforderlich Default
content_index Integer Der Index des Inhaltsteils, dass der Textinhalt abgeschlossen wird Ja
item_id Schnur Die ID des Ausgabeelements, dessen Textinhalt abgeschlossen ist. Ja
output_index Integer Der Index des Ausgabeelements, dass der Textinhalt abgeschlossen wird Ja
Text Schnur Der textinhalt, der abgeschlossen ist. Ja
type enum Typ des Ereignisses Immer response.output_text.done.
Möglicher Wert: response.output_text.done
Ja

OpenAI.ResponseTextFormatConfiguration

Diskriminator für OpenAI.ResponseTextFormatConfiguration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Name Typ Description Erforderlich Default
type OpenAI.ResponseTextFormatConfigurationType Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } ermöglicht strukturierten Ausgaben,
dadurch wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Weitere Informationen finden Sie in der


Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, der
stellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schema
wird für Modelle bevorzugt, die es unterstützen.
Ja

OpenAI.ResponseTextFormatConfigurationJsonObject

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: json_object
Ja

OpenAI.ResponseTextFormatConfigurationJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu Strukturierten Ausgaben.

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell
bestimmt wird, wie im Format geantwortet werden soll.
Nein
Name Schnur Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder
Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen).
Ja
Schema Objekt Ja
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genau definierten Schema.
im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn
strict ist true. Weitere Informationen finden Sie in im Leitfaden für strukturierte
Ausgaben
.
Nein Falsch
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Ja

OpenAI.ResponseTextFormatConfigurationText

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: text
Ja

OpenAI.ResponseTextFormatConfigurationType

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Eigentum Wert
Beschreibung Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. | | Typ | string | | Werte | text
json_schema
json_object |

OpenAI.ResponseUsage

Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.

Name Typ Description Erforderlich Default
input_tokens Integer Die Anzahl der Eingabetoken. Ja
input_tokens_details Objekt Eine detaillierte Aufschlüsselung der Eingabetoken. Ja
└– zwischengespeicherte_Token Integer Die Anzahl der Token, die aus dem Cache abgerufen wurden.
Weitere Informationen zum Zwischenspeichern von Prompts.
Nein
output_tokens Integer Die Anzahl der Ausgabetoken. Ja
output_tokens_details Objekt Eine detaillierte Aufschlüsselung der Ausgabetoken. Ja
└– reasoning_tokens Integer Die Anzahl der Begründungstoken Nein
Gesamtanzahl Tokens Integer Die Gesamtzahl der verwendeten Token. Ja

OpenAI.ResponseWebSearchCallCompletedEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
type enum Typ des Ereignisses Immer response.web_search_call.completed.
Möglicher Wert: response.web_search_call.completed
Ja

OpenAI.ResponseWebSearchCallInProgressEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
type enum Typ des Ereignisses Immer response.web_search_call.in_progress.
Möglicher Wert: response.web_search_call.in_progress
Ja

OpenAI.ResponseWebSearchCallSearchingEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index Integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
type enum Typ des Ereignisses Immer response.web_search_call.searching.
Möglicher Wert: response.web_search_call.searching
Ja

OpenAI.ResponsesAssistantMessageItemParam

Ein Nachrichtenparameterelement mit der assistant Rolle.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
role enum Die Rolle der Nachricht, die immer assistant ist.
Möglicher Wert: assistant
Ja

OpenAI.ResponsesAssistantMessageItemResource

Ein Nachrichtenressourcenelement mit der assistant-Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer assistant ist.
Möglicher Wert: assistant
Ja

OpenAI.ResponsesDeveloperMessageItemParam

Ein Nachrichtenparameterelement mit der developer Rolle.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
role enum Die Rolle der Nachricht, die immer developer ist.
Möglicher Wert: developer
Ja

OpenAI.ResponsesDeveloperMessageItemResource

Ein Nachrichtenressourcenelement mit der developer-Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer developer ist.
Möglicher Wert: developer
Ja

OpenAI.ResponsesMessageItemParam

Ein Antwortnachrichtelement, das eine Rolle und einen Inhalt darstellt, wie als Clientanforderungsparameter angegeben.

Diskriminator für OpenAI.ResponsesMessageItemParam

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Name Typ Description Erforderlich Default
role Objekt Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. Ja
type enum Der Typ des Antwortelements, das immer "Nachricht" ist.
Möglicher Wert: message
Ja

OpenAI.ResponsesMessageItemResource

Ein Ressourcenelement für Antwortnachrichten, das eine Rolle und inhalte darstellt, wie in Dienstantworten angegeben.

Diskriminator für OpenAI.ResponsesMessageItemResource

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Name Typ Description Erforderlich Default
role Objekt Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Der Typ des Antwortelements, das immer "Nachricht" ist.
Möglicher Wert: message
Ja

OpenAI.ResponsesMessageRole

Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.

Eigentum Wert
Beschreibung Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.
Typ Schnur
Werte system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Ein Nachrichtenparameterelement mit der system Rolle.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
role enum Die Rolle der Nachricht, die immer system ist.
Möglicher Wert: system
Ja

OpenAI.ResponsesSystemMessageItemResource

Ein Nachrichtenressourcenelement mit der system-Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer system ist.
Möglicher Wert: system
Ja

OpenAI.ResponsesUserMessageItemParam

Ein Nachrichtenparameterelement mit der user Rolle.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array Ja
role enum Die Rolle der Nachricht, die immer user ist.
Möglicher Wert: user
Ja

OpenAI.ResponsesUserMessageItemResource

Ein Nachrichtenressourcenelement mit der user-Rolle.

Name Typ Description Erforderlich Default
Inhalt Array Der inhalt, der der Nachricht zugeordnet ist. Ja
role enum Die Rolle der Nachricht, die immer user ist.
Möglicher Wert: user
Ja

OpenAI.ServiceTier

Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.

  • Wenn sie auf "auto" festgelegt ist, wird die Anforderung mit der in den Project-Einstellungen konfigurierten Dienstebene verarbeitet. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
  • Wenn sie auf "Standard" festgelegt ist, wird die Anforderung mit den Standardpreisen und der Leistung für das ausgewählte Modell verarbeitet.
  • Wenn sie auf "Flex" oder "Priorität" festgelegt ist, wird die Anforderung mit der entsprechenden Dienstebene verarbeitet. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
  • Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".

Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier Wert basierend auf dem Verarbeitungsmodus, der tatsächlich für die Anforderung verwendet wird. Dieser Antwortwert kann sich von dem wert unterscheiden, der im Parameter festgelegt wurde.

Eigentum Wert
Beschreibung Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.
* Bei Festlegung auf "Auto" wird die Anforderung mit der Dienstebene verarbeitet.
in den Project-Einstellungen konfiguriert. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
* Bei Festlegung auf "Standard" wird die Anforderung mit dem Standard verarbeitet.
Preise und Leistung für das ausgewählte Modell.
* Bei Festlegung auf "Flex"
oder "priority", dann wird die Anforderung mit dem entsprechenden Dienst verarbeitet.
Rang. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
* Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".

Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier
Wert basierend auf dem Verarbeitungsmodus, der tatsächlich zum Verarbeiten der Anforderung verwendet wird. Dieser Antwortwert
kann sich von dem im Parameter festgelegten Wert unterscheiden.
Typ Schnur
Werte auto
default
flex
scale
priority

OpenAI.TextResponseFormatConfiguration

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:*

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Diskriminator für OpenAI.TextResponseFormatConfiguration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
Name Typ Description Erforderlich Default
type Schnur Ja

OpenAI.Tool

Diskriminator für OpenAI.Tool

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
bing_grounding BingGroundingAgentTool
fabric_dataagent_preview MicrosoftFabricAgentTool
sharepoint_grounding_preview SharepointAgentTool
azure_ai_search AzureAISearchAgentTool
openapi OpenApiAgentTool
bing_custom_search_preview BingCustomSearchAgentTool
browser_automation_preview BrowserAutomationAgentTool
azure_function AzureFunctionAgentTool
capture_structured_outputs CaptureStructuredOutputsTool
a2a_preview A2ATool
memory_search MemorySearchTool
Name Typ Description Erforderlich Default
type OpenAI.ToolType Ein Tool, das zum Generieren einer Antwort verwendet werden kann. Ja

OpenAI.ToolChoiceObject

Unterscheidungsmerkmal für OpenAI.ToolChoiceObject

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Name Typ Description Erforderlich Default
type OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
Erfahren Sie mehr über integrierte Tools.
Ja

OpenAI.ToolChoiceObjectCodeInterpreter

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: code_interpreter
Ja

OpenAI.ToolChoiceObjectComputer

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: computer_use_preview
Ja

OpenAI.ToolChoiceObjectFileSearch

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: file_search
Ja

OpenAI.ToolChoiceObjectFunction

Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ Description Erforderlich Default
Name Schnur Der Name der aufzurufenden Funktion. Ja
type enum Bei Funktionsaufrufen ist der Typ immer function.
Möglicher Wert: function
Ja

OpenAI.ToolChoiceObjectImageGen

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: image_generation
Ja

OpenAI.ToolChoiceObjectMCP

Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes Tool auf einem Remote-MCP-Server aufruft.

Name Typ Description Erforderlich Default
Name Schnur Der Name des Tools, das auf dem Server aufgerufen werden soll. Nein
Serverbeschriftung Schnur Die Bezeichnung des zu verwendenden MCP-Servers. Ja
type enum Bei MCP-Tools ist der Typ immer mcp.
Möglicher Wert: mcp
Ja

OpenAI.ToolChoiceObjectType

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.

Eigentum Wert
Beschreibung Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
Erfahren Sie mehr über integrierte Tools.
Typ Schnur
Werte file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: web_search_preview
Ja

OpenAI.ToolChoiceOptions

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.

Eigentum Wert
Beschreibung Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Nachricht oder eines Anrufs auswählen kann.
von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Typ Schnur
Werte none
auto
required

OpenAI.ToolType

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

Eigentum Wert
Beschreibung Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
Typ Schnur
Werte file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell
bing_grounding
browser_automation_preview
fabric_dataagent_preview
sharepoint_grounding_preview
azure_ai_search
openapi
bing_custom_search_preview
capture_structured_outputs
a2a_preview
azure_function
memory_search

OpenAI.TopLogProb

Die oberste Protokollwahrscheinlichkeit eines Tokens.

Name Typ Description Erforderlich Default
Byte Array Ja
logprob number Ja
token Schnur Ja

OpenAI.UpdateConversationRequest

Aktualisieren einer Unterhaltung

Name Typ Description Erforderlich Default
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

OpenAI.VectorStoreFileAttributes

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.

Typ: Objekt

OpenAI.WebSearchAction

Diskriminator für OpenAI.WebSearchAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Name Typ Description Erforderlich Default
type OpenAI.WebSearchActionType Ja

OpenAI.WebSearchActionFind

Aktionstyp „find“: Sucht innerhalb einer geladenen Seite nach einem Muster.

Name Typ Description Erforderlich Default
pattern Schnur Das Muster oder der Text, nach dem innerhalb der Seite gesucht werden soll. Ja
type enum Der Aktionstyp.
Möglicher Wert: find
Ja
url Schnur Die URL der Seite, die nach dem Muster durchsucht wird. Ja

OpenAI.WebSearchActionOpenPage

Aktionstyp „open_page“ – Öffnet eine bestimmte URL aus Suchergebnissen.

Name Typ Description Erforderlich Default
type enum Der Aktionstyp.
Möglicher Wert: open_page
Ja
url Schnur Die URL, die vom Modell geöffnet wird. Ja

OpenAI.WebSearchActionSearch

Aktionstyp „search“ – Führt eine Websuchabfrage aus.

Name Typ Description Erforderlich Default
Anfrage Schnur Die Suchabfrage Ja
Quellen Array Die Quellen, die bei der Suche verwendet werden. Nein
type enum Der Aktionstyp.
Möglicher Wert: search
Ja

OpenAI.WebSearchActionSearchSources

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: url
Ja
url Schnur Ja

OpenAI.WebSearchActionType

Eigentum Wert
Typ Schnur
Werte search
open_page
find

OpenAI.WebSearchPreviewTool

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
Suchkontextgröße enum Allgemeine Richtlinie für die Menge des Kontextfensterbereichs, der für die Suche verwendet werden soll. Einer der folgenden Werte: low, medium oder high. medium ist die Standardoption.
Mögliche Werte: low, , mediumhigh
Nein
type enum Der Typ des Websuchtools. Einer der folgenden Werte: web_search_preview oder web_search_preview_2025_03_11.
Möglicher Wert: web_search_preview
Ja
Benutzerstandort Objekt Nein
└– Typ OpenAI.LocationType Nein

OpenAI.WebSearchToolCallItemParam

Die Ergebnisse eines Aufrufs eines Websuchwerkzeugs. Weitere Informationen finden Sie in der Anleitung zur Websuche .

Name Typ Description Erforderlich Default
Handlung Objekt Ja
└– Typ OpenAI.WebSearchActionType Nein
type enum
Möglicher Wert: web_search_call
Ja

OpenAI.WebSearchToolCallItemResource

Die Ergebnisse eines Aufrufs eines Websuchwerkzeugs. Weitere Informationen finden Sie in der Anleitung zur Websuche .

Name Typ Description Erforderlich Default
Handlung Objekt Ja
└– Typ OpenAI.WebSearchActionType Nein
status enum Der Status des Aufrufs des Websuchtools.
Mögliche Werte: in_progress, , searching, completedfailed
Ja
type enum
Möglicher Wert: web_search_call
Ja

OpenAI.integer

Typ: ganze Zahl

Format: int64

OpenAI.numeric

Typ: Zahl

Format: doppelt

OpenApiAgentTool

Die Eingabedefinitionsinformationen für ein OpenAPI-Tool, das zum Konfigurieren eines Agents verwendet wird.

Name Typ Description Erforderlich Default
openapi Objekt Die Eingabedefinitionsinformationen für eine openapi-Funktion. Ja
└– Authentifizierung OpenApiAuthDetails Details zur offenen API-Authentifizierung Nein
└- default_params Array Liste der OpenAPI-Spezifikationsparameter, die vom Benutzer bereitgestellte Standardwerte verwenden Nein
└– Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
└- Funktionen Array Liste der vom OpenApi-Tool verwendeten Funktionsdefinitionen Nein
└– Name Schnur Der Name der funktion, die aufgerufen werden soll. Nein
└– Spezifikation Das openapi-Funktions-Shape, das als JSON-Schemaobjekt beschrieben wird. Nein
type enum Der Objekttyp, der immer 'openapi' ist.
Möglicher Wert: openapi
Ja

OpenApiAnonymousAuthDetails

Sicherheitsdetails für die anonyme OpenApi-Authentifizierung

Name Typ Description Erforderlich Default
type enum Der Objekttyp, der immer "anonym" ist.
Möglicher Wert: anonymous
Ja

OpenApiAuthDetails

Authentifizierungsdetails für OpenApiFunctionDefinition

Diskriminator für OpenApiAuthDetails

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
anonymous OpenApiAnonymousAuthDetails
project_connection OpenApiProjectConnectionAuthDetails
managed_identity OpenApiManagedAuthDetails
Name Typ Description Erforderlich Default
type Objekt Authentifizierungstyp für den OpenApi-Endpunkt. Folgende Typen sind zulässig:
- Anonym (keine Authentifizierung erforderlich)
- Projektverbindung (erfordert project_connection_id zum Endpunkt, wie setup in Foundry)
- Managed_Identity (erfordert Zielgruppe für identitätsbasierte Authentifizierung)
Ja

OpenApiAuthType

Authentifizierungstyp für den OpenApi-Endpunkt. Folgende Typen sind zulässig:

  • Anonym (keine Authentifizierung erforderlich)
  • Project-Verbindung (erfordert project_connection_id zum Endpunkt, wie setup in Foundry)
  • Managed_Identity (erfordert Zielgruppe für identitätsbasierte Authentifizierung)
Eigentum Wert
Typ Schnur
Werte anonymous
project_connection
managed_identity

OpenApiFunctionDefinition

Die Eingabedefinitionsinformationen für eine openapi-Funktion.

Name Typ Description Erforderlich Default
Authentifizierung Objekt Authentifizierungsdetails für OpenApiFunctionDefinition Ja
└– Typ OpenApiAuthType Der Authentifizierungstyp muss anonym/project_connection/managed_identity sein. Nein
default_params Array Liste der OpenAPI-Spezifikationsparameter, die vom Benutzer bereitgestellte Standardwerte verwenden Nein
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
Funktionen Array Liste der vom OpenApi-Tool verwendeten Funktionsdefinitionen Nein
Name Schnur Der Name der funktion, die aufgerufen werden soll. Ja
spec Das openapi-Funktions-Shape, das als JSON-Schemaobjekt beschrieben wird. Ja

OpenApiManagedAuthDetails

Sicherheitsdetails für die OpenApi-managed_identity-Authentifizierung

Name Typ Description Erforderlich Default
security_scheme Objekt Sicherheitsschema für die OpenApi-managed_identity-Authentifizierung Ja
└– Publikum Schnur Authentifizierungsbereich für managed_identity Authentifizierungstyp Nein
type enum Der Objekttyp, der immer "managed_identity" ist.
Möglicher Wert: managed_identity
Ja

OpenApiManagedSecurityScheme

Sicherheitsschema für die OpenApi-managed_identity-Authentifizierung

Name Typ Description Erforderlich Default
audience Schnur Authentifizierungsbereich für managed_identity Authentifizierungstyp Ja

OpenApiProjectConnectionAuthDetails

Sicherheitsdetails für die Authentifizierung von OpenApi-Projektverbindungen

Name Typ Description Erforderlich Default
security_scheme Objekt Sicherheitsschema für die OpenApi-managed_identity-Authentifizierung Ja
└– project_connection_id Schnur Projektverbindungs-ID für den Authentifizierungstyp "Projektverbindung" Nein
type enum Der Objekttyp, der immer 'project_connection' ist.
Möglicher Wert: project_connection
Ja

OpenApiProjectConnectionSecurityScheme

Sicherheitsschema für die OpenApi-managed_identity-Authentifizierung

Name Typ Description Erforderlich Default
project_connection_id Schnur Projektverbindungs-ID für den Authentifizierungstyp "Projektverbindung" Ja

PagedConnection

Ausgelagerte Auflistung von Connection-Elementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die Verbindungselemente auf dieser Seite Ja

PagedDatasetVersion

Ausgelagerte Auflistung von DatasetVersion-Elementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die DatasetVersion-Elemente auf dieser Seite Ja

PagedDeployment

Ausgelagerte Auflistung von Bereitstellungselementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die Bereitstellungselemente auf dieser Seite Ja

PagedEvaluationRule

Paged-Auflistung von EvaluationRule-Elementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die EvaluationRule-Elemente auf dieser Seite Ja

PagedEvaluationTaxonomy

Paged-Auflistung von EvaluationTaxonomy-Elementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die Elemente "EvaluationTaxonomy" auf dieser Seite Ja

PagedEvaluatorVersion

Paged-Auflistung von EvaluatorVersion-Elementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die EvaluatorVersion-Elemente auf dieser Seite Ja

PagedIndex

Ausgelagerte Auflistung von Indexelementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die Indexelemente auf dieser Seite Ja

PagedInsight

Paged-Sammlung von Insight-Elementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die Insights-Elemente auf dieser Seite Ja

PagedRedTeam

Ausgelagerte Sammlung von RedTeam-Elementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die RedTeam-Elemente auf dieser Seite Ja

PagedSchedule

Ausgelagerte Auflistung von Zeitplanelementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die Elemente auf dieser Seite planen Ja

PagedScheduleRun

Ausgelagerte Auflistung von ScheduleRun-Elementen

Name Typ Description Erforderlich Default
nextLink Schnur Der Link zur nächsten Seite von Elementen Nein
Wert Array Die ScheduleRun-Elemente auf dieser Seite Ja

PendingUploadRequest

Stellt eine Anforderung für einen ausstehenden Upload dar.

Name Typ Description Erforderlich Default
Verbindungsname Schnur Verbindungsname des Azure Storage-Kontos, der zum Generieren eines temporären SAS-Tokens verwendet werden soll Nein
pendingUploadId Schnur Wenn PendingUploadId nicht angegeben wird, wird eine zufällige GUID verwendet. Nein
pendingUploadType enum BlobReference ist der einzige unterstützte Typ.
Möglicher Wert: BlobReference
Ja

PendingUploadResponse

Stellt die Antwort auf eine ausstehende Uploadanforderung dar

Name Typ Description Erforderlich Default
blobReference Objekt Details zum Blobverweis. Ja
└– blobUri Schnur Blob-URI-Pfad für den Client zum Hochladen von Daten. Beispiel: https://blob.windows.core.net/Container/Path Nein
└– Anmeldeinformationen SasCredential Anmeldeinformationen für den Zugriff auf das Speicherkonto. Nein
└– storageAccountArmId Schnur ARM-ID des zu verwendenden Speicherkontos. Nein
pendingUploadId Schnur ID für diese Upload-Anforderung. Ja
pendingUploadType enum BlobReference ist der einzige unterstützte Typ
Möglicher Wert: BlobReference
Ja
version Schnur Version des zu erstellenden Assets, wenn der Benutzer die Version beim ersten Erstellen des Uploads nicht angegeben hat Nein

PromptAgentDefinition

Die Definition des Eingabeaufforderungs-Agents

Name Typ Description Erforderlich Default
instructions Schnur Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Nein
freundlich enum
Möglicher Wert: prompt
Ja
Modell Schnur Die Modellbereitstellung, die für diesen Agent verwendet werden soll. Ja
reasoning Objekt Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit unterstützte Werte sind keine, minimal, niedrig, mittel und hoch.

Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

gpt-5.1 ist standardmäßig auf "none" festgelegt, was keine Begründung ausführt. Die unterstützten Grundwerte für gpt-5.1 sind keine, niedrig, mittel und hoch. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.

Alle Modelle vor gpt-5.1 werden standardmäßig auf mittlere Gründe festgelegt und unterstützen keines.

Das gpt-5-pro-Modell verwendet standardmäßig (und nur unterstützt) einen hohen Grundaufwand.
Nein
└– generate_summary enum Veraltet: Verwenden Sie summary stattdessen. Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen. Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
nützlich zum Debuggen und Verstehen des Denkprozesses des Modells.
Einer der folgenden Werte: auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
structured_inputs Objekt Satz strukturierter Eingaben, die an der Ersetzung von Eingabeaufforderungsvorlagen oder an Werkzeugargumentbindungen teilnehmen können. Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Nein
└─ Format OpenAI.ResponseTextFormatConfiguration Nein
Werkzeuge Array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Nein
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. 0,1 bedeutet also nur die Token, die die top 10% Wahrscheinlichkeitsmasse umfassen.
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1

PromptBasedEvaluatorDefinition

Eingabeaufforderungsbasierter Evaluator

Name Typ Description Erforderlich Default
prompt_text Schnur Der Eingabeaufforderungstext, der für die Auswertung verwendet wird Ja
type enum
Möglicher Wert: prompt
Ja

ProtocolVersionRecord

Ein Datensatz-Mapping für ein einzelnes Protokoll und seine Version.

Name Typ Description Erforderlich Default
protocol Objekt Ja
version Schnur Die Versionszeichenkette für das Protokoll, z. B. 'v0.1.1'. Ja

RaiConfig

Konfiguration für die Inhaltsfilterung und Sicherheitsfunktionen von Responsible AI (RAI).

Name Typ Description Erforderlich Default
rai_policy_name Schnur Der Name der anzuwendenden RAI-Richtlinie. Ja

RecurrenceSchedule

Modell des Wiederholungszeitplans.

Diskriminator für RecurrenceSchedule

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
Hourly HourlyRecurrenceSchedule
Daily DailyRecurrenceSchedule
Weekly WeeklyRecurrenceSchedule
Monthly MonthlyRecurrenceSchedule
Name Typ Description Erforderlich Default
type Objekt Typ der Wiederholung. Ja

RecurrenceTrigger

Wiederholungsbasierter Trigger.

Name Typ Description Erforderlich Default
endTime Schnur Endzeit für den Wiederholungszeitplan im ISO 8601-Format. Nein
interval Integer Intervall für den Wiederholungszeitplan. Ja
Zeitplan Objekt Modell des Wiederholungszeitplans. Ja
└– Typ RecurrenceType Serientyp für den Serienzeitplan. Nein
startTime Schnur Startzeit für den Wiederholungszeitplan im ISO 8601-Format. Nein
timeZone Schnur Zeitzone für den Wiederholungszeitplan. Nein UTC
type enum Typ des Auslösers.
Möglicher Wert: Recurrence
Ja

RecurrenceType

Typ der Wiederholung.

Eigentum Wert
Beschreibung Typ der Wiederholung.
Typ Schnur
Werte Hourly
Daily
Weekly
Monthly

RedTeam

Details zum roten Team.

Name Typ Description Erforderlich Default
applicationScenario Schnur Anwendungsszenario für die Red-Team-Operation, um szenariospezifische Angriffe zu generieren. Nein
attackStrategies Array Liste der Angriffsstrategien oder verschachtelte Listen von Angriffsstrategien. Nein
Anzeigename Schnur Name des Red-Team-Laufs. Nein
id Schnur Kennung des Red Team Runs. Ja
numTurns Integer Anzahl der Simulationsrunden. Nein
properties Objekt Eigenschaften des roten Teams. Im Gegensatz zu Tags sind Eigenschaften nur add-only. Nachdem eine Eigenschaft hinzugefügt wurde, kann keine Eigenschaft entfernt werden. Nein
riskCategories Array Liste der Risikokategorien, für die Angriffsziele generiert werden sollen. Nein
simulationOnly boolean Reine Simulation oder Simulation + Bewertung. Standardwert false, wenn true, gibt der Scan die Konversation und nicht das Auswertungsergebnis aus. Nein Falsch
status Schnur Status des roten Teams. Sie wird vom Dienst festgelegt und ist schreibgeschützt. Nein
tags Objekt Tags des roten Teams. Im Gegensatz zu Eigenschaften sind Tags vollständig änderbar. Nein
target Objekt Abstrakte Klasse für die Zielkonfiguration. Ja
└– Typ Schnur Typ der Modellkonfiguration. Nein

RedTeamItemGenerationParams

Stellt die Parameter für die Generierung roter Teamelemente dar.

Name Typ Description Erforderlich Default
attack_strategies Array Die Sammlung der zu verwendenden Angriffsstrategien. Ja
num_turns Integer Die Anzahl der im Spiel zulässigen Wendungen. Ja
type enum Der Typ der Elementgenerierungsparameter, immer red_team.
Möglicher Wert: red_team
Ja

RiskCategory

Risikokategorie für das Angriffsziel.

Eigentum Wert
Beschreibung Risikokategorie für das Angriffsziel.
Typ Schnur
Werte HateUnfairness
Violence
Sexual
SelfHarm
ProtectedMaterial
CodeVulnerability
UngroundedAttributes
ProhibitedActions
SensitiveDataLeakage
TaskAdherence

SASCredentials

Definition der SAS-Anmeldeinformationen (Shared Access Signature)

Name Typ Description Erforderlich Default
SAS Schnur SAS-Token Nein
type enum Der Anmeldeinformationstyp
Möglicher Wert: SAS
Ja

SampleType

Die Art der Probe, die für die Analyse verwendet wird.

Eigentum Wert
Typ Schnur
Werte EvaluationResultSample

SasCredential

Definition der SAS-Anmeldeinformationen

Name Typ Description Erforderlich Default
sasUri Schnur SAS-URI Ja
type enum Art der Anmeldeinformationen
Möglicher Wert: SAS
Ja

Zeitplan

Modell planen.

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zeitplans. Nein
Anzeigename Schnur Name des Zeitplans. Nein
aktiviert boolean Status des Zeitplans aktiviert. Ja
id Schnur Kennung des Zeitplans. Ja
properties Objekt Eigenschaften von Schedule. Im Gegensatz zu Tags sind Eigenschaften nur add-only. Nachdem eine Eigenschaft hinzugefügt wurde, kann keine Eigenschaft entfernt werden. Nein
Stand der Bereitstellung Objekt Planen Sie den Bereitstellungsstatus. Nein
Systemdaten Objekt Systemmetadaten für die Ressource. Ja
tags Objekt Tags des Zeitplans. Im Gegensatz zu Eigenschaften sind Tags vollständig änderbar. Nein
Aufgabe Objekt Aufgabenmodell planen. Ja
└– Konfiguration Objekt Konfiguration für die Aufgabe. Nein
└– Typ ScheduleTaskType Typ des Vorgangs. Nein
trigger Objekt Basismodell für Trigger des Zeitplans. Ja
└– Typ Trigger-Typ Typ des Auslösers. Nein

ScheduleProvisioningStatus

Planen Sie den Bereitstellungsstatus.

Eigentum Wert
Beschreibung Planen Sie den Bereitstellungsstatus.
Typ Schnur
Werte Creating
Updating
Deleting
Succeeded
Failed

ScheduleRun

Planen des Ausführungsmodells.

Name Typ Description Erforderlich Default
Fehler Schnur Fehlerinformationen für die Zeitplanausführung. Nein
id Schnur Kennung der Zeitplanausführung. Ja
properties Objekt Eigenschaften der Zeitplanausführung. Ja
scheduleId Schnur Kennung des Zeitplans. Ja
Erfolgreich boolean Lösen Sie den Erfolgsstatus der Zeitplanausführung aus. Ja
triggerTime Schnur Auslösezeit der Zeitplanausführung. Nein

GeplanteAufgabe

Aufgabenmodell planen.

Diskriminator für ScheduleTask

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
Evaluation EvaluationScheduleTask
Insight InsightScheduleTask
Name Typ Description Erforderlich Default
configuration Objekt Konfiguration für die Aufgabe. Nein
type Objekt Typ des Vorgangs. Ja

ScheduleTaskType

Typ des Vorgangs.

Eigentum Wert
Beschreibung Typ des Vorgangs.
Typ Schnur
Werte Evaluation
Insight

SeedPromptsRedTeamItemGenerationParams

Stellt die Parameter für die Erstellung roter Teamelemente mit Startaufforderungen dar.

Name Typ Description Erforderlich Default
attack_strategies Array Die Sammlung der zu verwendenden Angriffsstrategien. Ja
num_turns Integer Die Anzahl der im Spiel zulässigen Wendungen. Ja
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– Typ enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Nein
type enum Der Typ der Elementgenerierungsparameter, immer red_team.
Möglicher Wert: red_team_seed_prompts
Ja

SharepointAgentTool

Die Eingabedefinitionsinformationen für ein SharePoint-Tool, wie zum Konfigurieren eines Agents verwendet.

Name Typ Description Erforderlich Default
sharepoint_grounding_preview Objekt Die Parameter des Sharepoint-Erdungstools. Ja
└– project_connections Array Die Projektverbindungen, die an dieses Werkzeug angehängt sind. Es kann maximal 1 Verbindung bestehen.
an das Tool angefügte Ressource.
Nein
type enum Der Objekttyp, der immer "sharepoint_grounding" ist.
Möglicher Wert: sharepoint_grounding_preview
Ja

SharepointGroundingToolParameters

Die Parameter des Sharepoint-Erdungstools.

Name Typ Description Erforderlich Default
project_connections Array Die Projektverbindungen, die an dieses Werkzeug angehängt sind. Es kann maximal 1 Verbindung bestehen.
an das Tool angefügte Ressource.
Nein

Sku

Sku-Informationen

Name Typ Description Erforderlich Default
capacity Integer Sku-Kapazität Ja
family Schnur Familie Sku Ja
Name Schnur Sku-Name Ja
Größe Schnur Sku-Größe Ja
tier Schnur Sku-Ebene Ja

StructuredInputDefinition

Eine strukturierte Eingabe, die an der Ersetzung von Eingabeaufforderungsvorlagen und der Bindung von Werkzeugargumenten teilnehmen kann.

Name Typ Description Erforderlich Default
default_value Der Standardwert für die Eingabe, wenn kein Laufzeitwert angegeben wird. Nein
Beschreibung Schnur Eine für Menschen lesbare Beschreibung der Eingabe. Nein
required boolean Gibt an, ob die Eingabeeigenschaft beim Aufrufen des Agents erforderlich ist. Nein Falsch
Schema Das JSON-Schema für die strukturierte Eingabe (optional). Nein

StructuredOutputDefinition

Eine strukturierte Ausgabe, die vom Agenten erzeugt werden kann.

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung der auszugebenden Ausgabe. Wird vom Modell verwendet, um zu bestimmen, wann die Ausgabe ausgegeben werden soll. Ja
Name Schnur Der Name der strukturierten Ausgabe. Ja
Schema Das JSON-Schema für die strukturierte Ausgabe. Ja
strict boolean Gibt an, ob eine strenge Validierung erzwungen werden soll. Standard-true. Ja

StructuredOutputsItemResource

Name Typ Description Erforderlich Default
output Die während der Antwort erfasste strukturierte Ausgabe. Ja
type enum
Möglicher Wert: structured_outputs
Ja

Ziel

Basisklasse für Ziele mit Diskriminatorunterstützung.

Diskriminator für Ziel

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
azure_ai_model AzureAIModelTarget
azure_ai_agent AzureAIAgentTarget
azure_ai_assistant AzureAIAssistantTarget
Name Typ Description Erforderlich Default
type Schnur Der Zieltyp. Ja

TargetCompletions

Stellt eine Datenquelle für die zielbasierte Abschlussauswertungskonfiguration dar.

Name Typ Description Erforderlich Default
Eingabenachrichten Objekt Nein
└– item_reference Schnur Nein
└– Typ enum
Möglicher Wert: item_reference
Nein
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– Typ enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Nein
target Objekt Basisklasse für Ziele mit Diskriminatorunterstützung. Ja
└– Typ Schnur Der Zieltyp. Nein
type enum Der Typ der Datenquelle, immer TargetCompletions.
Möglicher Wert: azure_ai_target_completions
Ja

TargetConfig

Abstrakte Klasse für die Zielkonfiguration.

Diskriminator für TargetConfig

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
AzureOpenAIModel AzureOpenAIModelConfiguration
Name Typ Description Erforderlich Default
type Schnur Typ der Modellkonfiguration. Ja

TargetUpdate

Basisklasse für Ziele mit Diskriminatorunterstützung.

Diskriminator für TargetUpdate

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
azure_ai_model AzureAIModelTargetUpdate
azure_ai_assistant AzureAIAssistantTargetUpdate
Name Typ Description Erforderlich Default
type Schnur Der Zieltyp. Ja

TaxonomyCategory

Definition der Taxonomie-Kategorie.

Name Typ Description Erforderlich Default
Beschreibung Schnur Beschreibung der Taxonomie-Kategorie. Nein
id Schnur Eindeutiger Identifikator der Taxonomiekategorie. Ja
Name Schnur Name der Taxonomiekategorie. Ja
properties Objekt Zusätzliche Eigenschaften für die Kategorie Taxonomie. Nein
riskCategory Objekt Risikokategorie für das Angriffsziel. Ja
Unterkategorie Array Liste der Taxonomie-Unterkategorien. Ja

TaxonomyRedTeamItemGenerationParams

Stellt die Parameter für die Erstellung roter Teamelemente mit Startaufforderungen dar.

Name Typ Description Erforderlich Default
attack_strategies Array Die Sammlung der zu verwendenden Angriffsstrategien. Ja
num_turns Integer Die Anzahl der im Spiel zulässigen Wendungen. Ja
source Objekt Ja
└– Inhalt Array Der Inhalt der JSONL-Datei. Nein
└– ID Schnur Der Bezeichner der Datei. Nein
└– Typ enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Nein
type enum Der Typ der Elementgenerierungsparameter, immer red_team.
Möglicher Wert: red_team_taxonomy
Ja

TaxonomySubCategory

Definition der Taxonomie-Unterkategorie.

Name Typ Description Erforderlich Default
Beschreibung Schnur Beschreibung der Unterkategorie der Taxonomie. Nein
aktiviert boolean Liste der Taxonomie-Einträge in dieser Unterkategorie. Ja
id Schnur Eindeutiger Identifikator der Taxonomie-Unterkategorie. Ja
Name Schnur Name der Taxonomie-Unterkategorie. Ja
properties Objekt Zusätzliche Eigenschaften für die Unterkategorie Taxonomie. Nein

ToolDescription

Beschreibung eines Werkzeugs, das von einem Agenten verwendet werden kann.

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine kurze Beschreibung des Zwecks des Tools. Nein
Name Schnur Der Name des Tools. Nein

ToolProjectConnection

Eine Projektverbindungsressource.

Name Typ Description Erforderlich Default
project_connection_id Schnur Eine Projektverbindung in einer ToolProjectConnectionList, die an dieses Werkzeug angefügt ist. Ja

TracesEvalRunDataSource

Stellt eine Datenquelle für Auswertungsläufe dar, die über agent-Ablaufverfolgungen ausgeführt werden, die in Application Insights gespeichert sind.

Name Typ Description Erforderlich Default
lookback_hours Integer Lookbackfenster (in Stunden), das beim Abrufen von Ablaufverfolgungen aus Application Insights angewendet wird. Nein 168
trace_ids Array Sammlung von Agent-Ablaufverfolgungs-IDs, die ausgewertet werden sollen. Ja
type enum Der Typ der Datenquelle, immer azure_ai_traces.
Möglicher Wert: azure_ai_traces
Ja

TreatmentEffectType

Art der Behandlungswirkung.

Eigentum Wert
Typ Schnur
Werte TooFewSamples
Inconclusive
Changed
Improved
Degraded

Auslöser

Basismodell für Trigger des Zeitplans.

Diskriminator für Trigger

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
Cron CronTrigger (Englisch)
Recurrence RecurrenceTrigger-
OneTime OneTimeTrigger
Name Typ Description Erforderlich Default
type Objekt Typ des Auslösers. Ja

TriggerType

Typ des Auslösers.

Eigentum Wert
Beschreibung Typ des Auslösers.
Typ Schnur
Werte Cron
Recurrence
OneTime

UpdateAgentFromManifestRequest

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
manifest_id Schnur Die Manifest-ID, aus der die Agentversion importiert werden soll. Ja
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
parameter_values Objekt Die Eingaben in das Manifest, die zu einem vollständig materialisierten Agent führen. Ja

UpdateAgentRequest

Name Typ Description Erforderlich Default
Definition Objekt Ja
└– Art AgentKind Nein
└- rai_config RaiConfig Konfiguration für die Inhaltsfilterung und Sicherheitsfunktionen von Responsible AI (RAI). Nein
Beschreibung Schnur Eine lesbare Beschreibung des Agents. Nein
metadata Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

UpdateEvalParametersBody

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Nein
properties Objekt Satz unveränderlicher 16 Schlüsselwertpaare, die an ein Objekt angefügt werden können, um zusätzliche Informationen zu speichern.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Nein

UserProfileMemoryItem

Ein Speicherelement, das speziell Benutzerprofilinformationen enthält, die aus Unterhaltungen extrahiert wurden, z. B. Vorlieben, Interessen und persönliche Details.

Name Typ Description Erforderlich Default
freundlich enum Die Art des Erinnerungselements.
Möglicher Wert: user_profile
Ja

WeeklyRecurrenceSchedule

Wöchentlicher Wiederholungsplan.

Name Typ Description Erforderlich Default
daysOfWeek Array Wochentage für den Wiederholungsplan. Ja
type enum Typ der wöchentlichen Wiederholung.
Möglicher Wert: Weekly
Ja

WorkflowActionOutputItemResource

Name Typ Description Erforderlich Default
action_id Schnur Eindeutiger Bezeichner für die Aktion. Ja
freundlich Schnur Die Art der CSDL-Aktion (z. B. 'SetVariable', 'InvokeAzureAgent'). Ja
parent_action_id Schnur ID der übergeordneten Aktion, wenn dies eine geschachtelte Aktion ist. Nein
previous_action_id Schnur ID der vorherigen Aktion, wenn diese Aktion einem anderen folgt. Nein
status enum Status der Aktion (z. B. "in_progress", "abgeschlossen", "fehlgeschlagen", "abgebrochen").
Mögliche Werte: completed, , failed, in_progresscancelled
Ja
type enum
Möglicher Wert: workflow_action
Ja

WorkflowAgentDefinition

Die Definition des Workflow-Agents.

Name Typ Description Erforderlich Default
freundlich enum
Möglicher Wert: workflow
Ja
Arbeitsablauf Schnur Die CSDL-YAML-Definition des Workflows. Nein

Integer

Typ: ganze Zahl

Format: int64