Udostępnij za pośrednictwem


dokumentacja interfejsu API REST usługi Azure OpenAI w usłudze Microsoft Foundry Models w wersji 1

Ten artykuł zawiera szczegółowe informacje na temat punktów końcowych interfejsu API REST wnioskowania dla Azure interfejsu OpenAI.

Wnioskowanie płaszczyzny danych

W pozostałej części artykułu omówiono naszą nową wersję zapoznawczą interfejsu API w wersji 1 specyfikacji wnioskowania płaszczyzny danych platformy Azure OpenAI. Dowiedz się więcej w naszym przewodniku cyklu życia interfejsu API.

Jeśli szukasz dokumentacji najnowszej wersji 1 ogólnie dostępnego interfejsu API, zapoznaj się z najnowszym interfejsem API wnioskowania płaszczyzny danych ga

Tworzenie mowy

POST {endpoint}/openai/v1/audio/speech?api-version=preview

Generuje dźwięk w formacie tekstu na mowę na podstawie tekstu wejściowego.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Firmy Microsoft Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: dane wielu części/formularzu

Name Typ Opis Wymagane Default
dane wejściowe ciąg Tekst, dla którego ma być wygenerowany dźwięk. Maksymalna długość to 4096 znaków. Tak
instructions ciąg Sterowanie głosem wygenerowanego dźwięku za pomocą dodatkowych instrukcji. Nie działa z tts-1 lub tts-1-hd. Nie.
model ciąg Model do użycia dla tego żądania zamiany tekstu na mowę. Tak
format_odpowiedzi obiekt Obsługiwane formaty danych wyjściowych audio dla zamiany tekstu na mowę. Nie.
speed Liczba Szybkość mowy dla wygenerowanego dźwięku. Wartości są prawidłowe w zakresie od 0,25 do 4,0, przy czym wartością domyślną jest 1,0, a wyższe wartości odpowiadają szybszemu tempu mowy. Nie. 1
stream_format wyliczenie Format przesyłania strumieniowego dźwięku. Obsługiwane formaty to sse i audio. sse program nie jest obsługiwany dla tts-1 programu lub tts-1-hd.
Możliwe wartości: sse, audio
Nie.
voice obiekt Tak

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
application/octet-stream ciąg

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Example

Syntetyzuje dźwięk z dostarczonego tekstu.

POST {endpoint}/openai/v1/audio/speech?api-version=preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3",
 "model": "tts-1"
}

Odpowiedzi: Kod stanu: 200

{
  "body": "101010101"
}

Tworzenie transkrypcji

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

Transkrybuje dźwięk w języku wejściowym.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: dane wielu części/formularzu

Name Typ Opis Wymagane Default
chunking_strategy obiekt Nie.
└─prefix_padding_ms liczba całkowita Ilość dźwięku do uwzględnienia przed wykryciem mowy przez VAD (w milisekundach). Nie. 300
└czas_trwania_ciszy_ms liczba całkowita Czas trwania ciszy wykrywania zatrzymania mowy (w milisekundach). Dzięki krótszym wartościom model będzie reagować szybciej, ale może wskoczyć na krótkie przerwy od użytkownika. Nie. 200
└* próg Liczba Próg czułości (od 0,0 do 1,0) na potrzeby wykrywania aktywności głosowej. Wyższy próg będzie wymagać głośniejszego dźwięku do aktywowania modelu, a tym samym może działać lepiej w hałaśliwych środowiskach. Nie. 0,5
└typ wyliczenie Musi być ustawiona na server_vad, aby włączyć ręczne fragmentowanie przy użyciu VAD po stronie serwera.
Możliwe wartości: server_vad
Nie.
plik ciąg Tak
filename ciąg Opcjonalna nazwa pliku lub identyfikator opisowy do skojarzenia z danymi audio. Nie.
include[] macierz Dodatkowe informacje do uwzględnienia w odpowiedzi na transkrypcję. logprobs Zwróci logarytmiczne prawdopodobieństwa tokenów w odpowiedzi, co pozwoli zrozumieć poziom zaufania modelu do transkrypcji. logprobs Działa tylko z response_format ustawioną na json i tylko z modelami gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribei gpt-4o-mini-transcribe-2025-12-15. Nie.
język ciąg Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 (np. en) poprawi dokładność i opóźnienie. Nie.
model ciąg Model do użycia dla tego żądania transkrypcji. Nie.
monit ciąg Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Komunikat powinien być zgodny z językiem dźwięku. Nie.
format_odpowiedzi obiekt Nie.
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta, ponieważ są generowane przy użyciu zdarzeń wysyłanych przez serwer. Uwaga: przesyłanie strumieniowe nie jest obsługiwane dla whisper-1 modelu i zostanie zignorowane. Nie. Nieprawda
temperatura Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa logarytmicznego, aby automatycznie zwiększyć temperaturę do momentu osiągnięcia określonych progów. Nie. 0
timestamp_granularities[] macierz Stopień szczegółowości sygnatury czasowej do wypełnienia dla tej transkrypcji. response_format należy ustawić, verbose_json aby używać szczegółowości sygnatury czasowej. Obsługiwane są obie te opcje: word, lub segment. Uwaga: nie ma dodatkowego opóźnienia dla znaczników czasu segmentu, ale generowanie znaczników czasu dla wyrazów powoduje dodatkowe opóźnienie. Nie. ['segment']

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureAudioTranscriptionResponse
tekst/zwykły ciąg

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Example

Pobiera transkrybowany tekst i powiązane metadane z dostarczonych danych dźwiękowych.

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Odpowiedzi: Kod stanu: 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Tworzenie tłumaczenia

POST {endpoint}/openai/v1/audio/translations?api-version=preview

Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: dane wielu części/formularzu

Name Typ Opis Wymagane Default
plik ciąg Tak
filename ciąg Opcjonalna nazwa pliku lub identyfikator opisowy do skojarzenia z danymi audio Nie.
model ciąg Model do użycia dla tego żądania tłumaczenia. Nie.
monit ciąg Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Monit powinien być w języku angielskim. Nie.
format_odpowiedzi obiekt Nie.
temperatura Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa logarytmicznego, aby automatycznie zwiększyć temperaturę do momentu osiągnięcia określonych progów. Nie. 0

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureAudioTranslationResponse
tekst/zwykły ciąg

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Example

Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.

POST {endpoint}/openai/v1/audio/translations?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Odpowiedzi: Kod stanu: 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Tworzenie ukończenia czatu

POST {endpoint}/openai/v1/chat/completions?api-version=preview

Tworzy odpowiedź czatu.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
audio obiekt Parametry dla danych wyjściowych dźwięku. Wymagane przy żądaniu wyjścia audio za użyciem modalities: ["audio"]. Nie.
Format └─ wyliczenie Określa format dźwięku wyjściowego. Musi być jednym z wav, mp3, flac, opus lub pcm16.
Możliwe wartości: wav, , aacmp3, flac, , opuspcm16
Nie.
└─ głos obiekt Nie.
data_sources macierz Źródła danych używane w funkcji On Your Data (Włączone dane) są przeznaczone wyłącznie do Azure OpenAI. Nie.
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Nie. 0
function_call wyliczenie Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.
Możliwe wartości: none, auto
Nie.
functions macierz Przestarzałe na rzecz tools.
Lista funkcji, dla których model może generować dane wejściowe JSON.
Nie.
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Nie. Żaden
logprobs typ logiczny (boolowski) Czy zwracać logarytmiczne prawdopodobieństwa dla tokenów wyjściowych, czy nie. Jeśli true, zwraca logarytmiczne prawdopodobieństwa każdego tokenu wyjściowego zwróconego w content elementu message. Nie. Nieprawda
max_completion_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
maks_tokenów liczba całkowita Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.
Ta wartość może służyć do kontrolowania kosztów tekstu generowanego za pośrednictwem interfejsu API.
Ta wartość jest teraz przestarzała na rzecz elementu max_completion_tokens, i nie jest zgodna z modelami serii o1.
Nie.
messages macierz Lista wiadomości składających się z konwersacji do tej pory. W zależności od używanego modelu obsługiwane są różne typy komunikatów (modalności), takie jak tekst, obrazy i dźwięk. Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.
Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
Sposoby obiekt Typy danych wyjściowych, które mają być generowane przez model.
Większość modeli jest w stanie wygenerować tekst, co jest wartością domyślną:

["text"]

Model gpt-4o-audio-preview może również służyć do generowania dźwięku. Aby zażądać, aby ten model wygenerował odpowiedzi tekstowe i audio, możesz użyć:

["text", "audio"]
Nie.
model ciąg Identyfikator wdrożenia modelu, który należy użyć w żądaniu ukończenia czatu. Tak
n liczba całkowita Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n jako 1 aby zminimalizować koszty. Nie. 1
wywołania_narzędzia_równoległe obiekt Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. Nie.
przewidywanie obiekt Podstawowa reprezentacja przewidywanych danych wyjściowych z modelu. Nie.
└typ OpenAI.ChatOutputPredictionType Nie.
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy. Nie. 0
wysiłek rozumowania obiekt Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Nie.
format_odpowiedzi obiekt Nie.
└typ wyliczenie
Możliwe wartości: text, , json_objectjson_schema
Nie.
seed liczba całkowita Ta funkcja jest dostępna w wersji beta.
Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.
Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
Nie.
stop obiekt Nie jest obsługiwane przez najnowsze modele rozumowania o3 i o4-mini.

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.
Nie.
przechowywać typ logiczny (boolowski) Zależy, czy dane wyjściowe tego żądania zakończenia czatu mają być przechowywane do wykorzystania w produktach destylacji modelu lub ewaluacyjnych. Nie. Nieprawda
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta, ponieważ są generowane przy użyciu zdarzeń wysyłanych przez serwer. Nie. Nieprawda
stream_options obiekt Opcje strumieniowania odpowiedzi. Ustaw tę wartość tylko po ustawieniu stream: true. Nie.
└include_usage typ logiczny (boolowski) W przypadku ustawienia przed komunikatem data: [DONE] dodatkowy fragment zostanie przesłany strumieniem. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu dla całego żądania, a choices pole zawsze będzie pustą tablicą.

Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null. NUTA: Jeśli strumień zostanie przerwany, możesz nie otrzymać końcowego fragmentu użycia, który zawiera łączne użycie tokenu dla żądania.
Nie.
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.
none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.
required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.

none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia.
Nie.
narzędzia macierz Lista narzędzi, które model może wywołać. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji. Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
user_security_context AzureUserSecurityContext Kontekst zabezpieczeń użytkownika zawiera kilka parametrów, które opisują samą aplikację, oraz użytkownika końcowego, który wchodzi w interakcję z aplikacją. Te pola ułatwiają zespołom ds. operacji zabezpieczeń badanie i eliminowanie zdarzeń zabezpieczeń, zapewniając kompleksowe podejście do ochrony aplikacji sztucznej inteligencji. Dowiedz się więcej o ochronie aplikacji sztucznej inteligencji przy użyciu Microsoft Defender for Cloud. Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureCreateChatCompletionResponse
text/event-stream AzureCreateChatCompletionStreamResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Example

Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.

POST {endpoint}/openai/v1/chat/completions?api-version=preview

{
 "model": "gpt-4o-mini",
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Tworzenie embeddingu

POST {endpoint}/openai/v1/embeddings?api-version=preview

Tworzy wektor osadzania reprezentujący tekst wejściowy.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
dimensions liczba całkowita Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. Nie.
encoding_format wyliczenie Format, w jakim można zwrócić osadzenia. Może być float lub base64.
Możliwe wartości: float, base64
Nie.
dane wejściowe ciąg lub tablica Tak
model ciąg Model do wykorzystania dla żądania osadzania. Tak
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.CreateEmbeddingResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Example

Zwróć wektory osadzeń dla danego zapytania.

POST {endpoint}/openai/v1/embeddings?api-version=preview

{
 "model": "text-embedding-ada-002",
 "input": [
  "this is a test"
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196,
          -0.020365695,
          -0.009631885,
          -0.007647093,
          0.0033837722,
          -0.026764825,
          -0.010501476,
          0.020219658,
          0.024640633,
          -0.0066912062,
          -0.036456455,
          -0.0040923897,
          -0.013966565,
          0.017816665,
          0.005366905,
          0.022835068,
          0.0103488,
          -0.0010811808,
          -0.028942121,
          0.0074280356,
          -0.017033368,
          0.0074877786,
          0.021640211,
          0.002499245,
          0.013316032,
          0.0021524043,
          0.010129742,
          0.0054731146,
          0.03143805,
          0.014856071,
          0.0023366117,
          -0.0008243692,
          0.022781964,
          0.003038591,
          -0.017617522,
          0.0013309394,
          0.0022154662,
          0.00097414135,
          0.012041516,
          -0.027906578,
          -0.023817508,
          0.013302756,
          -0.003003741,
          -0.006890349,
          0.0016744611
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Lista waleń

GET {endpoint}/openai/v1/evals?api-version=preview

Wyświetlanie listy ocen dla project.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
after kwerenda Nie. ciąg Identyfikator ostatniej oceny z poprzedniego żądania stronicowania.
limit kwerenda Nie. liczba całkowita Limit liczby ewal, które mają być zwracane w pojedynczej odpowiedzi na strony.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Kolejność sortowania ocen według znacznika czasu. Użyj asc dla kolejności rosnącej lub desc dla kolejności malejącej.
sortuj_według kwerenda Nie. ciąg
Możliwe wartości: created_at, updated_at
Oceny mogą być uporządkowane według czasu utworzenia lub czasu ostatniej aktualizacji. Użyj created_at dla czasu utworzenia lub updated_at dla czasu ostatniej aktualizacji.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie

POST {endpoint}/openai/v1/evals?api-version=preview

Utwórz strukturę oceny, która może służyć do testowania wydajności modelu.

Ocena to zestaw kryteriów testowania i źródła danych. Po utworzeniu oceny można uruchomić go na różnych modelach i parametrach modelu. Obsługujemy kilka typów klasyrów i źródeł danych.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
konfiguracja źródła danych obiekt Tak
└typ OpenAI.EvalDataSourceConfigType Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
nazwa ciąg Nazwa oceny. Nie.
kod statusu wyliczenie
Możliwe wartości: 201
Tak
kryteria_testowe macierz Lista osób oceniających dla wszystkich przebiegów oceny w tej grupie. Klasyfikatory mogą odwoływać się do zmiennych w źródle danych przy użyciu notacji podwójnych nawiasów klamrowych, takich jak {{item.variable_name}}. Aby odwołać się do danych wyjściowych modelu, użyj sample przestrzeni nazw (tj. {{sample.output_text}}). Tak

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.Eval

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Uzyskiwanie oceny

GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Pobierz ocenę według jego identyfikatora. Pobiera ocenę według jego identyfikatora.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.Eval

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Aktualizacja wal

POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Zaktualizuj polecenie select, modyfikowalne właściwości określonej oceny.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
metadane OpenAI.MetadataPropertyForRequest Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
nazwa ciąg Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.Eval

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuń ewal

DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Usuń określoną ocenę.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json obiekt

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie przebiegów oceny

GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Pobierz listę przebiegów dla określonej oceny.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
after kwerenda Nie. ciąg
limit kwerenda Nie. liczba całkowita
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
stan kwerenda Nie. ciąg
Możliwe wartości: queued, , in_progresscompleted, , canceledfailed

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRunList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie przebiegu oceny

POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Utwórz nowy przebieg oceny, rozpoczynając proces klasyfikacji.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
źródło danych obiekt Tak
└typ OpenAI.EvalRunDataSourceType Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
nazwa ciąg Nazwa przebiegu. Nie.

Responses

Kod stanu: 201

Opis: Żądanie zakończyło się pomyślnie i w rezultacie został utworzony nowy zasób.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRun

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie przebiegu oceny

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Pobierz określoną ocenę uruchamianą według jego identyfikatora.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
run_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRun

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Anuluj przebieg oceny

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Anuluj określony przebieg oceny według jego identyfikatora.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
run_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRun

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Deleteevalrun

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Usuń określoną ocenę uruchamianą według jego identyfikatora.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
run_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json obiekt

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie elementów wyjściowych przebiegu oceny

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview

Pobierz listę elementów wyjściowych dla określonego przebiegu oceny.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
run_id ścieżka Tak ciąg
after kwerenda Nie. ciąg
limit kwerenda Nie. liczba całkowita
stan kwerenda Nie. ciąg
Możliwe wartości: fail, pass
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRunOutputItemList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie elementu wyjściowego przebiegu oceny

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview

Pobierz określony element wyjściowy z oceny uruchomionej według jego identyfikatora.

UWAGA: ten Azure interfejs API openAI jest w wersji zapoznawczej i może ulec zmianie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia access do AOAI Evals, funkcja w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
run_id ścieżka Tak ciąg
output_item_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRunOutputItem

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Utwórz plik

POST {endpoint}/openai/v1/files?api-version=preview

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: dane wielu części/formularzu

Name Typ Opis Wymagane Default
wygasa po obiekt Tak
└* kotwica AzureFileExpiryAnchor Nie.
└s liczba całkowita Nie.
plik ciąg Tak
purpose wyliczenie Zamierzony cel przesłanego pliku. Jeden z: — assistantsużywany w interfejsie API Asystentów — batch: używany w interfejsie API usługi Batch — fine-tune: używany do dostrajania — evals: używany do ewalowania zestawów danych
Możliwe wartości: assistants, , batch, fine-tuneevals
Tak

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIFile

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Example

POST {endpoint}/openai/v1/files?api-version=preview

Lista plików

GET {endpoint}/openai/v1/files?api-version=preview

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
purpose kwerenda Nie. ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureListFilesResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie pliku

GET {endpoint}/openai/v1/files/{file_id}?api-version=preview

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pliku do użycia dla tego żądania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIFile

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuń plik

DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pliku do użycia dla tego żądania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.DeleteFileResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie pliku

GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pliku do użycia dla tego żądania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
application/octet-stream ciąg

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Rungrader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview

Uruchom klasykator.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.
element Element zestawu danych dostarczony do klasyra. Zostanie użyta do wypełnienia item przestrzeni nazw. Nie.
model_sample ciąg Przykładowy model do oceny. Ta wartość sample zostanie użyta do wypełnienia przestrzeni nazw.
Zmienna output_json zostanie wypełniona, jeśli przykładowy model jest prawidłowym ciągiem JSON.
Tak

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.RunGraderResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Sprawdzanie poprawności klasyfikatora

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview

Zweryfikuj klasyfikator.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ValidateGraderResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie zadania dostrajania

POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Tworzy zadanie dostrajania, które rozpoczyna proces tworzenia nowego modelu na podstawie danego zestawu danych.

Odpowiedź zawiera szczegóły zadania w kolejce, w tym stan zadania i nazwę dostosowanych modeli po zakończeniu.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
hiperparametry obiekt Hiperparametry używane do zadania dostrajania.
Ta wartość jest teraz przestarzała na rzecz parametru methodi powinna zostać przekazana w parametrze method .
Nie.
└batch_size wyliczenie
Możliwe wartości: auto
Nie.
└learning_rate_multiplier wyliczenie
Możliwe wartości: auto
Nie.
└n_epochs wyliczenie
Możliwe wartości: auto
Nie.
Integracje macierz Lista integracji umożliwiających dostrajanie zadania. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
metoda OpenAI.FineTuneMethod Metoda używana do dostrajania. Nie.
model ciąg (zobacz prawidłowe modele poniżej) Nazwa modelu do dostosowania. Tak
seed liczba całkowita Nasiono kontroluje reproduktywność procesu. Przekazywanie tych samych parametrów nasion i zadania powinno generować te same wyniki, ale mogą się różnić w rzadkich przypadkach.
Jeśli ziarno nie zostanie określone, zostanie wygenerowane dla Ciebie.
Nie.
przyrostek ciąg Ciąg zawierający maksymalnie 64 znaki, które zostaną dodane do precyzyjnej nazwy modelu.

Na przykład wartość suffix "custom-model-name" spowoduje wygenerowanie nazwy modelu, takiej jak ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
Nie. Żaden
plik szkoleniowy ciąg Identyfikator przekazanego pliku zawierającego dane szkoleniowe. Zestaw danych musi być sformatowany jako plik JSONL. Ponadto należy przekazać plik w celu fine-tune.

Zawartość pliku powinna się różnić w zależności od tego, czy model używa formatu czatu, uzupełniania lub czy metoda dostrajania dokładnego używa formatu preferencji.
Tak
plik walidacji ciąg Identyfikator przekazanego pliku zawierającego dane walidacji.

Jeśli podasz ten plik, dane są używane do okresowego generowania metryk walidacji podczas dostrajania. Te metryki można wyświetlić w pliku wyników dostrajania.
Te same dane nie powinny być obecne zarówno w plikach trenowania, jak i sprawdzania poprawności.

Zestaw danych musi być sformatowany jako plik JSONL. Musisz przekazać plik z celem fine-tune.
Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy zadań dostrajania podzielonego na strony

GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Wyświetlanie listy zadań dostrajania organizacji

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
after kwerenda Nie. ciąg Identyfikator ostatniego zadania z poprzedniego żądania stronicowania.
limit kwerenda Nie. liczba całkowita Liczba zadań dostrajania do pobrania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListPaginatedFineTuningJobsResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie zadania dostrajania

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview

Uzyskaj informacje o zadaniu dostrajania.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Anulowanie zadania dostrajania

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview

Natychmiast anuluj zadanie dostrajania.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania do anulowania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy punktów kontrolnych zadań dostrajania

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview

Wyświetl listę punktów kontrolnych dla zadania dostrajania.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania w celu pobrania punktów kontrolnych.
after kwerenda Nie. ciąg Identyfikator ostatniego identyfikatora punktu kontrolnego z poprzedniego żądania stronicowania.
limit kwerenda Nie. liczba całkowita Liczba punktów kontrolnych do pobrania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListFineTuningJobCheckpointsResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Lista zdarzeń dostrajania

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview

Pobieranie aktualizacji stanu zadania dostrajania.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania w celu pobrania zdarzeń.
after kwerenda Nie. ciąg Identyfikator ostatniego zdarzenia z poprzedniego żądania stronicowania.
limit kwerenda Nie. liczba całkowita Liczba zdarzeń do pobrania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListFineTuningJobEventsResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wstrzymaj zadanie dostrajania

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview

Wstrzymaj zadanie dostrajania.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania do wstrzymania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wznawianie zadania dostrajania

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview

Wznów wstrzymane zadanie dostrajania.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania do wznowienia.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie edycji obrazu

POST {endpoint}/openai/v1/images/edits?api-version=preview

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: dane wielu części/formularzu

Name Typ Opis Wymagane Default
tło wyliczenie Umożliwia ustawienie przezroczystości tła wygenerowanych obrazów.
Ten parametr jest obsługiwany tylko w przypadku modeli serii gpt-image-1. Musi być jedną z transparent, opaque lub auto (wartość domyślna). Gdy auto jest używany, model automatycznie określi najlepsze tło dla obrazu.

Jeśli transparent, format danych wyjściowych musi obsługiwać przezroczystość, dlatego powinien być ustawiony na png (wartość domyślna) lub webp.
Możliwe wartości: transparent, , opaqueauto
Nie.
obraz ciąg lub tablica Tak
maska ciąg Nie.
model ciąg Wdrożenie modelu do użycia dla operacji edytowania obrazu. Tak
n liczba całkowita Liczba obrazów do wygenerowania. Musi należeć do zakresu od 1 do 10. Nie. 1
kompresja wyjściowa liczba całkowita Poziom kompresji (0–100%) dla wygenerowanych obrazów. Ten parametr jest obsługiwany tylko w przypadku gpt-image-1modeli serii z formatami webp lub jpeg wyjściowymi, a wartością domyślną jest 100. Nie. 100
format_wyjściowy wyliczenie Format, w którym są zwracane wygenerowane obrazy. Ten parametr jest obsługiwany tylko w przypadku modeli serii gpt-image-1. Musi być jednym z png, jpeg lub webp.
Domyślna wartość to png.
Możliwe wartości: png, , jpegwebp
Nie.
monit ciąg Opis tekstu żądanych obrazów. Maksymalna długość to 1000 znaków dla modeli serii dall-e-2, a dla modeli serii gpt-image-1 to 32000 znaków. Tak
jakość wyliczenie Jakość obrazu, który zostanie wygenerowany. high, medium i low są obsługiwane tylko w przypadku modeli z serii gpt-image-1. dall-e-2 obsługuje tylko jakość standard. Wartość domyślna to auto.
Możliwe wartości: standard, , lowmedium, , highauto
Nie.
format_odpowiedzi wyliczenie Format, w którym są zwracane wygenerowane obrazy. Musi być jednym z url lub b64_json. Adresy URL są prawidłowe tylko przez 60 minut po wygenerowaniu obrazu. Ten parametr jest obsługiwany tylko w przypadku dall-e-2modeli serii , ponieważ gpt-image-1modele serii zawsze będą zwracać obrazy zakodowane w formacie base64.
Możliwe wartości: url, b64_json
Nie.
rozmiar wyliczenie Rozmiar wygenerowanych obrazów. Musi być jednym z elementów 1024x1024, 1536x1024 (poziomy), 1024x1536 (pionowy) lub auto (wartość domyślna) dla modeli serii gpt-image-1, oraz jedną z 256x256, 512x512 lub 1024x1024 dla dall-e-2.
Możliwe wartości: 256x256, , 512x5121024x1024, 1536x1024, , 1024x1536auto
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureImagesResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie obrazu

POST {endpoint}/openai/v1/images/generations?api-version=preview

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
tło wyliczenie Umożliwia ustawienie przezroczystości tła wygenerowanych obrazów.
Ten parametr jest obsługiwany tylko w przypadku modeli serii gpt-image-1. Musi być jedną z transparent, opaque lub auto (wartość domyślna). Gdy auto jest używany, model automatycznie określi najlepsze tło dla obrazu.

Jeśli transparent, format danych wyjściowych musi obsługiwać przezroczystość, dlatego powinien być ustawiony na png (wartość domyślna) lub webp.
Możliwe wartości: transparent, , opaqueauto
Nie.
model ciąg Wdrożenie modelu do użycia na potrzeby generowania obrazu. Tak
moderation wyliczenie Kontrolowanie poziomu moderowania zawartości w obrazach generowanych przez modele serii gpt-image-1. Musi być ustawione na low dla mniej restrykcyjnego filtrowania lub na auto, wartość domyślna.
Możliwe wartości: low, auto
Nie.
n liczba całkowita Liczba obrazów do wygenerowania. Musi należeć do zakresu od 1 do 10. W przypadku dall-e-3, obsługiwane są tylko n=1. Nie. 1
kompresja wyjściowa liczba całkowita Poziom kompresji (0–100%) dla wygenerowanych obrazów. Ten parametr jest obsługiwany tylko w przypadku gpt-image-1modeli serii z formatami webp lub jpeg wyjściowymi, a wartością domyślną jest 100. Nie. 100
format_wyjściowy wyliczenie Format, w którym są zwracane wygenerowane obrazy. Ten parametr jest obsługiwany tylko w przypadku modeli serii gpt-image-1. Musi być jednym z png, jpeg lub webp.
Możliwe wartości: png, , jpegwebp
Nie.
monit ciąg Opis tekstu żądanych obrazów. Maksymalna długość to 32000 znaków dla gpt-image-1modeli serii, 1000 znaków dla dall-e-2 i 4000 znaków dla dall-e-3. Tak
jakość wyliczenie Jakość obrazu, który zostanie wygenerowany.

- auto (wartość domyślna) automatycznie wybierze najlepszą jakość dla danego modelu.
- high medium i low są obsługiwane dla modeli serii gpt-image-1.
- hd i standard są obsługiwane dla dall-e-3.
- standard jest jedyną opcją dla elementu dall-e-2.
Możliwe wartości: standard, , hdlow, medium, , highauto
Nie.
format_odpowiedzi wyliczenie Format, w którym wygenerowane obrazy z dall-e-2 i dall-e-3 są zwracane. Musi być jednym z url lub b64_json. Adresy URL są prawidłowe tylko przez 60 minut po wygenerowaniu obrazu. Ten parametr nie jest obsługiwany w przypadku gpt-image-1modeli serii , które zawsze będą zwracać obrazy zakodowane w formacie base64.
Możliwe wartości: url, b64_json
Nie.
rozmiar wyliczenie Rozmiar wygenerowanych obrazów. Musi być jednym z elementów 1024x1024, 1536x1024 (poziomych), 1024x1536 (pionowych) lub auto (wartość domyślna) dla modeli serii gpt-image-1, jednym z 256x256, 512x512 lub 1024x1024 dla dall-e-2, i jednym z 1024x1024, 1792x1024 lub 1024x1792 dla dall-e-3.
Możliwe wartości: auto, , 1024x10241536x1024, 1024x1536256x256, , 512x512, , 1792x10241024x1792
Nie.
styl wyliczenie Styl wygenerowanych obrazów. Ten parametr jest obsługiwany tylko dla programu dall-e-3. Musi być jednym z vivid lub natural. Vivid powoduje, że model skłania się do generowania hiper-rzeczywistych i dramatycznych obrazów. Naturalne przyczyny powodują, że model tworzy bardziej naturalne, mniej hiperrealistyczne obrazy.
Możliwe wartości: vivid, natural
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureImagesResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Example

Tworzy obrazy z monitem.

POST {endpoint}/openai/v1/images/generations?api-version=preview

{
 "model": "dall-e-3",
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Wyświetlanie listy modeli

GET {endpoint}/openai/v1/models?api-version=preview

Wyświetla listę aktualnie dostępnych modeli i zawiera podstawowe informacje o poszczególnych modelach, takich jak właściciel i dostępność.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListModelsResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie modelu

GET {endpoint}/openai/v1/models/{model}?api-version=preview

Pobiera wystąpienie modelu, podając podstawowe informacje o modelu, takie jak właściciel i uprawnienie.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
model ścieżka Tak ciąg Identyfikator modelu do użycia dla tego żądania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.Model

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie odpowiedzi

POST {endpoint}/openai/v1/responses?api-version=preview

Tworzy odpowiedź modelu.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
include macierz Określ dodatkowe dane wyjściowe do uwzględnienia w odpowiedzi modelu. Obecnie obsługiwane wartości to:
- code_interpreter_call.outputs: Obejmuje dane wyjściowe z wykonywania kodu Python w elementach wywołania narzędzia do interpretacji kodu.
- computer_call_output.output.image_url: dołącz adresy URL obrazów z wyników procesu komputerowego.
- file_search_call.results: Dołącz wyniki wyszukiwania uzyskane z wezwania narzędzia do wyszukiwania plików.
- message.input_image.image_url: dołącz adresy URL obrazów z komunikatu wejściowego.
- message.output_text.logprobs: dołączanie logprobs z komunikatami asystenta.
- reasoning.encrypted_content: zawiera zaszyfrowaną wersję tokenów rozumowania w danych wyjściowych elementu rozumowania. Dzięki temu elementy rozumowania mogą być używane w wielowariantowych rozmowach podczas bezstanowego korzystania z interfejsu API odpowiedzi (na przykład gdy store parametr jest ustawiony na false, lub gdy organizacja jest zarejestrowana w programie zerowego przechowywania danych).
Nie.
dane wejściowe ciąg lub tablica Nie.
instructions ciąg Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania wraz z previous_response_id, instrukcje z poprzedniej odpowiedzi nie będą przenoszone do kolejnej odpowiedzi. Ułatwia proste wymienianie komunikatów systemowych lub komunikatów od deweloperów w nowych odpowiedziach.
Nie.
max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
model ciąg Wdrożenie modelu do użycia na potrzeby tworzenia tej odpowiedzi. Tak
wywołania_narzędzia_równoległe typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
monit obiekt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└─ ID ciąg Unikatowy identyfikator szablonu monitu do użycia. Nie.
Zmienne └* OpenAI.ResponsePromptVariables Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w wierszu polecenia. Wartości podstawienia mogą być ciągami lub innymi typami wejściowymi odpowiedzi, takimi jak obrazy lub pliki. Nie.
└* wersja ciąg Opcjonalna wersja szablonu monitu. Nie.
reasoning obiekt Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
└─ wysiłek OpenAI.ReasoningEffort Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Nie.
└─ generuj_podsumowanie wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
└─ Podsumowanie wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
przechowywać typ logiczny (boolowski) Określa, czy przechowywać wygenerowaną odpowiedź modelu na potrzeby późniejszego pobierania za pośrednictwem interfejsu API. Nie. Prawda
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta, ponieważ są generowane przy użyciu zdarzeń wysyłanych przez serwer. Nie. Nieprawda
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
SMS obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
tool_choice obiekt Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Nie.
└typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Nie.
narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia udostępniane przez usługę OpenAI, które rozszerzają możliwości modelu, takie jak wyszukiwanie plików.
- Wywołania funkcji (narzędzia niestandardowe): funkcje zdefiniowane przez Użytkownika, umożliwiając modelowi wywoływanie własnego kodu.
Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
truncation wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureResponse
text/event-stream OpenAI.ResponseStreamEvent

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Example

Utwórz odpowiedź wzorcową

POST {endpoint}/openai/v1/responses?api-version=preview

Uzyskiwanie odpowiedzi

GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Pobiera odpowiedź modelu z danym identyfikatorem.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
response_id ścieżka Tak ciąg
include[] kwerenda Nie. macierz

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuń odpowiedź

DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Usuwa odpowiedź według identyfikatora.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
response_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json obiekt

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy elementów wejściowych

GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview

Zwraca listę elementów wejściowych dla danej odpowiedzi.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
response_id ścieżka Tak ciąg
limit kwerenda Nie. liczba całkowita Limit liczby zwracanych obiektów. Limit może mieścić się w zakresie od 1 do 100, a wartość domyślna to 20.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Sortuj kolejność według znacznika created_at czasu obiektów. asc w przypadku kolejności rosnącej idesc kolejności malejącej.
after kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. after jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład wykonasz żądanie listy i otrzymasz 100 obiektów, kończąc się obj_foo, kolejne wywołanie może obejmować polecenie after=obj_foo w celu pobrania następnej strony listy.
przed kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. before jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład wykonasz żądanie listy i otrzymasz 100 obiektów, kończąc się obj_foo, kolejne wywołanie może zawierać wartość before=obj_foo w celu pobrania poprzedniej strony listy.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ResponseItemList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Magazyny wektorów listy

GET {endpoint}/openai/v1/vector_stores?api-version=preview

Zwraca listę magazynów wektorów.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
limit kwerenda Nie. liczba całkowita Limit liczby zwracanych obiektów. Limit może mieścić się w zakresie od 1 do 100, a wartość domyślna to 20.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Sortuj kolejność według znacznika created_at czasu obiektów. asc w przypadku kolejności rosnącej idesc kolejności malejącej.
after kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. after jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład wykonasz żądanie listy i otrzymasz 100 obiektów, kończąc się obj_foo, kolejne wywołanie może obejmować polecenie after=obj_foo w celu pobrania następnej strony listy.
przed kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. before jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład wykonasz żądanie listy i otrzymasz 100 obiektów, kończąc się obj_foo, kolejne wywołanie może zawierać wartość before=obj_foo w celu pobrania poprzedniej strony listy.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListVectorStoresResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie magazynu wektorów

POST {endpoint}/openai/v1/vector_stores?api-version=preview

Tworzy magazyn wektorów.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
chunking_strategy obiekt Strategia domyślna. Ta strategia używa obecnie wartości max_chunk_size_tokens800 i chunk_overlap_tokens .400 Nie.
└* statyczny OpenAI.StaticChunkingStrategy Nie.
└typ wyliczenie Zawsze static.
Możliwe wartości: static
Nie.
wygasa po OpenAI.VectorStoreExpirationAfter Zasady wygasania magazynu wektorów. Nie.
identyfikatory_plików macierz Lista identyfikatorów plików, których powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search, które mogą access plików. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
nazwa ciąg Nazwa magazynu wektorów. Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Nie można odnaleźć przykładowego pliku: ./examples/vector_stores.json

Pobieranie magazynu wektorów

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Pobiera magazyn wektorów.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów do pobrania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Modyfikowanie magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Modyfikuje magazyn wektorów.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów do zmodyfikowania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
wygasa po obiekt Zasady wygasania magazynu wektorów. Nie.
└* kotwica wyliczenie Znacznik czasu zakotwiczenia, po którym mają zastosowanie zasady wygasania. Obsługiwane kotwice: last_active_at.
Możliwe wartości: last_active_at
Nie.
└days liczba całkowita Liczba dni po upływie czasu zakotwiczenia, przez który magazyn wektorów wygaśnie. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
nazwa ciąg Nazwa magazynu wektorów. Nie.

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuwanie magazynu wektorów

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Usuń magazyn wektorów.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów do usunięcia.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.DeleteVectorStoreResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie partii plików magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview

Utwórz wektorową partię plików magazynu.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów, dla którego ma zostać utworzona partia plików.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logiczne lub liczby. Nie.
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii. Nie.
identyfikatory_plików macierz Lista identyfikatorów plików, których powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search, które mogą access plików. Tak

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileBatchObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie partii plików magazynu wektorów

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview

Pobiera wektorową partię plików magazynu.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy partia plików.
batch_id ścieżka Tak ciąg Identyfikator pobieranej partii plików.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileBatchObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Anulowanie partii plików magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview

Anuluj partię plików magazynu wektorów. Spowoduje to jak najszybsze anulowanie przetwarzania plików w tej partii.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy partia plików.
batch_id ścieżka Tak ciąg Identyfikator partii plików, którą należy anulować.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileBatchObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy plików w partii magazynu wektorowego

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview

Zwraca listę plików magazynu wektorów w partii.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy partia plików.
batch_id ścieżka Tak ciąg Identyfikator partii plików, do którego należą pliki.
limit kwerenda Nie. liczba całkowita Limit liczby zwracanych obiektów. Limit może mieścić się w zakresie od 1 do 100, a wartość domyślna to 20.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Sortuj kolejność według znacznika created_at czasu obiektów. asc w przypadku kolejności rosnącej idesc kolejności malejącej.
after kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. after jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład wykonasz żądanie listy i otrzymasz 100 obiektów, kończąc się obj_foo, kolejne wywołanie może obejmować polecenie after=obj_foo w celu pobrania następnej strony listy.
przed kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. before jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład wykonasz żądanie listy i otrzymasz 100 obiektów, kończąc się obj_foo, kolejne wywołanie może zawierać wartość before=obj_foo w celu pobrania poprzedniej strony listy.
filtr kwerenda Nie. Filtruj według stanu pliku. Jeden z in_progress, completed, failed, cancelled.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListVectorStoreFilesResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pliki magazynu wektorów listy

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Zwraca listę plików magazynu wektorowego.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należą pliki.
limit kwerenda Nie. liczba całkowita Limit liczby zwracanych obiektów. Limit może mieścić się w zakresie od 1 do 100, a wartość domyślna to 20.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Sortuj kolejność według znacznika created_at czasu obiektów. asc w przypadku kolejności rosnącej idesc kolejności malejącej.
after kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. after jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład wykonasz żądanie listy i otrzymasz 100 obiektów, kończąc się obj_foo, kolejne wywołanie może obejmować polecenie after=obj_foo w celu pobrania następnej strony listy.
przed kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. before jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład wykonasz żądanie listy i otrzymasz 100 obiektów, kończąc się obj_foo, kolejne wywołanie może zawierać wartość before=obj_foo w celu pobrania poprzedniej strony listy.
filtr kwerenda Nie. Filtruj według stanu pliku. Jeden z in_progress, completed, failed, cancelled.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListVectorStoreFilesResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie pliku magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Utwórz plik magazynu wektorów, dołączając plik do magazynu wektorów.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów, dla którego ma zostać utworzony plik.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logiczne lub liczby. Nie.
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii. Nie.
identyfikator_pliku ciąg Identyfikator pliku, którego powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search, które mogą access plików. Tak

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie pliku magazynu wektorów

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Pobiera plik magazynu wektorów.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy plik.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pobieranego pliku.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Aktualizowanie atrybutów plików magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg
identyfikator_pliku ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logiczne lub liczby. Tak

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuwanie pliku magazynu wektorów

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Usuń plik magazynu wektorów. Spowoduje to usunięcie pliku z magazynu wektorów, ale sam plik nie zostanie usunięty. Aby usunąć plik, użyj punktu końcowego usuwania pliku.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_magazynu_wektorów ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy plik.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pliku do usunięcia.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.DeleteVectorStoreFileResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Zadania generowania wideo — tworzenie

POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Tworzy nowe zadanie generowania wideo.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Treść żądania

Typ zawartości: aplikacja/json

Name Typ Opis Wymagane Default
height liczba całkowita Wysokość filmu wideo. Obsługiwane są następujące wymiary: 480x480, 854x480, 720x720, 1280x720, 1080x1080 i 1920x1080 zarówno w orientacji poziomej, jak i pionowej. Tak
model ciąg Nazwa wdrożenia, które ma być użyte w tym żądaniu. Tak
n_seconds liczba całkowita Czas trwania zadania generowania wideo. Musi należeć do zakresu od 1 do 20 sekund. Nie. 5
n_variants liczba całkowita Liczba filmów wideo do utworzenia jako wariantów dla tego zadania. Musi należeć do przedziału od 1 do 5. Mniejsze wymiary umożliwiają korzystanie z większej liczby wariantów. Nie. 1
monit ciąg Polecenie do zlecenia generowania wideo. Tak
width liczba całkowita Szerokość filmu wideo. Obsługiwane są następujące wymiary: 480x480, 854x480, 720x720, 1280x720, 1080x1080 i 1920x1080 zarówno w orientacji poziomej, jak i pionowej. Tak

Treść żądania

Typ zawartości: dane wielu części/formularzu

Name Typ Opis Wymagane Default
files macierz Tak
height liczba całkowita Wysokość filmu wideo. Obsługiwane są następujące wymiary: 480x480, 854x480, 720x720, 1280x720, 1080x1080 i 1920x1080 zarówno w orientacji poziomej, jak i pionowej. Tak
inpaint_items macierz Opcjonalne elementy inpainting dla tego zadania generowania wideo. Nie.
model ciąg Nazwa wdrożenia, które ma być użyte w tym żądaniu. Tak
n_seconds liczba całkowita Czas trwania zadania generowania wideo. Musi należeć do zakresu od 1 do 20 sekund. Nie. 5
n_variants liczba całkowita Liczba filmów wideo do utworzenia jako wariantów dla tego zadania. Musi należeć do przedziału od 1 do 5. Mniejsze wymiary umożliwiają korzystanie z większej liczby wariantów. Nie. 1
monit ciąg Polecenie do zlecenia generowania wideo. Tak
width liczba całkowita Szerokość filmu wideo. Obsługiwane są następujące wymiary: 480x480, 854x480, 720x720, 1280x720, 1080x1080 i 1920x1080 zarówno w orientacji poziomej, jak i pionowej. Tak

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json VideoGenerationJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIVideoGenerationErrorResponse

Przykłady

Nie można odnaleźć przykładowego pliku: ./examples/create_video_generation_job_simple.json

Zadania generowania wideo — lista

GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Wyświetla listę zadań generowania wideo.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
przed kwerenda Nie. ciąg
after kwerenda Nie. ciąg
limit kwerenda Tak liczba całkowita
statuses kwerenda Nie. macierz

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json VideoGenerationJobList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIVideoGenerationErrorResponse

Przykłady

Nie można odnaleźć przykładowego pliku: ./examples/get_video_generation_job_list.json

Zadania generowania wideo — Pobierz

GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Pobiera właściwości zadania generowania wideo.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
job-id ścieżka Tak ciąg Identyfikator zadania generowania wideo do użycia dla żądania Azure OpenAI.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json VideoGenerationJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIVideoGenerationErrorResponse

Przykłady

Nie można odnaleźć przykładowego pliku: ./examples/get_video_generation_job.json

Zadania generowania wideo — usuwanie

DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Usuwa zadanie generowania wideo.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
job-id ścieżka Tak ciąg Identyfikator zadania generowania wideo do użycia dla żądania Azure OpenAI.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 204

Opis: Nie ma zawartości do wysłania dla tego żądania, ale nagłówki mogą być przydatne.

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIVideoGenerationErrorResponse

Generacje wideo — pobierz

GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview

Pobiera generowanie wideo według identyfikatora.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
generation-id ścieżka Tak ciąg Identyfikator generowania wideo do użycia dla żądania Azure OpenAI.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json VideoGeneration

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIVideoGenerationErrorResponse

Przykłady

Nie można odnaleźć przykładowego pliku: ./examples/get_video_generation.json

Generowanie wideo – uzyskiwanie miniatury

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview

Pobiera miniaturę wygenerowanej zawartości wideo.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
generation-id ścieżka Tak ciąg Identyfikator generowania wideo do użycia dla żądania Azure OpenAI.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
image/jpg ciąg

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIVideoGenerationErrorResponse

Generacje wideo — pobieranie zawartości wideo

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Pobiera wygenerowaną zawartość wideo.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
generation-id ścieżka Tak ciąg Identyfikator generowania wideo do użycia dla żądania Azure OpenAI.
jakość kwerenda Nie.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
wideo/mp4 ciąg

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIVideoGenerationErrorResponse

Generacje wideo — pobieranie tylko nagłówków wideocontent

HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Pobiera nagłówki wygenerowanej zawartości wideo.

Parametry identyfikatora URI

Name In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
Adres URL
Obsługiwane punkty końcowe Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu openAI Azure). https://{nazwa-zasobu}.openai. azure.com
wersja API kwerenda Nie. Jawnie określona wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
generation-id ścieżka Tak ciąg Identyfikator generowania wideo do użycia dla żądania Azure OpenAI.
jakość kwerenda Nie.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Name Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://ai.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API openAI Azure

Responses

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIVideoGenerationErrorResponse

Components

AudioTaskLabel

Definiuje możliwe deskryptory dla dostępnych odpowiedzi operacji audio.

Majątek Wartość
Opis Definiuje możliwe deskryptory dla dostępnych odpowiedzi operacji audio.
Typ ciąg
Wartości transcribe
translate

AudioTranslationSegment

Rozszerzone informacje o pojedynczym segmencie przetłumaczonych danych audio. Segmenty zazwyczaj reprezentują około 5–10 sekund mowy. Granice segmentów zwykle występują między wyrazami, ale niekoniecznie zdaniami.

Name Typ Opis Wymagane Default
avg_logprob Liczba Średnie prawdopodobieństwo dziennika skojarzone z tym segmentem audio. Tak
compression_ratio Liczba Współczynnik kompresji tego segmentu audio. Tak
koniec Liczba Czas, w którym ten segment zakończył się względem początku przetłumaczonego dźwięku. Tak
identyfikator liczba całkowita Indeks 0 tego segmentu w ramach tłumaczenia. Tak
no_speech_prob Liczba Prawdopodobieństwo braku wykrywania mowy w tym segmencie audio. Tak
seek liczba całkowita Pozycja wyszukiwania skojarzona z przetwarzaniem tego segmentu audio.
Pozycje wyszukiwania są wyrażane jako setne sekundy.
Model może przetwarzać kilka segmentów z pojedynczej pozycji wyszukiwania, więc pozycja wyszukiwania nigdy nie będzie reprezentować późniejszego czasu niż czas rozpoczęcia segmentu, ale rozpoczęcie segmentu może reprezentować znacznie późniejszy czas niż skojarzona pozycja wyszukiwania segmentu.
Tak
początek Liczba Czas rozpoczęcia tego segmentu względem początku przetłumaczonego dźwięku. Tak
temperatura Liczba Wynik temperatury skojarzony z tym segmentem audio. Tak
SMS ciąg Przetłumaczony tekst, który był częścią tego segmentu audio. Tak
tokens macierz Identyfikatory tokenów pasujące do przetłumaczonego tekstu w tym segmencie audio. Tak

AzureAIFoundryModelsApiVersion

Majątek Wartość
Typ ciąg
Wartości v1
preview

AzureAudioTranscriptionResponse

Informacje o wyniku operacji, która transkrybowała dźwięk mówiony do tekstu pisanego.

Name Typ Opis Wymagane Default
duration Liczba Łączny czas trwania dźwięku przetworzonego w celu uzyskania towarzyszących informacji transkrypcyjnych. Nie.
język ciąg Język mówiony, który został wykryty w transkrypcji danych audio.
Jest to wyrażone jako dwuliterowy kod języka ISO-639-1, taki jak "en" lub "fr".
Nie.
segments macierz Kolekcja informacji o chronometrażu, prawdopodobieństw i innych szczegółach każdego przetworzonego segmentu audio. Nie.
zadanie obiekt Definiuje możliwe deskryptory dla dostępnych odpowiedzi operacji audio. Nie.
SMS ciąg Tekst przetranskrybowany dla dostarczonych danych dźwiękowych. Tak
words macierz Kolekcja informacji o chronometrażu każdego przetworzonego słowa. Nie.

AzureAudioTranslationResponse

Informacje o wyniku operacji, która przetłumaczyła dźwięk mówiony na tekst pisany.

Name Typ Opis Wymagane Default
duration Liczba Łączny czas trwania przetworzonego dźwięku w celu utworzenia towarzyszących informacji o tłumaczeniu. Nie.
język ciąg Język mówiony, który został wykryty w przetłumaczonych danych audio.
Jest to wyrażone jako dwuliterowy kod języka ISO-639-1, taki jak "en" lub "fr".
Nie.
segments macierz Kolekcja informacji o chronometrażu, prawdopodobieństw i innych szczegółach każdego przetworzonego segmentu audio. Nie.
zadanie obiekt Definiuje możliwe deskryptory dla dostępnych odpowiedzi operacji audio. Nie.
SMS ciąg Przetłumaczony tekst dla podanych danych dźwiękowych. Tak

AzureChatCompletionResponseMessage

Składnik rozszerzonego modelu odpowiedzi na potrzeby komunikatów odpowiedzi na czat na Azure OpenAI service. Ten model dodaje obsługę kontekstu wiadomości czatu używanego przez funkcję On Your Data dla intencji, cytatów i innych informacji związanych z generacją rozszerzoną przez pobieranie.

Name Typ Opis Wymagane Default
Adnotacje macierz Adnotacje dla wiadomości, jeśli ma to zastosowanie, tak jak w przypadku korzystania z narzędzia wyszukiwania w Internecie. Nie.
audio obiekt Jeśli zażądano trybu wyjściowego dźwięku, ten obiekt zawiera dane dotyczące odpowiedzi dźwiękowej z modelu. Nie.
└─ dane ciąg Zakodowane w formacie Base64 bajty audio generowane przez model w formacie określonym w żądaniu. Nie.
└─ wygasa_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) określająca, kiedy ta odpowiedź dźwiękowa nie będzie dostępna na serwerze do wykorzystania w konwersacjach wieloetapowych. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi audio. Nie.
└* transkrypcja ciąg Transkrypcja dźwięku wygenerowanego przez model. Nie.
zawartość ciąg Zawartość wiadomości. Tak
kontekst obiekt Dodatkowa właściwość, dodana do komunikatów odpowiedzi na zakończenie czatu, wygenerowana przez Azure OpenAI service podczas korzystania z zachowania rozszerzenia. Obejmuje to informacje o celu i cytatach z funkcji On Your Data. Nie.
└all_retrieved_documents obiekt Podsumowanie informacji o dokumentach pobranych przez operację pobierania danych. Nie.
└chunk_id ciąg Identyfikator fragmentu cytatu. Nie.
└─ zawartość ciąg Zawartość cytatu. Nie.
└─ indeks_źródła_danych liczba całkowita Indeks źródła danych używany do pobierania. Nie.
└* ścieżka pliku ciąg Ścieżka pliku dla cytatu. Nie.
└─ powód_filtru wyliczenie Jeśli ma to zastosowanie, wskazanie, dlaczego dokument został przefiltrowany.
Możliwe wartości: score, rerank
Nie.
└original_search_score Liczba Oryginalny wynik wyszukiwania dla pobierania. Nie.
└ wynik ponownego rankingu Liczba Wynik ponownej oceny dla pobrania. Nie.
└─ zapytania_wyszukiwania macierz Zapytania wyszukiwania wykonywane w celu pobrania dokumentów. Nie.
└─ Tytuł ciąg Tytuł cytatu. Nie.
└─ adres URL ciąg Adres URL cytatu. Nie.
└─ cytaty macierz Cytaty generowane przez pobieranie danych. Nie.
└─ intencja ciąg Wykryta intencja z historii czatu, która służy do przenoszenia kontekstu konwersacji między interakcjami Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
└─ Argumenty ciąg Nie.
└─ nazwa ciąg Nie.
reasoning_content ciąg Właściwość rozszerzenia specyficznego dla Azure zawierająca wygenerowaną zawartość rozumowania z obsługiwanych modeli. Nie.
refusal ciąg Komunikat o odmowie wygenerowany przez model. Tak
rola wyliczenie Rola autora tej wiadomości.
Możliwe wartości: assistant
Tak
tool_calls ChatCompletionMessageToolCallsItem Wywołania narzędzi generowane przez model, takie jak wywołania funkcji. Nie.

AzureChatCompletionStreamResponseDelta

Rozszerzony model odpowiedzi dla wiadomości odpowiedzi na czat przesyłania strumieniowego w Azure OpenAI service. Ten model dodaje obsługę kontekstu wiadomości czatu używanego przez funkcję On Your Data dla intencji, cytatów i innych informacji związanych z generacją rozszerzoną przez pobieranie.

Name Typ Opis Wymagane Default
audio obiekt Nie.
└─ dane ciąg Nie.
└─ wygasa_o liczba całkowita Nie.
└─ ID ciąg Nie.
└* transkrypcja ciąg Nie.
zawartość ciąg Zawartość sekcji wiadomości. Nie.
kontekst obiekt Dodatkowa właściwość, dodana do komunikatów odpowiedzi na zakończenie czatu, wygenerowana przez Azure OpenAI service podczas korzystania z zachowania rozszerzenia. Obejmuje to informacje o celu i cytatach z funkcji On Your Data. Nie.
└all_retrieved_documents obiekt Podsumowanie informacji o dokumentach pobranych przez operację pobierania danych. Nie.
└chunk_id ciąg Identyfikator fragmentu cytatu. Nie.
└─ zawartość ciąg Zawartość cytatu. Nie.
└─ indeks_źródła_danych liczba całkowita Indeks źródła danych używany do pobierania. Nie.
└* ścieżka pliku ciąg Ścieżka pliku dla cytatu. Nie.
└─ powód_filtru wyliczenie Jeśli ma to zastosowanie, wskazanie, dlaczego dokument został przefiltrowany.
Możliwe wartości: score, rerank
Nie.
└original_search_score Liczba Oryginalny wynik wyszukiwania dla pobierania. Nie.
└ wynik ponownego rankingu Liczba Wynik ponownej oceny dla pobrania. Nie.
└─ zapytania_wyszukiwania macierz Zapytania wyszukiwania wykonywane w celu pobrania dokumentów. Nie.
└─ Tytuł ciąg Tytuł cytatu. Nie.
└─ adres URL ciąg Adres URL cytatu. Nie.
└─ cytaty macierz Cytaty generowane przez pobieranie danych. Nie.
└─ intencja ciąg Wykryta intencja z historii czatu, która służy do przenoszenia kontekstu konwersacji między interakcjami Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
└─ Argumenty ciąg Nie.
└─ nazwa ciąg Nie.
reasoning_content ciąg Właściwość rozszerzenia specyficznego dla Azure zawierająca wygenerowaną zawartość rozumowania z obsługiwanych modeli. Nie.
refusal ciąg Komunikat o odmowie wygenerowany przez model. Nie.
rola obiekt Rola autora wiadomości Nie.
tool_calls macierz Nie.

AzureChatDataSource

Reprezentacja danych konfiguracji dla pojedynczego źródła danych czatu openAI Azure. Będzie to używane przez żądanie ukończenia czatu, które powinno używać Azure rozszerzenia czatu OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z Azure OpenAI.

Mechanizm rozróżniania dla AzureChatDataSource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
azure_search AzureSearchChatDataSource
azure_cosmos_db AzureCosmosDBChatDataSource
elasticsearch ElasticsearchChatDataSource
pinecone PineconeChatDataSource
mongo_db MongoDBChatDataSource
Name Typ Opis Wymagane Default
typ obiekt Tak

AzureChatDataSourceAccessTokenAuthenticationOptions

Name Typ Opis Wymagane Default
access_token ciąg Tak
typ wyliczenie
Możliwe wartości: access_token
Tak

AzureChatDataSourceApiKeyAuthenticationOptions

Name Typ Opis Wymagane Default
klucz ciąg Tak
typ wyliczenie
Możliwe wartości: api_key
Tak

AzureChatDataSourceAuthenticationOptions

Dyskryminator dla opcji uwierzytelniania źródła danych AzureChat

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
system_assigned_managed_identity AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
access_token AzureChatDataSourceAccessTokenAuthenticationOptions
connection_string AzureChatDataSourceConnectionStringAuthenticationOptions
key_and_key_id AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
encoded_api_key AzureChatDataSourceEncodedApiKeyAuthenticationOptions
username_and_password AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
Name Typ Opis Wymagane Default
typ AzureChatDataSourceAuthenticationOptionsType Tak

AzureChatDataSourceAuthenticationOptionsType

Majątek Wartość
Typ ciąg
Wartości api_key
username_and_password
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity

AzureChatDataSourceConnectionStringAuthenticationOptions

Name Typ Opis Wymagane Default
connection_string ciąg Tak
typ wyliczenie
Możliwe wartości: connection_string
Tak

AzureChatDataSourceDeploymentNameVectorizationSource

Reprezentuje źródło wektoryzacji, które wykonuje wewnętrzne wywołania usługi względem wdrożenia modelu osadzania openAI Azure OpenAI. W przeciwieństwie do źródła wektoryzacji opartego na punkcie końcowym źródło wektoryzacji oparte na nazwie wdrożenia musi być częścią tego samego zasobu Azure OpenAI, ale może być używane nawet w sieciach prywatnych.

Name Typ Opis Wymagane Default
nazwa wdrożenia ciąg Wdrożenie modelu osadzania do użycia na potrzeby wektoryzacji. To wdrożenie musi istnieć w ramach tego samego zasobu Azure OpenAI co wdrożenie modelu używane do ukończenia czatu. Tak
dimensions liczba całkowita Liczba wymiarów do żądania osadzania.
Obsługiwane tylko w modelach "text-embedding-3" i nowszych.
Nie.
typ wyliczenie Identyfikator typu, zawsze „deployment_name”, dla tego typu źródła wektoryzacji.
Możliwe wartości: deployment_name
Tak

AzureChatDataSourceEncodedApiKeyAuthenticationOptions

Name Typ Opis Wymagane Default
encoded_api_key ciąg Tak
typ wyliczenie
Możliwe wartości: encoded_api_key
Tak

AzureChatDataSourceEndpointVectorizationSource

Reprezentuje źródło wektoryzacji, które wykonuje wywołania usług publicznych względem wdrożenia modelu osadzania Azure OpenAI.

Name Typ Opis Wymagane Default
uwierzytelnianie obiekt Tak
└znak_dostępu ciąg Nie.
└─ klucz ciąg Nie.
└typ wyliczenie
Możliwe wartości: access_token
Nie.
dimensions liczba całkowita Liczba wymiarów do żądania osadzania.
Obsługiwane tylko w modelach "text-embedding-3" i nowszych.
Nie.
punkt końcowy ciąg Określa adres URL punktu końcowego zasobu, z którego mają zostać pobrane osadzanie.
Powinien być w formacie:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Parametr zapytania w wersji interfejsu API jest niedozwolony.
Tak
typ wyliczenie Identyfikator typu, zawsze "punkt końcowy" dla tego typu źródła wektoryzacji.
Możliwe wartości: endpoint
Tak

AzureChatDataSourceIntegratedVectorizationSource

Reprezentuje zintegrowane źródło wektoryzacji zdefiniowane w ramach pomocniczego zasobu wyszukiwania.

Name Typ Opis Wymagane Default
typ wyliczenie Identyfikator rodzaju, który jest zawsze "zintegrowany" dla tego typu źródła wektoryzacji.
Możliwe wartości: integrated
Tak

AzureChatDataSourceKeyAndKeyIdAuthenticationOptions

Name Typ Opis Wymagane Default
klucz ciąg Tak
key_id ciąg Tak
typ wyliczenie
Możliwe wartości: key_and_key_id
Tak

AzureChatDataSourceModelIdVectorizationSource

Reprezentuje źródło wektoryzacji, które wykonuje wywołania usług na podstawie identyfikatora modelu search service. Ten typ źródła jest obecnie obsługiwany tylko przez usługę Elasticsearch.

Name Typ Opis Wymagane Default
model_id ciąg Identyfikator kompilacji modelu osadzania do użycia na potrzeby wektoryzacji. Tak
typ wyliczenie Identyfikator typu zawsze "model_id" dla tego typu źródła wektoryzacji.
Możliwe wartości: model_id
Tak

AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: system_assigned_managed_identity
Tak

AzureChatDataSourceType

Majątek Wartość
Typ ciąg
Wartości azure_search
azure_cosmos_db
elasticsearch
pinecone
mongo_db

AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions

Name Typ Opis Wymagane Default
managed_identity_resource_id ciąg Tak
typ wyliczenie
Możliwe wartości: user_assigned_managed_identity
Tak

AzureChatDataSourceUsernameAndPasswordAuthenticationOptions

Name Typ Opis Wymagane Default
hasło ciąg Tak
typ wyliczenie
Możliwe wartości: username_and_password
Tak
nazwa użytkownika ciąg Tak

AzureChatDataSourceVectorizationSource

Reprezentacja źródła wektoryzacji danych, która może być użyta jako zasób do osadzania w kontekście danych.

Dyskryminator dla źródła wektoryzacji AzureChatDataSource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
deployment_name AzureChatDataSourceDeploymentNameVectorizationSource
integrated AzureChatDataSourceIntegratedVectorizationSource
model_id AzureChatDataSourceModelIdVectorizationSource
Name Typ Opis Wymagane Default
typ obiekt Tak

AzureChatDataSourceVectorizationSourceType

Majątek Wartość
Typ ciąg
Wartości endpoint
deployment_name
model_id
integrated

AzureChatMessageContext

Dodatkowa właściwość, dodana do komunikatów odpowiedzi na zakończenie czatu, wygenerowana przez Azure OpenAI service podczas korzystania z zachowania rozszerzenia. Obejmuje to informacje o celu i cytatach z funkcji On Your Data.

Name Typ Opis Wymagane Default
all_retrieved_documents obiekt Podsumowanie informacji o dokumentach pobranych przez operację pobierania danych. Nie.
└chunk_id ciąg Identyfikator fragmentu cytatu. Nie.
└─ zawartość ciąg Zawartość cytatu. Nie.
└─ indeks_źródła_danych liczba całkowita Indeks źródła danych używany do pobierania. Nie.
└* ścieżka pliku ciąg Ścieżka pliku dla cytatu. Nie.
└─ powód_filtru wyliczenie Jeśli ma to zastosowanie, wskazanie, dlaczego dokument został przefiltrowany.
Możliwe wartości: score, rerank
Nie.
└original_search_score Liczba Oryginalny wynik wyszukiwania dla pobierania. Nie.
└ wynik ponownego rankingu Liczba Wynik ponownej oceny dla pobrania. Nie.
└─ zapytania_wyszukiwania macierz Zapytania wyszukiwania wykonywane w celu pobrania dokumentów. Nie.
└─ Tytuł ciąg Tytuł cytatu. Nie.
└─ adres URL ciąg Adres URL cytatu. Nie.
citations macierz Cytaty generowane przez pobieranie danych. Nie.
intencja ciąg Wykryta intencja z historii czatu, która służy do przenoszenia kontekstu konwersacji między interakcjami Nie.

AzureContentFilterBlocklistResult

Kolekcja wyników filtrowania true/false dla skonfigurowanych niestandardowych list zablokowanych.

Name Typ Opis Wymagane Default
details macierz Pary poszczególnych identyfikatorów listy bloków i tego, czy spowodowały one akcję filtrowania. Nie.
filtered typ logiczny (boolowski) Wartość wskazująca, czy którakolwiek ze szczegółowych list zablokowanych spowodowała akcję filtrowania. Tak

AzureContentFilterCompletionTextSpan

Reprezentacja zakresu tekstu uzupełniania używanego przez Azure wyników filtru zawartości OpenAI.

Name Typ Opis Wymagane Default
completion_end_offset liczba całkowita Przesunięcie pierwszego punktu kodu UTF32, który jest wykluczony z zakresu. To pole jest zawsze równe completion_start_offset dla pustych zakresów. To pole jest zawsze większe niż completion_start_offset w przypadku niepustych zakresów. Tak
completion_start_offset liczba całkowita Przesunięcie punktu kodu UTF32, który rozpoczyna zakres. Tak

AzureContentFilterCompletionTextSpanDetectionResult

Name Typ Opis Wymagane Default
details macierz Szczegółowe informacje o wykrytych zakresach tekstu uzupełniania. Tak
detected typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Tak
filtered typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Tak

AzureContentFilterCustomTopicResult

Kolekcja wyników filtrowania wartości true/false dla skonfigurowanych tematów niestandardowych.

Name Typ Opis Wymagane Default
details macierz Pary poszczególnych identyfikatorów tematów i informacje o ich wykryciu. Nie.
filtered typ logiczny (boolowski) Wartość wskazująca, czy którykolwiek ze szczegółowych tematów spowodował akcję filtrowania. Tak

AzureContentFilterDetectionResult

Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana.

Name Typ Opis Wymagane Default
detected typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Tak
filtered typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Tak

AzureContentFilterImagePromptResults

Wynik filtru zawartości dla zawartości żądania wejściowego operacji generowania obrazu.

Name Typ Opis Wymagane Default
custom_blocklists obiekt Kolekcja wyników filtrowania true/false dla skonfigurowanych niestandardowych list zablokowanych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów listy bloków i tego, czy spowodowały one akcję filtrowania. Nie.
└─ Filtrowane typ logiczny (boolowski) Wartość wskazująca, czy którakolwiek ze szczegółowych list zablokowanych spowodowała akcję filtrowania. Nie.
custom_topics obiekt Kolekcja wyników filtrowania wartości true/false dla skonfigurowanych tematów niestandardowych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów tematów i informacje o ich wykryciu. Nie.
└─ Filtrowane typ logiczny (boolowski) Wartość wskazująca, czy którykolwiek ze szczegółowych tematów spowodował akcję filtrowania. Nie.
jailbreak obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana. Tak
Wykryto typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
└─ Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
profanity obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana. Nie.
Wykryto typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
└─ Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.

AzureContentFilterImageResponseResults

Wynik filtru zawartości dla zawartości odpowiedzi wyjściowej operacji generowania obrazu.

Name Typ Opis Wymagane Default
hate obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
self_harm obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
sexual obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
violence obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.

AzureContentFilterResultForChoice

Wynik filtru zawartości dla pojedynczego elementu odpowiedzi wygenerowanego przez system generowania sztucznej inteligencji.

Name Typ Opis Wymagane Default
custom_blocklists obiekt Kolekcja wyników filtrowania true/false dla skonfigurowanych niestandardowych list zablokowanych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów listy bloków i tego, czy spowodowały one akcję filtrowania. Nie.
└─ Filtrowane typ logiczny (boolowski) Wartość wskazująca, czy którakolwiek ze szczegółowych list zablokowanych spowodowała akcję filtrowania. Nie.
custom_topics obiekt Kolekcja wyników filtrowania wartości true/false dla skonfigurowanych tematów niestandardowych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów tematów i informacje o ich wykryciu. Nie.
└─ Filtrowane typ logiczny (boolowski) Wartość wskazująca, czy którykolwiek ze szczegółowych tematów spowodował akcję filtrowania. Nie.
błąd obiekt Jeśli jest obecny, szczegółowe informacje o błędzie uniemożliwiającym filtrowanie zawartości przed ukończeniem oceny. Nie.
└─ kod liczba całkowita Unikatowy kod czytelny dla maszyny skojarzony z błędem. Nie.
└─ Komunikat ciąg Czytelny dla człowieka komunikat skojarzony z błędem. Nie.
hate obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
profanity obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana. Nie.
Wykryto typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
└─ Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
protected_material_code obiekt Wynik wykrywania opisujący dopasowanie do licencjonowanego kodu lub innego chronionego materiału źródłowego. Nie.
└* cytat obiekt Jeśli są dostępne, szczegóły cytowania opisujące skojarzoną licencję i jej lokalizację. Nie.
└* adres URL ciąg Adres URL skojarzony z licencją. Nie.
└─ Licencja ciąg Nazwa lub identyfikator licencji skojarzonej z wykrywaniem. Nie.
Wykryto typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
└─ Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
protected_material_text obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana. Nie.
Wykryto typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
└─ Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
self_harm obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
sexual obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Nie.
violence obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.

AzureContentFilterResultForPrompt

Wynik filtru treści powiązany z pojedynczym elementem wejściowym w systemie generatywnej sztucznej inteligencji.

Name Typ Opis Wymagane Default
content_filter_results obiekt Szczegóły kategorii filtru zawartości dla wyniku. Nie.
└listy_blokowania_niestandardowe obiekt Kolekcja wyników filtrowania true/false dla skonfigurowanych niestandardowych list zablokowanych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów listy bloków i tego, czy spowodowały one akcję filtrowania. Nie.
└─ Filtrowane typ logiczny (boolowski) Wartość wskazująca, czy którakolwiek ze szczegółowych list zablokowanych spowodowała akcję filtrowania. Nie.
└custom_topics obiekt Kolekcja wyników filtrowania wartości true/false dla skonfigurowanych tematów niestandardowych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów tematów i informacje o ich wykryciu. Nie.
└─ Filtrowane typ logiczny (boolowski) Wartość wskazująca, czy którykolwiek ze szczegółowych tematów spowodował akcję filtrowania. Nie.
└─ błąd obiekt Jeśli jest obecny, szczegółowe informacje o błędzie uniemożliwiającym filtrowanie zawartości przed ukończeniem oceny. Nie.
└─ kod liczba całkowita Unikatowy kod czytelny dla maszyny skojarzony z błędem. Nie.
└─ Komunikat ciąg Czytelny dla człowieka komunikat skojarzony z błędem. Nie.
└* nienawiść obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
└atak pośredni obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana. Nie.
Wykryto typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
└─ Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
└─ złamanie zabezpieczeń obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana. Nie.
Wykryto typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
└─ Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
└* wulgaryzm obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana. Nie.
Wykryto typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
└─ Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
└samouszkodzenie obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
└* seksualny obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
└* przemoc obiekt Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii. Nie.
└─ Filtrowane typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
prompt_index liczba całkowita Indeks monitu wejściowego skojarzonego z towarzyszącymi kategoriami wyników filtru zawartości. Nie.

AzureContentFilterSeverityResult

Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii.

Name Typ Opis Wymagane Default
filtered typ logiczny (boolowski) Określa, czy dotkliwość zawartości spowodowała akcję filtrowania zawartości. Tak
severity wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Tak

AzureCosmosDBChatDataSource

Reprezentuje konfigurację źródła danych, która będzie używać zasobu Azure CosmosDB.

Name Typ Opis Wymagane Default
parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych Azure CosmosDB. Tak
└ zezwól_na_częściowy_wynik typ logiczny (boolowski) Jeśli zostanie ustawiona wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie zapytania częściowe nie powiodą się. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem. Nie. Nieprawda
Uwierzytelnianie AzureChatDataSourceConnectionStringAuthenticationOptions Nie.
└container_name ciąg Nie.
└database_name ciąg Nie.
└─ zależność_osadzania AzureChatDataSourceVectorizationSource Reprezentacja źródła wektoryzacji danych, która może być użyta jako zasób do osadzania w kontekście danych. Nie.
└fields_mapping obiekt Nie.
└content_fields macierz Nie.
└─content_fields_separator ciąg Nie.
└ filepath_field ciąg Nie.
└─ pole_tytułu ciąg Nie.
└ url_field ciąg Nie.
└vector_fields macierz Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└─ zawiera_konteksty macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie dokonywać ustaleń.
Nie.
└* ścisłość liczba całkowita Skonfigurowana dokładność filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do uwzględnienia w zapytaniu. Nie.
typ wyliczenie Identyfikator typu dyskryminowanego, który jest zawsze "azure_cosmos_db".
Możliwe wartości: azure_cosmos_db
Tak

AzureCreateChatCompletionRequest

Rozszerzony model żądań na potrzeby uzupełniania czatów względem Azure OpenAI service. To dodaje możliwość udostępnienia źródeł danych dla funkcji 'Na twoich danych'.

Name Typ Opis Wymagane Default
audio obiekt Parametry dla danych wyjściowych dźwięku. Wymagane przy żądaniu wyjścia audio za użyciem modalities: ["audio"]. Nie.
Format └─ wyliczenie Określa format dźwięku wyjściowego. Musi być jednym z wav, mp3, flac, opus lub pcm16.
Możliwe wartości: wav, , aacmp3, flac, , opuspcm16
Nie.
└─ głos obiekt Nie.
data_sources macierz Źródła danych używane w funkcji On Your Data (Włączone dane) są przeznaczone wyłącznie do Azure OpenAI. Nie.
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Nie. 0
function_call wyliczenie Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.
Możliwe wartości: none, auto
Nie.
functions macierz Przestarzałe na rzecz tools.

Lista funkcji, dla których model może generować dane wejściowe JSON.
Nie.
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem.
Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.
Nie. Żaden
logprobs typ logiczny (boolowski) Czy zwracać logarytmiczne prawdopodobieństwa dla tokenów wyjściowych, czy nie. Jeśli true, zwraca logarytmiczne prawdopodobieństwa każdego tokenu wyjściowego zwróconego w content elementu message. Nie. Nieprawda
max_completion_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
maks_tokenów liczba całkowita Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.
Ta wartość może służyć do kontrolowania kosztów tekstu generowanego za pośrednictwem interfejsu API.

Ta wartość jest teraz przestarzała na rzecz elementu max_completion_tokens, i nie jest zgodna z modelami serii o1.
Nie.
messages macierz Lista wiadomości składających się z konwersacji do tej pory. W zależności od używanego modelu obsługiwane są różne typy komunikatów (modalności), takie jak tekst, obrazy i dźwięk. Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
Sposoby obiekt Typy danych wyjściowych, które mają być generowane przez model.
Większość modeli jest w stanie wygenerować tekst, co jest wartością domyślną:

["text"]

Model gpt-4o-audio-preview może również służyć do generowania dźwięku. Aby zażądać, aby ten model wygenerował odpowiedzi tekstowe i audio, możesz użyć:

["text", "audio"]
Nie.
model ciąg Identyfikator wdrożenia modelu, który należy użyć w żądaniu ukończenia czatu. Tak
n liczba całkowita Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n jako 1 aby zminimalizować koszty. Nie. 1
wywołania_narzędzia_równoległe obiekt Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. Nie.
przewidywanie obiekt Podstawowa reprezentacja przewidywanych danych wyjściowych z modelu. Nie.
└typ OpenAI.ChatOutputPredictionType Nie.
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy. Nie. 0
wysiłek rozumowania obiekt Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Nie.
format_odpowiedzi obiekt Nie.
└typ wyliczenie
Możliwe wartości: text, , json_objectjson_schema
Nie.
seed liczba całkowita Ta funkcja jest dostępna w wersji beta.
Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.
Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
Nie.
stop obiekt Nie jest obsługiwane przez najnowsze modele rozumowania o3 i o4-mini.

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.
Nie.
przechowywać typ logiczny (boolowski) Czy dane wyjściowe tego żądania zakończenia czatu powinny być przechowywane do wykorzystania w destylacji modelu lub produktach oceny. Nie. Nieprawda
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta, ponieważ są generowane przy użyciu zdarzeń wysyłanych przez serwer. Nie. Nieprawda
stream_options obiekt Opcje strumieniowania odpowiedzi. Ustaw tę wartość tylko po ustawieniu stream: true. Nie.
└include_usage typ logiczny (boolowski) W przypadku ustawienia przed komunikatem data: [DONE] dodatkowy fragment zostanie przesłany strumieniem. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu dla całego żądania, a choices pole zawsze będzie pustą tablicą.

Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null. NUTA: Jeśli strumień zostanie przerwany, możesz nie otrzymać końcowego fragmentu użycia, który zawiera łączne użycie tokenu dla żądania.
Nie.
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.
none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.
required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.

none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia.
Nie.
narzędzia macierz Lista narzędzi, które model może wywołać. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji. Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
user_security_context AzureUserSecurityContext Kontekst zabezpieczeń użytkownika zawiera kilka parametrów, które opisują samą aplikację, oraz użytkownika końcowego, który wchodzi w interakcję z aplikacją. Te pola ułatwiają zespołom ds. operacji zabezpieczeń badanie i eliminowanie zdarzeń zabezpieczeń, zapewniając kompleksowe podejście do ochrony aplikacji sztucznej inteligencji. Dowiedz się więcej o ochronie aplikacji sztucznej inteligencji przy użyciu Microsoft Defender for Cloud. Nie.

AzureCreateChatCompletionResponse

Rozszerzony model odpowiedzi na czat najwyższego poziomu dla Azure OpenAI service. Ten model dodaje adnotacje filtru odpowiedzialnej zawartości sztucznej inteligencji dla monitów wejściowych.

Name Typ Opis Wymagane Default
choices macierz Tak
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia zakończenia czatu. Tak
identyfikator ciąg Unikatowy identyfikator ukończenia czatu. Tak
model ciąg Model używany do ukończenia czatu. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze chat.completion.
Możliwe wartości: chat.completion
Tak
prompt_filter_results macierz Adnotacje filtru odpowiedzialnej zawartości sztucznej inteligencji skojarzone z monitami wejściowymi do ukończenia czatu. Nie.
system_fingerprint ciąg Ten odcisk palca reprezentuje zaplecze systemowe, z którym działa model.

Można użyć w połączeniu z parametrem żądania seed, aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie.
Nie.
użycie OpenAI.CompletionUsage Statystyki użycia dotyczące żądania zakończenia. Nie.

AzureCreateChatCompletionStreamResponse

Name Typ Opis Wymagane Default
choices macierz Lista opcji ukończenia czatu. Może zawierać więcej niż jeden element, jeśli n jest większy niż 1. Jeśli ustawisz wartość stream_options: {"include_usage": true}, dla ostatniego fragmentu może być również pusta. Tak
content_filter_results AzureContentFilterResultForChoice Wynik filtru zawartości dla pojedynczego elementu odpowiedzi wygenerowanego przez system generowania sztucznej inteligencji. Nie.
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia zakończenia czatu. Każdy fragment ma ten sam znacznik czasu. Tak
delta AzureChatCompletionStreamResponseDelta Rozszerzony model odpowiedzi dla wiadomości odpowiedzi na czat przesyłania strumieniowego w Azure OpenAI service.
Ten model dodaje obsługę kontekstu wiadomości czatu używanego przez funkcję On Your Data dla intencji, cytatów i innych informacji związanych z generacją rozszerzoną przez pobieranie.
Nie.
identyfikator ciąg Unikatowy identyfikator ukończenia czatu. Każdy fragment ma ten sam identyfikator. Tak
model ciąg Model do generowania dokończeń. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze chat.completion.chunk.
Możliwe wartości: chat.completion.chunk
Tak
system_fingerprint ciąg Ten odcisk palca reprezentuje zaplecze systemowe, z którym działa model.
Można użyć w połączeniu z parametrem żądania seed, aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie.
Nie.
użycie obiekt Statystyki użycia dotyczące żądania zakończenia. Nie.
└─ tokeny_zakończenia liczba całkowita Liczba tokenów w wygenerowanym zakończeniu. Nie. 0
└─ szczegóły_tokenów_uzupełnienia obiekt Podział tokenów używanych w uzupełnieniu. Nie.
└zaakceptowane_tokeny_predykcji liczba całkowita W przypadku korzystania z przewidywanych danych wyjściowych liczba tokenów w przewidywaniu, które pojawiło się w zakończeniu. Nie. 0
└audio_tokens liczba całkowita Tokeny wejściowe audio generowane przez model. Nie. 0
└─ tokeny_rozumowania liczba całkowita Tokeny generowane przez model do rozumowania. Nie. 0
└─ odrzucone_żetony_predykcji liczba całkowita W przypadku korzystania z przewidywanych danych wyjściowych liczba tokenów w przewidywaniu, które nie zostały wyświetlone w zakończeniu. Jednak podobnie jak tokeny rozumowania, te tokeny są nadal liczone w łącznych tokenach ukończenia na potrzeby rozliczeń, danych wyjściowych i limitów okien kontekstowych. Nie. 0
└prompt_tokens liczba całkowita Liczba tokenów w prompt. Nie. 0
└prompt_tokens_details obiekt Podział tokenów używanych w wierszu polecenia. Nie.
└audio_tokens liczba całkowita Tokeny wejściowe audio obecne w wierszu polecenia. Nie. 0
└cached_tokens liczba całkowita Tokeny buforowane obecne w wierszu polecenia. Nie. 0
└total_tokens liczba całkowita Łączna liczba tokenów użytych w żądaniu (zapytanie + ukończenie). Nie. 0

AzureCreateEmbeddingRequest

Name Typ Opis Wymagane Default
dimensions liczba całkowita Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. Nie.
encoding_format wyliczenie Format, w jakim można zwrócić osadzenia. Może być float lub base64.
Możliwe wartości: float, base64
Nie.
dane wejściowe ciąg lub tablica Tak
model ciąg Model do wykorzystania dla żądania osadzania. Tak
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

AzureCreateFileRequestMultiPart

Name Typ Opis Wymagane Default
wygasa po obiekt Tak
└* kotwica AzureFileExpiryAnchor Nie.
└s liczba całkowita Nie.
plik ciąg Tak
purpose wyliczenie Zamierzony cel przesłanego pliku. Jeden z: — assistants: używany w interfejsie API Asystentów — batch: używany w interfejsie API Batch — fine-tune: używany do dostrajania — evals: używany do zestawów danych do oceny.
Możliwe wartości: assistants, , batch, fine-tuneevals
Tak

AzureCreateImageEditRequestMultiPart

Name Typ Opis Wymagane Default
tło wyliczenie Umożliwia ustawienie przezroczystości tła wygenerowanych obrazów.
Ten parametr jest obsługiwany tylko w przypadku modeli serii gpt-image-1. Musi być jedną z transparent, opaque lub auto (wartość domyślna). Gdy auto jest używany, model automatycznie określi najlepsze tło dla obrazu.

Jeśli transparent, format danych wyjściowych musi obsługiwać przezroczystość, dlatego powinien być ustawiony na png (wartość domyślna) lub webp.
Możliwe wartości: transparent, , opaqueauto
Nie.
obraz ciąg lub tablica Tak
maska ciąg Nie.
model ciąg Wdrożenie modelu do użycia dla operacji edytowania obrazu. Tak
n liczba całkowita Liczba obrazów do wygenerowania. Musi należeć do zakresu od 1 do 10. Nie. 1
kompresja wyjściowa liczba całkowita Poziom kompresji (0–100%) dla wygenerowanych obrazów. Ten parametr jest obsługiwany tylko w przypadku gpt-image-1modeli serii z formatami webp lub jpeg wyjściowymi, a wartością domyślną jest 100. Nie. 100
format_wyjściowy wyliczenie Format, w którym są zwracane wygenerowane obrazy. Ten parametr jest obsługiwany tylko w przypadku modeli serii gpt-image-1. Musi być jednym z png, jpeg lub webp.
Domyślna wartość to png.
Możliwe wartości: png, , jpegwebp
Nie.
monit ciąg Opis tekstu żądanych obrazów. Maksymalna długość to 1000 znaków dla modeli serii dall-e-2, a dla modeli serii gpt-image-1 to 32000 znaków. Tak
jakość wyliczenie Jakość obrazu, który zostanie wygenerowany. high, medium i low są obsługiwane tylko w przypadku modeli z serii gpt-image-1. dall-e-2 obsługuje tylko jakość standard. Wartość domyślna to auto.
Możliwe wartości: standard, , lowmedium, , highauto
Nie.
format_odpowiedzi wyliczenie Format, w którym są zwracane wygenerowane obrazy. Musi być jednym z url lub b64_json. Adresy URL są prawidłowe tylko przez 60 minut po wygenerowaniu obrazu. Ten parametr jest obsługiwany tylko w przypadku dall-e-2modeli serii , ponieważ gpt-image-1modele serii zawsze będą zwracać obrazy zakodowane w formacie base64.
Możliwe wartości: url, b64_json
Nie.
rozmiar wyliczenie Rozmiar wygenerowanych obrazów. Musi być jednym z elementów 1024x1024, 1536x1024 (poziomy), 1024x1536 (pionowy) lub auto (wartość domyślna) dla modeli serii gpt-image-1, oraz jedną z 256x256, 512x512 lub 1024x1024 dla dall-e-2.
Możliwe wartości: 256x256, , 512x5121024x1024, 1536x1024, , 1024x1536auto
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

AzureCreateImageRequest

Name Typ Opis Wymagane Default
tło wyliczenie Umożliwia ustawienie przezroczystości tła wygenerowanych obrazów.
Ten parametr jest obsługiwany tylko w przypadku modeli serii gpt-image-1. Musi być jedną z transparent, opaque lub auto (wartość domyślna). Gdy auto jest używany, model automatycznie określi najlepsze tło dla obrazu.

Jeśli transparent, format danych wyjściowych musi obsługiwać przezroczystość, dlatego powinien być ustawiony na png (wartość domyślna) lub webp.
Możliwe wartości: transparent, , opaqueauto
Nie.
model ciąg Wdrożenie modelu do użycia na potrzeby generowania obrazu. Tak
moderation wyliczenie Kontrolowanie poziomu moderowania zawartości w obrazach generowanych przez modele serii gpt-image-1. Musi być ustawione na low dla mniej restrykcyjnego filtrowania lub na auto, wartość domyślna.
Możliwe wartości: low, auto
Nie.
n liczba całkowita Liczba obrazów do wygenerowania. Musi należeć do zakresu od 1 do 10. W przypadku dall-e-3, obsługiwane są tylko n=1. Nie. 1
kompresja wyjściowa liczba całkowita Poziom kompresji (0–100%) dla wygenerowanych obrazów. Ten parametr jest obsługiwany tylko w przypadku gpt-image-1modeli serii z formatami webp lub jpeg wyjściowymi, a wartością domyślną jest 100. Nie. 100
format_wyjściowy wyliczenie Format, w którym są zwracane wygenerowane obrazy. Ten parametr jest obsługiwany tylko w przypadku modeli serii gpt-image-1. Musi być jednym z png, jpeg lub webp.
Możliwe wartości: png, , jpegwebp
Nie.
monit ciąg Opis tekstu żądanych obrazów. Maksymalna długość to 32000 znaków dla gpt-image-1modeli serii, 1000 znaków dla dall-e-2 i 4000 znaków dla dall-e-3. Tak
jakość wyliczenie Jakość obrazu, który zostanie wygenerowany.

- auto (wartość domyślna) automatycznie wybierze najlepszą jakość dla danego modelu.
- high medium i low są obsługiwane dla modeli serii gpt-image-1.
- hd i standard są obsługiwane dla dall-e-3.
- standard jest jedyną opcją dla elementu dall-e-2.
Możliwe wartości: standard, , hdlow, medium, , highauto
Nie.
format_odpowiedzi wyliczenie Format, w którym wygenerowane obrazy z dall-e-2 i dall-e-3 są zwracane. Musi być jednym z url lub b64_json. Adresy URL są prawidłowe tylko przez 60 minut po wygenerowaniu obrazu. Ten parametr nie jest obsługiwany w przypadku gpt-image-1modeli serii , które zawsze będą zwracać obrazy zakodowane w formacie base64.
Możliwe wartości: url, b64_json
Nie.
rozmiar wyliczenie Rozmiar wygenerowanych obrazów. Musi być jednym z elementów 1024x1024, 1536x1024 (poziomych), 1024x1536 (pionowych) lub auto (wartość domyślna) dla modeli serii gpt-image-1, jednym z 256x256, 512x512 lub 1024x1024 dla dall-e-2, i jednym z 1024x1024, 1792x1024 lub 1024x1792 dla dall-e-3.
Możliwe wartości: auto, , 1024x10241536x1024, 1024x1536256x256, , 512x512, , 1792x10241024x1792
Nie.
styl wyliczenie Styl wygenerowanych obrazów. Ten parametr jest obsługiwany tylko dla programu dall-e-3. Musi być jednym z vivid lub natural. Vivid powoduje, że model skłania się do generowania hiper-rzeczywistych i dramatycznych obrazów. Naturalne przyczyny powodują, że model tworzy bardziej naturalne, mniej hiperrealistyczne obrazy.
Możliwe wartości: vivid, natural
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

AzureCreateResponse

Name Typ Opis Wymagane Default
tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
include macierz Określ dodatkowe dane wyjściowe do uwzględnienia w odpowiedzi modelu. Obecnie obsługiwane wartości to:
- code_interpreter_call.outputs: Obejmuje dane wyjściowe z wykonywania kodu Python w elementach wywołania narzędzia do interpretacji kodu.
- computer_call_output.output.image_url: dołącz adresy URL obrazów z wyników procesu komputerowego.
- file_search_call.results: Dołącz wyniki wyszukiwania uzyskane z wezwania narzędzia do wyszukiwania plików.
- message.input_image.image_url: dołącz adresy URL obrazów z komunikatu wejściowego.
- message.output_text.logprobs: dołączanie logprobs z komunikatami asystenta.
- reasoning.encrypted_content: zawiera zaszyfrowaną wersję tokenów rozumowania w danych wyjściowych elementu rozumowania. Dzięki temu elementy rozumowania mogą być używane w wielowariantowych rozmowach podczas bezstanowego korzystania z interfejsu API odpowiedzi (na przykład gdy store parametr jest ustawiony na false, lub gdy organizacja jest zarejestrowana w programie zerowego przechowywania danych).
Nie.
dane wejściowe ciąg lub tablica Nie.
instructions ciąg Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania wraz z previous_response_id, instrukcje z poprzedniej odpowiedzi nie będą przenoszone do kolejnej odpowiedzi. Ułatwia proste wymienianie komunikatów systemowych lub komunikatów od deweloperów w nowych odpowiedziach.
Nie.
max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
model ciąg Wdrożenie modelu do użycia na potrzeby tworzenia tej odpowiedzi. Tak
wywołania_narzędzia_równoległe typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
monit obiekt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└─ ID ciąg Unikatowy identyfikator szablonu monitu do użycia. Nie.
Zmienne └* OpenAI.ResponsePromptVariables Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w wierszu polecenia. Wartości podstawienia mogą być ciągami lub innymi typami wejściowymi odpowiedzi, takimi jak obrazy lub pliki. Nie.
└* wersja ciąg Opcjonalna wersja szablonu monitu. Nie.
reasoning obiekt Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
└─ wysiłek OpenAI.ReasoningEffort Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Nie.
└─ generuj_podsumowanie wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
└─ Podsumowanie wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
przechowywać typ logiczny (boolowski) Określa, czy przechowywać wygenerowaną odpowiedź modelu na potrzeby późniejszego pobierania za pośrednictwem interfejsu API. Nie. Prawda
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta, ponieważ są generowane przy użyciu zdarzeń wysyłanych przez serwer. Nie. Nieprawda
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
SMS obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
tool_choice obiekt Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Nie.
└typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Nie.
narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia udostępniane przez usługę OpenAI, które rozszerzają możliwości modelu, takie jak wyszukiwanie plików.
- Wywołania funkcji (narzędzia niestandardowe): funkcje zdefiniowane przez Użytkownika, umożliwiając modelowi wywoływanie własnego kodu.
Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
truncation wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

AzureCreateSpeechRequestMultiPart

Reprezentacja opcji żądania, które kontrolują zachowanie operacji zamiany tekstu na mowę.

Name Typ Opis Wymagane Default
dane wejściowe ciąg Tekst, dla którego ma być wygenerowany dźwięk. Maksymalna długość to 4096 znaków. Tak
instructions ciąg Sterowanie głosem wygenerowanego dźwięku za pomocą dodatkowych instrukcji. Nie działa z tts-1 lub tts-1-hd. Nie.
model ciąg Model do użycia dla tego żądania zamiany tekstu na mowę. Tak
format_odpowiedzi obiekt Obsługiwane formaty danych wyjściowych audio dla zamiany tekstu na mowę. Nie.
speed Liczba Szybkość mowy dla wygenerowanego dźwięku. Wartości są prawidłowe w zakresie od 0,25 do 4,0, przy czym wartością domyślną jest 1,0, a wyższe wartości odpowiadają szybszemu tempu mowy. Nie. 1
stream_format wyliczenie Format przesyłania strumieniowego dźwięku. Obsługiwane formaty to sse i audio. sse program nie jest obsługiwany dla tts-1 programu lub tts-1-hd.
Możliwe wartości: sse, audio
Nie.
voice obiekt Tak

AzureCreateTranscriptionRequestMultiPart

Informacje o konfiguracji żądania transkrypcji audio.

Name Typ Opis Wymagane Default
chunking_strategy obiekt Nie.
└─prefix_padding_ms liczba całkowita Ilość dźwięku do uwzględnienia przed wykryciem mowy przez VAD (w milisekundach). Nie. 300
└czas_trwania_ciszy_ms liczba całkowita Czas trwania ciszy wykrywania zatrzymania mowy (w milisekundach).
Dzięki krótszym wartościom model będzie reagować szybciej, ale może wskoczyć na krótkie przerwy od użytkownika.
Nie. 200
└* próg Liczba Próg czułości (od 0,0 do 1,0) na potrzeby wykrywania aktywności głosowej. Wyższy próg będzie wymagać głośniejszego dźwięku do aktywowania modelu, a tym samym może działać lepiej w hałaśliwych środowiskach. Nie. 0,5
└typ wyliczenie Musi być ustawiona na server_vad, aby włączyć ręczne fragmentowanie przy użyciu VAD po stronie serwera.
Możliwe wartości: server_vad
Nie.
plik ciąg Tak
filename ciąg Opcjonalna nazwa pliku lub identyfikator opisowy do skojarzenia z danymi audio. Nie.
include[] macierz Dodatkowe informacje do uwzględnienia w odpowiedzi na transkrypcję.
logprobs Zwróci logarytmiczne prawdopodobieństwa tokenów w odpowiedzi, co pozwoli zrozumieć poziom zaufania modelu do transkrypcji.
logprobs Działa tylko z response_format ustawioną na json i tylko z modelami gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribei gpt-4o-mini-transcribe-2025-12-15.
Nie.
język ciąg Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 (np. en) poprawi dokładność i opóźnienie. Nie.
model ciąg Model do użycia dla tego żądania transkrypcji. Nie.
monit ciąg Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Komunikat powinien być zgodny z językiem dźwięku. Nie.
format_odpowiedzi obiekt Nie.
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta, ponieważ są generowane przy użyciu zdarzeń wysyłanych przez serwer. Uwaga: przesyłanie strumieniowe nie jest obsługiwane dla whisper-1 modelu i zostanie zignorowane. Nie. Nieprawda
temperatura Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa logarytmicznego, aby automatycznie zwiększyć temperaturę do momentu osiągnięcia określonych progów. Nie. 0
timestamp_granularities[] macierz Stopień szczegółowości sygnatury czasowej do wypełnienia dla tej transkrypcji. response_format należy ustawić, verbose_json aby używać szczegółowości sygnatury czasowej. Obsługiwane są obie te opcje: word, lub segment. Uwaga: nie ma dodatkowego opóźnienia dla znaczników czasu segmentu, ale generowanie znaczników czasu dla wyrazów powoduje dodatkowe opóźnienie. Nie. ['segment']

AzureCreateTranslationRequestMultiPart

Informacje o konfiguracji żądania transkrypcji audio.

Name Typ Opis Wymagane Default
plik ciąg Tak
filename ciąg Opcjonalna nazwa pliku lub identyfikator opisowy do skojarzenia z danymi audio Nie.
model ciąg Model do użycia dla tego żądania tłumaczenia. Nie.
monit ciąg Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Monit powinien być w języku angielskim. Nie.
format_odpowiedzi obiekt Nie.
temperatura Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa logarytmicznego, aby automatycznie zwiększyć temperaturę do momentu osiągnięcia określonych progów. Nie. 0

AzureErrorResponse

Name Typ Opis Wymagane Default
błąd obiekt Szczegóły błędu. Nie.
└─ kod ciąg Unikatowy identyfikator wygenerowany przez maszynę dla błędu. Nie.
└inner_error Nie.
└─ Komunikat ciąg Czytelny dla człowieka komunikat skojarzony z błędem. Nie.
└* param ciąg Jeśli ma to zastosowanie, parametr wejściowy żądania skojarzony z błędem Nie.
└typ wyliczenie Typ obiektu, zawsze "błąd".
Możliwe wartości: error
Nie.

AzureEvalAPICompletionsSamplingParams

Name Typ Opis Wymagane Default
wywołania_narzędzia_równoległe typ logiczny (boolowski) Nie.
format_odpowiedzi OpenAI.ResponseTextFormatConfiguration Nie.
narzędzia macierz Nie.

AzureEvalAPIModelSamplingParams

Name Typ Opis Wymagane Default
maks_tokenów liczba całkowita Maksymalna liczba tokenów w wygenerowanych danych wyjściowych. Nie.
wysiłek rozumowania wyliczenie Określa poziom nakładu pracy rozumowania stosowanego podczas generowania.
Możliwe wartości: low, , mediumhigh
Nie.
seed liczba całkowita Wartość inicjowania losowości podczas próbkowania. Nie.
temperatura Liczba Wyższa temperatura zwiększa losowość w danych wyjściowych. Nie.
top_p Liczba Alternatywą dla temperatury próbkowania jądra; 1.0 zawiera wszystkie tokeny. Nie.

AzureEvalAPIResponseSamplingParams

Name Typ Opis Wymagane Default
wywołania_narzędzia_równoległe typ logiczny (boolowski) Nie.
format_odpowiedzi OpenAI.ResponseTextFormatConfiguration Nie.
narzędzia macierz Nie.

AzureFileExpiryAnchor

Majątek Wartość
Typ ciąg
Wartości created_at

AzureFineTuneReinforcementMethod

Name Typ Opis Wymagane Default
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.
hiperparametry OpenAI.FineTuneReinforcementHyperparameters Hiperparametry używane do zadania dostrajania wzmocnienia. Nie.
format_odpowiedzi obiekt Nie.
└json_schema obiekt Schemat JSON dla formatu odpowiedzi Nie.
└typ wyliczenie Typ formatu odpowiedzi.
Możliwe wartości: json_schema
Nie.

AzureImage

Name Typ Opis Wymagane Default
b64_json ciąg Kod JSON zakodowany w formacie base64 wygenerowanego obrazu. Wartość domyślna dla modeli serii gpt-image-1, obecna tylko wtedy, gdy response_format jest ustawione na b64_json dla dall-e-2 i dall-e-3. Nie.
content_filter_results AzureContentFilterImageResponseResults Wynik filtru zawartości dla zawartości odpowiedzi wyjściowej operacji generowania obrazu. Tak
prompt_filter_results AzureContentFilterImagePromptResults Wynik filtru zawartości dla zawartości żądania wejściowego operacji generowania obrazu. Tak
(revised_prompt remains unchanged, assuming it is a placeholder requiring no translation or adaptation) ciąg Tylko dall-e-3 poprawiony monit, który został użyty do wygenerowania obrazu. Nie.
Adres URL ciąg W przypadku korzystania z elementu dall-e-2 lub dall-e-3adres URL wygenerowanego obrazu, jeśli response_format jest ustawiony na url wartość (wartość domyślna). Nieobsługiwane dla modeli serii gpt-image-1. Nie.

AzureImagesResponse

Name Typ Opis Wymagane Default
tło wyliczenie Parametr tła używany do generowania obrazu. transparent lub opaque.
Możliwe wartości: transparent, opaque
Nie.
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia obrazu. Tak
dane macierz Nie.
format_wyjściowy wyliczenie Format wyjściowy generowania obrazu. Albo png, webplub jpeg.
Możliwe wartości: png, , webpjpeg
Nie.
jakość wyliczenie Jakość wygenerowanego obrazu. Albo low, mediumlub high.
Możliwe wartości: low, , mediumhigh
Nie.
rozmiar wyliczenie Rozmiar wygenerowanego obrazu. Albo 1024x1024, 1024x1536lub 1536x1024.
Możliwe wartości: 1024x1024, , 1024x15361536x1024
Nie.
użycie obiekt Tylko w przypadku modeli serii gpt-image-1 informacje dotyczące użycia tokenów w generowaniu obrazu. Nie.
└input_tokens liczba całkowita Liczba tokenów (obrazów i tekstu) w wierszu polecenia wejściowego. Nie.
└input_tokens_details obiekt Tokeny wejściowe zawierają szczegółowe informacje dotyczące generowania obrazu. Nie.
└image_tokens liczba całkowita Liczba znaczników obrazu w zapytaniu wejściowym. Nie.
└ text_tokens liczba całkowita Liczba tokenów tekstowych w wierszu polecenia wejściowego. Nie.
└─ tokeny_wyjściowe liczba całkowita Liczba tokenów obrazu na obrazie wyjściowym. Nie.
└total_tokens liczba całkowita Całkowita liczba tokenów (obrazów i tekstu) używanych do generowania obrazu. Nie.

AzureListFilesResponse

Name Typ Opis Wymagane Default
dane macierz Tak
first_id ciąg Tak
zawiera_więcej typ logiczny (boolowski) Tak
last_id ciąg Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

AzureOpenAIFile

Name Typ Opis Wymagane Default
bytes liczba całkowita Rozmiar pliku w bajtach. Tak
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia pliku. Tak
wygasa_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla czasu wygaśnięcia pliku. Nie.
filename ciąg Nazwa pliku. Tak
identyfikator ciąg Identyfikator pliku, do którego można się odwoływać w punktach końcowych interfejsu API. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze file.
Możliwe wartości: file
Tak
purpose wyliczenie Zamierzony cel pliku. Obsługiwane wartości to assistants, , assistants_output, batchbatch_output, fine-tune i fine-tune-results.
Możliwe wartości: assistants, , assistants_outputbatch, batch_output, fine-tune, , fine-tune-resultsevals
Tak
stan wyliczenie
Możliwe wartości: uploaded, , pendingrunning, processed, error, , deletingdeleted
Tak
szczegóły statusu ciąg Deprecated. Aby uzyskać szczegółowe informacje na temat przyczyn niepowodzenia walidacji pliku szkoleniowego dostrajania, zobacz pole w witrynie errorfine_tuning.job. Nie.

AzureOpenAIVideoGenerationErrorResponse

Name Typ Opis Wymagane Default
kod ciąg Unikatowy identyfikator wygenerowany przez maszynę dla błędu. Nie.
inner_error obiekt Jeśli ma to zastosowanie, błąd nadrzędny, który spowodował ten błąd. Nie.
└─ kod wyliczenie Kod skojarzony z błędem wewnętrznym.
Możliwe wartości: ResponsibleAIPolicyViolation
Nie.
└─ szczegóły_błędu Szczegóły wyniku filtru zawartości skojarzone z błędem wewnętrznym. Nie.
└revised_prompt ciąg Jeśli ma to zastosowanie, zmodyfikowany komunikat używany do generowania. Nie.
komunikat ciąg Czytelny dla człowieka komunikat skojarzony z błędem. Nie.
param ciąg Jeśli ma to zastosowanie, parametr wejściowy żądania skojarzony z błędem Nie.
typ ciąg Jeśli ma to zastosowanie, numer wiersza wejściowego skojarzony z błędem. Nie.

AzureResponse

Name Typ Opis Wymagane Default
tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Tak
błąd obiekt Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Tak
└─ kod OpenAI.ResponseErrorCode Kod błędu odpowiedzi. Nie.
└─ Komunikat ciąg Czytelny dla człowieka opis błędu. Nie.
identyfikator ciąg Unikatowy identyfikator tej odpowiedzi. Tak
incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Tak
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
instructions ciąg lub tablica Tak
max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
model ciąg Model użyty do wygenerowania tej odpowiedzi. Tak
obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na response.
Możliwe wartości: response
Tak
We/Wy macierz Tablica elementów zawartości wygenerowanych przez model.

— Długość i kolejność elementów w output tablicy zależy od odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w output tablicy i zakładając, że jest to komunikat z zawartością wygenerowaną assistant przez model, możesz rozważyć użycie output_text właściwości, która jest obsługiwana w zestawach SDK.
Tak
output_text ciąg Właściwość przeznaczona tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu ze wszystkich elementów w tablicy output_text, jeśli takowe istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
wywołania_narzędzia_równoległe typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Tak Prawda
previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
monit obiekt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└─ ID ciąg Unikatowy identyfikator szablonu monitu do użycia. Nie.
Zmienne └* OpenAI.ResponsePromptVariables Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w wierszu polecenia. Wartości podstawienia mogą być ciągami lub innymi typami wejściowymi odpowiedzi, takimi jak obrazy lub pliki. Nie.
└* wersja ciąg Opcjonalna wersja szablonu monitu. Nie.
reasoning obiekt Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
└─ wysiłek OpenAI.ReasoningEffort Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Nie.
└─ generuj_podsumowanie wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
└─ Podsumowanie wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
stan wyliczenie Stan generowania odpowiedzi. Jeden z completed, failed, in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Tak
SMS obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
tool_choice obiekt Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Nie.
└typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Nie.
narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez platformę OpenAI, które rozszerzają możliwości modelu.
Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Tak
truncation wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów. Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Tak

AzureSearchChatDataSource

Reprezentuje konfigurację źródła danych, która będzie używać zasobu Azure Search.

Name Typ Opis Wymagane Default
parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych Azure Search. Tak
└ zezwól_na_częściowy_wynik typ logiczny (boolowski) Jeśli zostanie ustawiona wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie zapytania częściowe nie powiodą się. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem. Nie. Nieprawda
Uwierzytelnianie obiekt Nie.
└znak_dostępu ciąg Nie.
└─ klucz ciąg Nie.
└─ zarządzana_tożsamość_id_zasobu ciąg Nie.
└typ wyliczenie
Możliwe wartości: access_token
Nie.
└─ zależność_osadzania obiekt Reprezentuje źródło wektoryzacji, które wykonuje wywołania usług publicznych względem wdrożenia modelu osadzania Azure OpenAI. Nie.
Uwierzytelnianie AzureChatDataSourceApiKeyAuthenticationOptions lub AzureChatDataSourceAccessTokenAuthenticationOptions Mechanizm uwierzytelniania do użycia ze źródłem wektoryzacji opartym na punkcie końcowym.
Uwierzytelnianie punktu końcowego obsługuje klucz interfejsu API i mechanizmy tokenu access.
Nie.
└─ nazwa_wdrożenia ciąg Wdrożenie modelu osadzania do użycia na potrzeby wektoryzacji. To wdrożenie musi istnieć w ramach tego samego zasobu Azure OpenAI co wdrożenie modelu używane do ukończenia czatu. Nie.
Wymiary liczba całkowita Liczba wymiarów do żądania osadzania.
Obsługiwane tylko w modelach "text-embedding-3" i nowszych.
Nie.
└— punkt końcowy ciąg Określa adres URL punktu końcowego zasobu, z którego mają zostać pobrane osadzanie.
Powinien być w formacie:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Parametr zapytania w wersji interfejsu API jest niedozwolony.
Nie.
└typ wyliczenie Identyfikator rodzaju, który jest zawsze "zintegrowany" dla tego typu źródła wektoryzacji.
Możliwe wartości: integrated
Nie.
└— punkt końcowy ciąg Bezwzględna ścieżka punktu końcowego zasobu Azure Search do użycia. Nie.
└fields_mapping obiekt Mapowania pól do użycia z zasobem Azure Search. Nie.
└content_fields macierz Nazwy pól indeksu, które powinny być traktowane jako zawartość. Nie.
└─content_fields_separator ciąg Wzorzec separatora, którego powinny używać pola zawartości. Nie.
└ filepath_field ciąg Nazwa pola indeksu do użycia jako ścieżka pliku. Nie.
└─ pola_wektorowe_obrazu macierz Nazwy pól reprezentujących dane wektorów obrazów. Nie.
└─ pole_tytułu ciąg Nazwa pola indeksu, które ma być używane jako tytuł. Nie.
└ url_field ciąg Nazwa pola indeksu, które ma być używane jako adres URL. Nie.
└vector_fields macierz Nazwy pól reprezentujących dane wektorowe. Nie.
└ Filtr ciąg Filtr do zastosowania do wyszukiwania. Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└─ zawiera_konteksty macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nazwa indeksu do użycia, jak określono w zasobie Azure Search. Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie dokonywać ustaleń.
Nie.
└query_type wyliczenie Typ zapytania dla zasobu wyszukiwania Azure do użycia.
Możliwe wartości: simple, , semanticvector, , vector_simple_hybridvector_semantic_hybrid
Nie.
└konfiguracja_semantyczna ciąg Dodatkowa konfiguracja semantyczna dla zapytania. Nie.
└* ścisłość liczba całkowita Skonfigurowana dokładność filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do uwzględnienia w zapytaniu. Nie.
typ wyliczenie Identyfikator typu dyskryminowanego, który jest zawsze "azure_search".
Możliwe wartości: azure_search
Tak

AzureUserSecurityContext

Kontekst zabezpieczeń użytkownika zawiera kilka parametrów, które opisują samą aplikację, oraz użytkownika końcowego, który wchodzi w interakcję z aplikacją. Te pola ułatwiają zespołom ds. operacji zabezpieczeń badanie i eliminowanie zdarzeń zabezpieczeń, zapewniając kompleksowe podejście do ochrony aplikacji sztucznej inteligencji. Dowiedz się więcej o ochronie aplikacji sztucznej inteligencji przy użyciu Microsoft Defender for Cloud.

Name Typ Opis Wymagane Default
application_name ciąg Nazwa aplikacji. Poufne dane osobowe nie powinny być uwzględniane w tym polu. Nie.
end_user_id ciąg Ten identyfikator jest identyfikatorem obiektu użytkownika Microsoft Entra ID (dawniej Azure Active Directory) używanym do uwierzytelniania użytkowników końcowych w aplikacji generowania sztucznej inteligencji. Poufne dane osobowe nie powinny być uwzględniane w tym polu. Nie.
end_user_tenant_id ciąg Identyfikator dzierżawy Microsoft 365, do którego należy użytkownik końcowy. Jest to wymagane, gdy aplikacja generatywnej sztucznej inteligencji jest wielotenancyjna. Nie.
source_ip ciąg Przechwytuje oryginalny adres IP klienta. Nie.

ChatCompletionMessageToolCallsItem

Wywołania narzędzi generowane przez model, takie jak wywołania funkcji.

Zbiór: OpenAI.ChatCompletionMessageToolCall

CreateVideoGenerationRequest

Name Typ Opis Wymagane Default
height liczba całkowita Wysokość filmu wideo. Obsługiwane są następujące wymiary: 480x480, 854x480, 720x720, 1280x720, 1080x1080 i 1920x1080 zarówno w orientacji poziomej, jak i pionowej. Tak
model ciąg Nazwa wdrożenia, które ma być użyte w tym żądaniu. Tak
n_seconds liczba całkowita Czas trwania zadania generowania wideo. Musi należeć do zakresu od 1 do 20 sekund. Nie. 5
n_variants liczba całkowita Liczba filmów wideo do utworzenia jako wariantów dla tego zadania. Musi należeć do przedziału od 1 do 5. Mniejsze wymiary umożliwiają korzystanie z większej liczby wariantów. Nie. 1
monit ciąg Polecenie do zlecenia generowania wideo. Tak
width liczba całkowita Szerokość filmu wideo. Obsługiwane są następujące wymiary: 480x480, 854x480, 720x720, 1280x720, 1080x1080 i 1920x1080 zarówno w orientacji poziomej, jak i pionowej. Tak

CreateVideoGenerationWithMediaRequestMultiPart

Właściwości żądania zadania generowania wideo z plikami multimedialnymi.

Name Typ Opis Wymagane Default
files macierz Tak
height liczba całkowita Wysokość filmu wideo. Obsługiwane są następujące wymiary: 480x480, 854x480, 720x720, 1280x720, 1080x1080 i 1920x1080 zarówno w orientacji poziomej, jak i pionowej. Tak
inpaint_items macierz Opcjonalne elementy inpainting dla tego zadania generowania wideo. Nie.
model ciąg Nazwa wdrożenia, które ma być użyte w tym żądaniu. Tak
n_seconds liczba całkowita Czas trwania zadania generowania wideo. Musi należeć do zakresu od 1 do 20 sekund. Nie. 5
n_variants liczba całkowita Liczba filmów wideo do utworzenia jako wariantów dla tego zadania. Musi należeć do przedziału od 1 do 5. Mniejsze wymiary umożliwiają korzystanie z większej liczby wariantów. Nie. 1
monit ciąg Polecenie do zlecenia generowania wideo. Tak
width liczba całkowita Szerokość filmu wideo. Obsługiwane są następujące wymiary: 480x480, 854x480, 720x720, 1280x720, 1080x1080 i 1920x1080 zarówno w orientacji poziomej, jak i pionowej. Tak

Przycinanie danych

Granice przycinania elementu inpainting. Określa obszar elementu nośnika, który powinien być używany do inpaintingu.

Name Typ Opis Wymagane Default
bottom_fraction Liczba Dolna granica pola przycinania określona jako ułamek wysokości oryginalnego elementu nośnika. Musi należeć do przedziału od 0,0 do 1,0. Użyj na przykład wartości 0,5 dla połowy wysokości oryginalnego elementu multimedialnego. Nie. 1
left_fraction Liczba Lewa granica pola przycinania określona jako ułamek szerokości oryginalnego elementu nośnika. Musi należeć do przedziału od 0,0 do 1,0. Użyj na przykład wartości 0,5 dla połowy szerokości oryginalnego elementu multimedialnego. Nie. 0
right_fraction Liczba Prawa granica pola przycinania określona jako ułamek szerokości oryginalnego elementu nośnika. Musi należeć do przedziału od 0,0 do 1,0. Użyj na przykład wartości 0,5 dla połowy szerokości oryginalnego elementu multimedialnego. Nie. 1
top_fraction Liczba Górna granica pola przycinania określona jako ułamek wysokości oryginalnego elementu nośnika. Musi należeć do przedziału od 0,0 do 1,0. Użyj na przykład wartości 0,5 dla połowy wysokości oryginalnego elementu multimedialnego. Nie. 0

ElasticsearchChatDataSource

Name Typ Opis Wymagane Default
parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych Elasticsearch. Tak
└ zezwól_na_częściowy_wynik typ logiczny (boolowski) Jeśli zostanie ustawiona wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie zapytania częściowe nie powiodą się. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem. Nie. Nieprawda
Uwierzytelnianie obiekt Nie.
└ encoded_api_key ciąg Nie.
└─ klucz ciąg Nie.
└ key_id ciąg Nie.
└typ wyliczenie
Możliwe wartości: encoded_api_key
Nie.
└─ zależność_osadzania AzureChatDataSourceVectorizationSource Reprezentacja źródła wektoryzacji danych, która może być użyta jako zasób do osadzania w kontekście danych. Nie.
└— punkt końcowy ciąg Nie.
└fields_mapping obiekt Nie.
└content_fields macierz Nie.
└─content_fields_separator ciąg Nie.
└ filepath_field ciąg Nie.
└─ pole_tytułu ciąg Nie.
└ url_field ciąg Nie.
└vector_fields macierz Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└─ zawiera_konteksty macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie dokonywać ustaleń.
Nie.
└query_type wyliczenie
Możliwe wartości: simple, vector
Nie.
└* ścisłość liczba całkowita Skonfigurowana dokładność filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do uwzględnienia w zapytaniu. Nie.
typ wyliczenie Identyfikator typu wyróżnionego, który zawsze brzmi "elasticsearch".
Możliwe wartości: elasticsearch
Tak

InpaintItem

Element inpainting dla zadania generowania wideo. Określa element multimedialny, który ma być używany do inpaintingu w generowaniu wideo.

Name Typ Opis Wymagane Default
crop_bounds obiekt Granice przycinania elementu inpainting.
Określa obszar elementu nośnika, który powinien być używany do inpaintingu.
Nie.
└bottom_fraction Liczba Dolna granica pola przycinania określona jako ułamek wysokości oryginalnego elementu nośnika. Musi należeć do przedziału od 0,0 do 1,0. Użyj na przykład wartości 0,5 dla połowy wysokości oryginalnego elementu multimedialnego. Nie. 1
└left_fraction Liczba Lewa granica pola przycinania określona jako ułamek szerokości oryginalnego elementu nośnika. Musi należeć do przedziału od 0,0 do 1,0. Użyj na przykład wartości 0,5 dla połowy szerokości oryginalnego elementu multimedialnego. Nie. 0
└right_fraction Liczba Prawa granica pola przycinania określona jako ułamek szerokości oryginalnego elementu nośnika. Musi należeć do przedziału od 0,0 do 1,0. Użyj na przykład wartości 0,5 dla połowy szerokości oryginalnego elementu multimedialnego. Nie. 1
└top_fraction Liczba Górna granica pola przycinania określona jako ułamek wysokości oryginalnego elementu nośnika. Musi należeć do przedziału od 0,0 do 1,0. Użyj na przykład wartości 0,5 dla połowy wysokości oryginalnego elementu multimedialnego. Nie. 0
nazwa_pliku ciąg Nazwa pliku elementu nośnika. Musi być zgodna z nazwą pliku załącznika w tym żądaniu. Tak
frame_index liczba całkowita Indeks ramki dla tego elementu nośnika. Określa ramkę początkową w wynikowym wygenerowanych wideo dla tego elementu inpainting. Tak 0
typ obiekt Typ elementu inpainting. Tak

JobStatus

Stan zadania generowania wideo.

Majątek Wartość
Opis Stan zadania generowania wideo.
Typ ciąg
Wartości preprocessing
queued
running
processing
cancelled
succeeded
failed

MediaItemType

Typ elementu inpainting.

Majątek Wartość
Opis Typ elementu inpainting.
Typ ciąg
Wartości image

MongoDBChatDataSource

Name Typ Opis Wymagane Default
parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych MongoDB. Tak
└ zezwól_na_częściowy_wynik typ logiczny (boolowski) Jeśli zostanie ustawiona wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie zapytania częściowe nie powiodą się. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem. Nie. Nieprawda
└app_name ciąg Nazwa aplikacji MongoDB. Nie.
Uwierzytelnianie obiekt Nie.
└* hasło ciąg Nie.
└typ wyliczenie
Możliwe wartości: username_and_password
Nie.
└} nazwa użytkownika ciąg Nie.
└collection_name ciąg Nazwa kolekcji MongoDB. Nie.
└database_name ciąg Nazwa bazy danych MongoDB. Nie.
└─ zależność_osadzania obiekt Reprezentuje źródło wektoryzacji, które wykonuje wywołania usług publicznych względem wdrożenia modelu osadzania Azure OpenAI. Nie.
Uwierzytelnianie AzureChatDataSourceApiKeyAuthenticationOptions lub AzureChatDataSourceAccessTokenAuthenticationOptions Mechanizm uwierzytelniania do użycia ze źródłem wektoryzacji opartym na punkcie końcowym.
Uwierzytelnianie punktu końcowego obsługuje klucz interfejsu API i mechanizmy tokenu access.
Nie.
└─ nazwa_wdrożenia ciąg Wdrożenie modelu osadzania do użycia na potrzeby wektoryzacji. To wdrożenie musi istnieć w ramach tego samego zasobu Azure OpenAI co wdrożenie modelu używane do ukończenia czatu. Nie.
Wymiary liczba całkowita Liczba wymiarów do żądania osadzania.
Obsługiwane tylko w modelach "text-embedding-3" i nowszych.
Nie.
└— punkt końcowy ciąg Określa adres URL punktu końcowego zasobu, z którego mają zostać pobrane osadzanie.
Powinien być w formacie:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Parametr zapytania w wersji interfejsu API jest niedozwolony.
Nie.
└typ wyliczenie Identyfikator typu, zawsze „deployment_name”, dla tego typu źródła wektoryzacji.
Możliwe wartości: deployment_name
Nie.
└— punkt końcowy ciąg Nazwa punktu końcowego klastra MongoDB. Nie.
└fields_mapping obiekt Mapowania pól do zastosowania do danych używanych przez źródło danych MongoDB.
Należy pamiętać, że mapowania pól zawartości i wektorów są wymagane dla bazy danych MongoDB.
Nie.
└content_fields macierz Nie.
└─content_fields_separator ciąg Nie.
└ filepath_field ciąg Nie.
└─ pole_tytułu ciąg Nie.
└ url_field ciąg Nie.
└vector_fields macierz Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└─ zawiera_konteksty macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nazwa indeksu bazy danych MongoDB. Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie dokonywać ustaleń.
Nie.
└* ścisłość liczba całkowita Skonfigurowana dokładność filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do uwzględnienia w zapytaniu. Nie.
typ wyliczenie Identyfikator typu rozróżnianego, który jest zawsze 'mongo_db'.
Możliwe wartości: mongo_db
Tak

OpenAI.Annotation

Dyskryminator dla OpenAI.Annotation.

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Name Typ Opis Wymagane Default
typ OpenAI.AnnotationType Tak

OpenAI.AnnotationFileCitation

Cytat do pliku.

Name Typ Opis Wymagane Default
identyfikator_pliku ciąg Identyfikator pliku. Tak
filename ciąg Nazwa pliku cytowanego. Tak
indeks liczba całkowita Indeks pliku na liście plików. Tak
typ wyliczenie Typ cytowania pliku. Zawsze file_citation.
Możliwe wartości: file_citation
Tak

OpenAI.AnnotationFilePath

Ścieżka do pliku.

Name Typ Opis Wymagane Default
identyfikator_pliku ciąg Identyfikator pliku. Tak
indeks liczba całkowita Indeks pliku na liście plików. Tak
typ wyliczenie Typ ścieżki pliku. Zawsze file_path.
Możliwe wartości: file_path
Tak

OpenAI.AnnotationType

Majątek Wartość
Typ ciąg
Wartości file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Cytat dotyczący zasobu internetowego używanego do generowania odpowiedzi modelu.

Name Typ Opis Wymagane Default
end_index liczba całkowita Indeks ostatniego znaku cytatu adresu URL w komunikacie. Tak
start_index liczba całkowita Indeks pierwszego znaku cytatu adresu URL w komunikacie. Tak
title ciąg Tytuł zasobu internetowego. Tak
typ wyliczenie Typ cytatu adresu URL. Zawsze url_citation.
Możliwe wartości: url_citation
Tak
Adres URL ciąg Adres URL zasobu internetowego. Tak

OpenAI.PrzybliżonaLokalizacja

Name Typ Opis Wymagane Default
city ciąg Nie.
country ciąg Nie.
region ciąg Nie.
timezone ciąg Nie.
typ wyliczenie
Możliwe wartości: approximate
Tak

OpenAI.AudioResponseFormat

Format danych wyjściowych w jednej z następujących opcji: json, , textsrt, verbose_jsonlub vtt. W przypadku gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe i gpt-4o-mini-transcribe-2025-12-15. Jedynym obsługiwanym formatem jest json.

Majątek Wartość
Opis Format danych wyjściowych w jednej z następujących opcji: json, , textsrt, verbose_jsonlub vtt. W przypadku gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe i gpt-4o-mini-transcribe-2025-12-15. Jedynym obsługiwanym formatem jest json.
Typ ciąg
Wartości json
text
srt
verbose_json
vtt

OpenAI.AutoChunkingStrategyRequestParam

Strategia domyślna. Ta strategia używa obecnie wartości max_chunk_size_tokens800 i chunk_overlap_tokens .400

Name Typ Opis Wymagane Default
typ wyliczenie Zawsze auto.
Możliwe wartości: auto
Tak

OpenAI.ChatCompletionFunctionCallOption

Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.

Name Typ Opis Wymagane Default
nazwa ciąg Nazwa funkcji do wywołania. Tak

OpenAI.ChatCompletionFunctions

Name Typ Opis Wymagane Default
opis ciąg Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. Nie.
nazwa ciąg Nazwa funkcji do wywołania. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. Tak
parametry Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON.
Zapoznaj się z dokumentacją dotyczącą formatu schematu JSON .

Pominięcie parameters definiuje funkcję z pustą listą parametrów.
Nie.

OpenAI.ChatCompletionMessageAudioChunk

Name Typ Opis Wymagane Default
dane ciąg Nie.
wygasa_o liczba całkowita Nie.
identyfikator ciąg Nie.
transkrypcja ciąg Nie.

OpenAI.ChatCompletionMessageToolCall

Name Typ Opis Wymagane Default
funkcja obiekt Funkcja, którą wywołał model. Tak
└─ Argumenty ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może mieć niezdefiniowane parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. Nie.
└─ nazwa ciąg Nazwa funkcji do wywołania. Nie.
identyfikator ciąg Identyfikator wywołania narzędzia. Tak
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Tak

OpenAI.ChatCompletionMessageToolCallChunk

Name Typ Opis Wymagane Default
funkcja obiekt Nie.
└─ Argumenty ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może mieć niezdefiniowane parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. Nie.
└─ nazwa ciąg Nazwa funkcji do wywołania. Nie.
identyfikator ciąg Identyfikator wywołania narzędzia. Nie.
indeks liczba całkowita Tak
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Nie.

OpenAI.ChatCompletionNamedToolChoice

Określa narzędzie, które ma być używane przez model. Użyj, aby wymusić, że model wywoła określoną funkcję.

Name Typ Opis Wymagane Default
funkcja obiekt Tak
└─ nazwa ciąg Nazwa funkcji do wywołania. Nie.
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Tak

OpenAI.ChatCompletionRequestAssistantMessage

Komunikaty wysyłane przez model w odpowiedzi na komunikaty użytkownika.

Name Typ Opis Wymagane Default
audio obiekt Dane dotyczące poprzedniej dźwiękowej odpowiedzi modelu. Nie.
└─ ID ciąg Unikatowy identyfikator poprzedniej odpowiedzi audio z modelu. Nie.
zawartość ciąg lub tablica Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
└─ Argumenty ciąg Nie.
└─ nazwa ciąg Nie.
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
refusal ciąg Wiadomość o odmowie asystenta. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku assistant.
Możliwe wartości: assistant
Tak
tool_calls ChatCompletionMessageToolCallsItem Wywołania narzędzi generowane przez model, takie jak wywołania funkcji. Nie.

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Name Typ Opis Wymagane Default
refusal ciąg Komunikat o odmowie wygenerowany przez model. Tak
SMS ciąg Zawartość tekstowa. Tak
typ wyliczenie Typ części zawartości.
Możliwe wartości: refusal
Tak

OpenAI.ChatCompletionRequestDeveloperMessage

Instrukcje podane przez dewelopera, które powinny być zgodne z modelem, niezależnie od komunikatów wysyłanych przez użytkownika. W przypadku modeli o1 i nowszych developer komunikaty zastępują poprzednie system komunikaty.

Name Typ Opis Wymagane Default
zawartość ciąg lub tablica Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku developer.
Możliwe wartości: developer
Tak

OpenAI.ChatCompletionRequestFunctionMessage

Name Typ Opis Wymagane Default
zawartość ciąg Zawartość komunikatu funkcji. Tak
nazwa ciąg Nazwa funkcji do wywołania. Tak
rola wyliczenie Rola autora komunikatów, w tym przypadku function.
Możliwe wartości: function
Tak

OpenAI.ChatCompletionRequestMessage

Dyskryminator dla OpenAI.ChatCompletionRequestMessage

Ten składnik używa właściwości role do rozróżniania różnych typów:

Wartość typu Schema
system OpenAI.ChatCompletionRequestSystemMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
user OpenAI.ChatCompletionRequestUserMessage
assistant OpenAI.ChatCompletionRequestAssistantMessage
tool OpenAI.ChatCompletionRequestToolMessage
function OpenAI.ChatCompletionRequestFunctionMessage
Name Typ Opis Wymagane Default
zawartość ciąg lub tablica Nie.
rola obiekt Rola autora wiadomości Tak

OpenAI.ChatCompletionRequestMessageContentPart

Dyskryminujące dla biblioteki OpenAI.ChatCompletionRequestMessageContentPart

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
text OpenAI.ChatCompletionRequestMessageContentPartText
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
file OpenAI.ChatCompletionRequestMessageContentPartFile
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
Name Typ Opis Wymagane Default
typ OpenAI.ChatCompletionRequestMessageContentPartType Tak

OpenAI.ChatCompletionRequestMessageContentPartAudio

Name Typ Opis Wymagane Default
input_audio obiekt Tak
└─ dane ciąg Dane audio zakodowane w formacie Base64. Nie.
Format └─ wyliczenie Format zakodowanych danych dźwiękowych. Obecnie obsługuje "wav" i "mp3".
Możliwe wartości: wav, mp3
Nie.
typ wyliczenie Typ części zawartości. Zawsze input_audio.
Możliwe wartości: input_audio
Tak

OpenAI.ChatCompletionRequestMessageContentPartFile

Name Typ Opis Wymagane Default
plik obiekt Tak
└ file_data ciąg Dane pliku zakodowane w base64, używane podczas przekazywania pliku jako ciąg do modelu. Nie.
└ file_id ciąg Identyfikator przekazanego pliku do użycia jako dane wejściowe. Nie.
└} nazwa pliku ciąg Nazwa pliku używana podczas przekazywania pliku do modelu w postaci ciągu. Nie.
typ wyliczenie Typ części zawartości. Zawsze file.
Możliwe wartości: file
Tak

OpenAI.ChatCompletionRequestMessageContentPartImage

Name Typ Opis Wymagane Default
image_url obiekt Tak
└* szczegóły wyliczenie Określa poziom szczegółowości obrazu.
Możliwe wartości: auto, , lowhigh
Nie.
└─ adres URL ciąg Adres URL obrazu lub zakodowane w formacie base64 dane obrazu. Nie.
typ wyliczenie Typ części zawartości.
Możliwe wartości: image_url
Tak

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Name Typ Opis Wymagane Default
refusal ciąg Komunikat o odmowie wygenerowany przez model. Tak
typ wyliczenie Typ części zawartości.
Możliwe wartości: refusal
Tak

OpenAI.ChatCompletionRequestMessageContentPartText

Name Typ Opis Wymagane Default
SMS ciąg Zawartość tekstowa. Tak
typ wyliczenie Typ części zawartości.
Możliwe wartości: text
Tak

OpenAI.ChatCompletionRequestMessageContentPartType

Majątek Wartość
Typ ciąg
Wartości text
file
input_audio
image_url
refusal

OpenAI.ChatCompletionRequestSystemMessage

Instrukcje podane przez dewelopera, które powinny być zgodne z modelem, niezależnie od komunikatów wysyłanych przez użytkownika. W przypadku modeli o1 i nowszych użyj zamiast tego komunikatów developer do tego celu.

Name Typ Opis Wymagane Default
zawartość ciąg lub tablica Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku system.
Możliwe wartości: system
Tak

OpenAI.ChatCompletionRequestSystemMessageContentPart

Odwołania: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Name Typ Opis Wymagane Default
zawartość ciąg lub tablica Tak
rola wyliczenie Rola autora komunikatów, w tym przypadku tool.
Możliwe wartości: tool
Tak
tool_call_id ciąg Wywołanie narzędzia, na które odpowiada ten komunikat. Tak

OpenAI.ChatCompletionRequestToolMessageContentPart

Odwołania: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Komunikaty wysyłane przez użytkownika końcowego zawierające polecenia lub dodatkowe informacje kontekstowe.

Name Typ Opis Wymagane Default
zawartość ciąg lub tablica Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku user.
Możliwe wartości: user
Tak

OpenAI.ChatCompletionRequestUserMessageContentPart

Name Typ Opis Wymagane Default
plik obiekt Tak
└ file_data ciąg Dane pliku zakodowane w base64, używane podczas przekazywania pliku jako ciąg do modelu. Nie.
└ file_id ciąg Identyfikator przekazanego pliku do użycia jako dane wejściowe. Nie.
└} nazwa pliku ciąg Nazwa pliku używana podczas przekazywania pliku do modelu w postaci ciągu. Nie.
image_url obiekt Tak
└* szczegóły wyliczenie Określa poziom szczegółowości obrazu.
Możliwe wartości: auto, , lowhigh
Nie.
└─ adres URL ciąg Adres URL obrazu lub zakodowane w formacie base64 dane obrazu. Nie.
input_audio obiekt Tak
└─ dane ciąg Dane audio zakodowane w formacie Base64. Nie.
Format └─ wyliczenie Format zakodowanych danych dźwiękowych. Obecnie obsługuje "wav" i "mp3".
Możliwe wartości: wav, mp3
Nie.
SMS ciąg Zawartość tekstowa. Tak
typ wyliczenie Typ części zawartości. Zawsze file.
Możliwe wartości: file
Tak

OpenAI.ChatCompletionRole

Rola autora wiadomości

Majątek Wartość
Opis Rola autora wiadomości
Typ ciąg
Wartości system
developer
user
assistant
tool
function

OpenAI.ChatCompletionStreamOptions

Opcje strumieniowania odpowiedzi. Ustaw tę wartość tylko po ustawieniu stream: true.

Name Typ Opis Wymagane Default
include_usage typ logiczny (boolowski) W przypadku ustawienia przed komunikatem data: [DONE] dodatkowy fragment zostanie przesłany strumieniem. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu dla całego żądania, a choices pole zawsze będzie pustą tablicą.

Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null. NUTA: Jeśli strumień zostanie przerwany, możesz nie otrzymać końcowego fragmentu użycia, który zawiera łączne użycie tokenu dla żądania.
Nie.

OpenAI.ChatCompletionStreamResponseDelta

Delta ukończenia czatu wygenerowana przez przesyłane strumieniowo odpowiedzi modelu.

Name Typ Opis Wymagane Default
audio obiekt Nie.
└─ dane ciąg Nie.
└─ wygasa_o liczba całkowita Nie.
└─ ID ciąg Nie.
└* transkrypcja ciąg Nie.
zawartość ciąg Zawartość sekcji wiadomości. Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
└─ Argumenty ciąg Nie.
└─ nazwa ciąg Nie.
refusal ciąg Komunikat o odmowie wygenerowany przez model. Nie.
rola obiekt Rola autora wiadomości Nie.
tool_calls macierz Nie.

OpenAI.ChatCompletionTokenLogprob

Name Typ Opis Wymagane Default
bytes macierz Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może to być null , jeśli nie ma reprezentacji bajtów dla tokenu. Tak
logprob Liczba Prawdopodobieństwo dziennika tego tokenu, jeśli znajduje się on w pierwszych 20 najbardziej prawdopodobnych tokenach. W przeciwnym razie wartość -9999.0 jest używana do oznaczania, że token jest bardzo mało prawdopodobny. Tak
kod przedpłaty ciąg Znacznik. Tak
top_logprobs macierz Lista najbardziej prawdopodobnych tokenów i ich logarytmicznych prawdopodobieństw na tej pozycji tokenu. W rzadkich przypadkach może zostać zwróconych mniej elementów top_logprobs niż liczba żądanych. Tak

OpenAI.ChatCompletionTool

Name Typ Opis Wymagane Default
funkcja OpenAI.FunctionObject Tak
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Tak

OpenAI.ChatCompletionToolChoiceOption

Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.

none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia.

Name Typ Opis Wymagane Default
funkcja obiekt Tak
└─ nazwa ciąg Nazwa funkcji do wywołania. Nie.
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Tak

OpenAI.ChatOutputPrediction

Podstawowa reprezentacja przewidywanych danych wyjściowych z modelu.

Dyskryminator dla OpenAI.ChatOutputPrediction

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
content OpenAI.ChatOutputPredictionContent
Name Typ Opis Wymagane Default
typ OpenAI.ChatOutputPredictionType Tak

OpenAI.ChatOutputPredictionContent

Statyczna przewidywana zawartość wyjściowa, taka jak zawartość pliku tekstowego, który jest ponownie wygenerowany.

Name Typ Opis Wymagane Default
zawartość ciąg lub tablica Tak
typ wyliczenie Typ przewidywanej zawartości, którą chcesz podać. Ten typ jest obecnie zawsze content.
Możliwe wartości: content
Tak

OpenAI.ChatOutputPredictionType

Majątek Wartość
Typ ciąg
Wartości content

OpenAI.ChunkingStrategyRequestParam

Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii.

Dyskryminator openAI.ChunkingStrategyRequestParam

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
static OpenAI.StaticChunkingStrategyRequestParam
Name Typ Opis Wymagane Default
typ wyliczenie Typ strategii fragmentowania.
Możliwe wartości: auto, static
Tak

OpenAI.ChunkingStrategyResponseParam

Dyskryminujące dla openAI.ChunkingStrategyResponseParam

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
other OpenAI.OtherChunkingStrategyResponseParam
static OpenAI.StaticChunkingStrategyResponseParam
Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: static, other
Tak

OpenAI.CodeInterpreterOutput

Dyskryminujące metody OpenAI.CodeInterpreterOutput

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Name Typ Opis Wymagane Default
typ OpenAI.CodeInterpreterOutputType Tak

OpenAI.CodeInterpreterOutputImage

Dane wyjściowe obrazu z interpretera kodu.

Name Typ Opis Wymagane Default
typ wyliczenie Typ danych wyjściowych. Zawsze "obraz".
Możliwe wartości: image
Tak
Adres URL ciąg Adres URL danych wyjściowych obrazu z interpretera kodu. Tak

OpenAI.CodeInterpreterOutputLogs

Dane wyjściowe dzienników z interpretera kodu.

Name Typ Opis Wymagane Default
dzienniki ciąg Dane wyjściowe dzienników z interpretera kodu. Tak
typ wyliczenie Typ danych wyjściowych. Zawsze "dzienniki".
Możliwe wartości: logs
Tak

OpenAI.CodeInterpreterOutputType

Majątek Wartość
Typ ciąg
Wartości logs
image

OpenAI.CodeInterpreterTool

Narzędzie, które uruchamia kod języka Python, aby pomóc wygenerować odpowiedź na monit.

Name Typ Opis Wymagane Default
kontener obiekt Konfiguracja kontenera interpretera kodu. Opcjonalnie określ identyfikatory plików do uruchomienia kodu. Tak
└ file_ids macierz Opcjonalna lista przesłanych plików, które mają być dostępne w Twoim kodzie. Nie.
└typ wyliczenie Zawsze auto.
Możliwe wartości: auto
Nie.
typ wyliczenie Typ narzędzia interpretera kodu. Zawsze code_interpreter.
Możliwe wartości: code_interpreter
Tak

OpenAI.CodeInterpreterToolAuto

Konfiguracja kontenera interpretera kodu. Opcjonalnie określ identyfikatory plików do uruchomienia kodu.

Name Typ Opis Wymagane Default
identyfikatory_plików macierz Opcjonalna lista przesłanych plików, które mają być dostępne w Twoim kodzie. Nie.
typ wyliczenie Zawsze auto.
Możliwe wartości: auto
Tak

OpenAI.CodeInterpreterToolCallItemParam

Wywołanie narzędzia w celu uruchomienia kodu.

Name Typ Opis Wymagane Default
kod ciąg Kod do uruchomienia lub wartość null, jeśli nie jest dostępny. Tak
container_id ciąg Identyfikator kontenera używanego do uruchamiania kodu. Tak
Wyniki macierz Dane wyjściowe generowane przez interpreter kodu, takie jak dzienniki lub obrazy.
Może mieć wartość null, jeśli żadne dane wyjściowe nie są dostępne.
Tak
typ wyliczenie
Możliwe wartości: code_interpreter_call
Tak

OpenAI.CodeInterpreterToolCallItemResource

Wywołanie narzędzia w celu uruchomienia kodu.

Name Typ Opis Wymagane Default
kod ciąg Kod do uruchomienia lub wartość null, jeśli nie jest dostępny. Tak
container_id ciąg Identyfikator kontenera używanego do uruchamiania kodu. Tak
Wyniki macierz Dane wyjściowe generowane przez interpreter kodu, takie jak dzienniki lub obrazy.
Może mieć wartość null, jeśli żadne dane wyjściowe nie są dostępne.
Tak
stan wyliczenie
Możliwe wartości: in_progress, , completedincomplete, , interpretingfailed
Tak
typ wyliczenie
Możliwe wartości: code_interpreter_call
Tak

OpenAI.ComparisonFilter

Filtr używany do porównywania określonego klucza atrybutu z daną wartością przy użyciu zdefiniowanej operacji porównania.

Name Typ Opis Wymagane Default
klucz ciąg Klucz do porównania z wartością. Tak
typ wyliczenie Określa operator porównania: eq, , ne, gtgte, lt, . lte
- eq:Equals
- ne: nie równa się
- gt: większe niż
- gte: większe niż lub równe
- lt: mniejsze niż
- lte: mniejsze niż lub równe.
Możliwe wartości: eq, , negt, gte, , ltlte
Tak
wartość ciąg lub liczba lub wartość logiczna Tak

OpenAI.CompletionUsage

Statystyki użycia dotyczące żądania zakończenia.

Name Typ Opis Wymagane Default
completion_tokens liczba całkowita Liczba tokenów w wygenerowanym zakończeniu. Tak 0
completion_tokens_details obiekt Podział tokenów używanych w uzupełnieniu. Nie.
└zaakceptowane_tokeny_predykcji liczba całkowita W przypadku korzystania z przewidywanych danych wyjściowych liczba tokenów w przewidywaniu, które pojawiło się w zakończeniu. Nie. 0
└audio_tokens liczba całkowita Tokeny wejściowe audio generowane przez model. Nie. 0
└─ tokeny_rozumowania liczba całkowita Tokeny generowane przez model do rozumowania. Nie. 0
└─ odrzucone_żetony_predykcji liczba całkowita W przypadku korzystania z przewidywanych danych wyjściowych liczba tokenów w przewidywaniu, które nie zostały wyświetlone w zakończeniu. Jednak podobnie jak tokeny rozumowania, te tokeny są nadal liczone w łącznych tokenach ukończenia na potrzeby rozliczeń, danych wyjściowych i limitów okien kontekstowych. Nie. 0
prompt_tokens liczba całkowita Liczba tokenów w prompt. Tak 0
prompt_tokens_details obiekt Podział tokenów używanych w wierszu polecenia. Nie.
└audio_tokens liczba całkowita Tokeny wejściowe audio obecne w wierszu polecenia. Nie. 0
└cached_tokens liczba całkowita Tokeny buforowane obecne w wierszu polecenia. Nie. 0
total_tokens liczba całkowita Łączna liczba tokenów użytych w żądaniu (zapytanie + ukończenie). Tak 0

OpenAI.CompoundFilter

Połącz wiele filtrów przy użyciu polecenia and lub or.

Name Typ Opis Wymagane Default
filters macierz Tablica filtrów do połączenia. Elementy mogą mieć wartość ComparisonFilter lub CompoundFilter. Tak
typ wyliczenie Typ operacji: and lub or.
Możliwe wartości: and, or
Tak

OpenAI.ComputerAction

Dyskryminujące dla openAI.ComputerAction

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Name Typ Opis Wymagane Default
typ OpenAI.ComputerActionType Tak

OpenAI.ComputerActionClick

Akcja kliknięcia.

Name Typ Opis Wymagane Default
przycisk wyliczenie Wskazuje, który przycisk myszy został naciśnięty podczas kliknięcia. leftJeden z , right, wheel, back, lub forward.
Możliwe wartości: left, , rightwheel, , backforward
Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji kliknięcia ta właściwość jest zawsze ustawiona na click.
Możliwe wartości: click
Tak
x liczba całkowita Współrzędna x, w której wystąpiło kliknięcie. Tak
y liczba całkowita Współrzędna y, w której wystąpiło kliknięcie. Tak

OpenAI.ComputerActionDoubleClick

Dwukrotne kliknięcie myszy.

Name Typ Opis Wymagane Default
typ wyliczenie Określa typ zdarzenia. W przypadku akcji dwukrotnego kliknięcia ta właściwość jest zawsze ustawiana jako double_click.
Możliwe wartości: double_click
Tak
x liczba całkowita Współrzędna x, w której wystąpiło dwukrotne kliknięcie. Tak
y liczba całkowita Współrzędna y, w której wystąpiło dwukrotne kliknięcie. Tak

OpenAI.ComputerActionDrag

Czynność przeciągania.

Name Typ Opis Wymagane Default
ścieżka macierz Tablica współrzędnych reprezentujących ścieżkę operacji przeciągania. Współrzędne będą wyświetlane jako tablica obiektów, np.{ x: 100, y: 200 }, { x: 200, y: 300 } Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji przeciągania ta właściwość jest zawsze ustawiana na drag.
Możliwe wartości: drag
Tak

OpenAI.ComputerActionKeyPress

Kolekcja naciśnięć klawiszy, które model chciałby wykonać.

Name Typ Opis Wymagane Default
keys macierz Kombinacja klawiszy, którą model żąda naciśnięcia. Jest to tablica ciągów, z których każdy reprezentuje klucz. Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji keypress ta właściwość jest zawsze ustawiona na wartość keypress.
Możliwe wartości: keypress
Tak

OpenAI.ComputerActionMove

Akcja ruchu myszy.

Name Typ Opis Wymagane Default
typ wyliczenie Określa typ zdarzenia. W przypadku akcji przenoszenia ta właściwość jest zawsze ustawiona na move.
Możliwe wartości: move
Tak
x liczba całkowita Współrzędna x, do której należy się przesunąć. Tak
y liczba całkowita Współrzędna y, do której należy się przesunąć. Tak

OpenAI.ComputerActionScreenshot

Akcja zrzutu ekranu.

Name Typ Opis Wymagane Default
typ wyliczenie Określa typ zdarzenia. W przypadku akcji zrzutu ekranu ta właściwość jest zawsze ustawiona na screenshot.
Możliwe wartości: screenshot
Tak

OpenAI.ComputerActionScroll

Akcja przewijania.

Name Typ Opis Wymagane Default
scroll_x liczba całkowita Odległość przewijania poziomego. Tak
scroll_y liczba całkowita Odległość przewijania w pionie. Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji przewijania ta właściwość jest zawsze ustawiona na scroll.
Możliwe wartości: scroll
Tak
x liczba całkowita Współrzędna x, w której wystąpiło przewijanie. Tak
y liczba całkowita Współrzędna y, w której wystąpiło przewijanie. Tak

OpenAI.ComputerActionType

Majątek Wartość
Typ ciąg
Wartości screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Akcja wpisywania tekstu.

Name Typ Opis Wymagane Default
SMS ciąg Tekst do wpisania. Tak
typ wyliczenie Określa typ zdarzenia. Dla akcji typu, ten atrybut jest zawsze ustawiony na type.
Możliwe wartości: type
Tak

OpenAI.ComputerActionWait

Akcja oczekiwania.

Name Typ Opis Wymagane Default
typ wyliczenie Określa typ zdarzenia. W przypadku akcji oczekiwania ta właściwość jest zawsze ustawiona na wait.
Możliwe wartości: wait
Tak

OpenAI.ComputerToolCallItemParam

Narzędzie wywołujące narzędzie do korzystania z komputera.

Name Typ Opis Wymagane Default
akcja OpenAI.ComputerAction Tak
call_id ciąg Identyfikator używany podczas odpowiadania na wywołanie narzędzia z danymi wyjściowymi. Tak
pending_safety_checks macierz Oczekujące kontrole bezpieczeństwa dla wywołania komputera. Tak
typ wyliczenie
Możliwe wartości: computer_call
Tak

OpenAI.ComputerToolCallItemResource

Narzędzie wywołujące narzędzie do korzystania z komputera.

Name Typ Opis Wymagane Default
akcja OpenAI.ComputerAction Tak
call_id ciąg Identyfikator używany podczas odpowiadania na wywołanie narzędzia z danymi wyjściowymi. Tak
pending_safety_checks macierz Oczekujące kontrole bezpieczeństwa dla wywołania komputera. Tak
stan wyliczenie Stan elementu. in_progressJeden z , completedlub incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: computer_call
Tak

OpenAI.ComputerToolCallOutputItemOutput

Dyskryminujące dla openAI.ComputerToolCallOutputItemOutput

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Name Typ Opis Wymagane Default
typ OpenAI.ComputerToolCallOutputItemOutputType Obraz zrzutu ekranu komputera używany w narzędziu do obsługi komputera. Tak

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Name Typ Opis Wymagane Default
identyfikator_pliku ciąg Nie.
image_url ciąg Nie.
typ wyliczenie
Możliwe wartości: computer_screenshot
Tak

OpenAI.ComputerToolCallOutputItemOutputType

Obraz zrzutu ekranu komputera używany w narzędziu do obsługi komputera.

Majątek Wartość
Opis Obraz zrzutu ekranu komputera używany w narzędziu do obsługi komputera.
Typ ciąg
Wartości computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

Dane wyjściowe z wywołania narzędzia komputerowego.

Name Typ Opis Wymagane Default
acknowledged_safety_checks macierz Kontrole bezpieczeństwa, które zostały zgłoszone przez interfejs API i potwierdzone przez dewelopera. Nie.
call_id ciąg Identyfikator wywołania narzędzia komputerowego, które wygenerowało dane wyjściowe. Tak
We/Wy OpenAI.ComputerToolCallOutputItemOutput Tak
typ wyliczenie
Możliwe wartości: computer_call_output
Tak

OpenAI.ComputerToolCallOutputItemResource

Dane wyjściowe z wywołania narzędzia komputerowego.

Name Typ Opis Wymagane Default
acknowledged_safety_checks macierz Kontrole bezpieczeństwa, które zostały zgłoszone przez interfejs API i potwierdzone przez dewelopera. Nie.
call_id ciąg Identyfikator wywołania narzędzia komputerowego, które wygenerowało dane wyjściowe. Tak
We/Wy OpenAI.ComputerToolCallOutputItemOutput Tak
stan wyliczenie Stan elementu. in_progressJeden z , completedlub incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: computer_call_output
Tak

OpenAI.ComputerToolCallSafetyCheck

Zaplanowana kontrola bezpieczeństwa dla komputerowego wezwania.

Name Typ Opis Wymagane Default
kod ciąg Typ oczekującego sprawdzenia bezpieczeństwa. Tak
identyfikator ciąg Identyfikator oczekującego sprawdzenia bezpieczeństwa. Tak
komunikat ciąg Szczegółowe informacje na temat nadchodzących kontroli bezpieczeństwa. Tak

OpenAI.NarzędziePodgląduUżytkowaniaKomputera

Narzędzie kontrolujące komputer wirtualny.

Name Typ Opis Wymagane Default
wysokość ekranu liczba całkowita Wysokość wyświetlacza komputera. Tak
szerokość_wyświetlacza liczba całkowita Szerokość ekranu komputera. Tak
środowisko wyliczenie Typ środowiska komputera do sterowania.
Możliwe wartości: windows, , maclinux, , ubuntubrowser
Tak
typ wyliczenie Typ narzędzia do użycia komputera. Zawsze computer_use_preview.
Możliwe wartości: computer_use_preview
Tak

OpenAI.Coordinate

Para współrzędnych x/y, np. { x: 100, y: 200 }.

Name Typ Opis Wymagane Default
x liczba całkowita Współrzędna x. Tak
y liczba całkowita Współrzędna y. Tak

OpenAI.CreateEmbeddingResponse

Name Typ Opis Wymagane Default
dane macierz Lista osadzonych elementów wygenerowanych przez model. Tak
model ciąg Nazwa modelu używanego do generowania osadzania. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "list".
Możliwe wartości: list
Tak
użycie obiekt Informacje o użyciu żądania. Tak
└prompt_tokens liczba całkowita Liczba tokenów używanych przez monit. Nie.
└total_tokens liczba całkowita Całkowita liczba tokenów używanych przez żądanie. Nie.

OpenAI.CreateEvalItem

Wiadomość czatu, która tworzy monit lub kontekst. Może zawierać odwołania do zmiennych do item przestrzeni nazw, tj. {{item.name}}.

Name Typ Opis Wymagane Default
zawartość string lub OpenAI.EvalItemContent Wprowadzanie tekstu do modelu — może zawierać ciągi szablonu. Tak
rola wyliczenie Rola wejścia komunikatu. userJeden z , assistant, systemlub developer.
Możliwe wartości: user, , assistant, systemdeveloper
Tak
typ wyliczenie Typ danych wejściowych komunikatu. Zawsze message.
Możliwe wartości: message
Nie.

OpenAI.CreateEvalRunRequest

Name Typ Opis Wymagane Default
źródło danych obiekt Tak
└typ OpenAI.EvalRunDataSourceType Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
nazwa ciąg Nazwa przebiegu. Nie.

OpenAI.CreateFineTuningJobRequest

Prawidłowe modele:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Name Typ Opis Wymagane Default
hiperparametry obiekt Hiperparametry używane do zadania dostrajania.
Ta wartość jest teraz przestarzała na rzecz parametru methodi powinna zostać przekazana w parametrze method .
Nie.
└batch_size wyliczenie
Możliwe wartości: auto
Nie.
└learning_rate_multiplier wyliczenie
Możliwe wartości: auto
Nie.
└n_epochs wyliczenie
Możliwe wartości: auto
Nie.
Integracje macierz Lista integracji umożliwiających dostrajanie zadania. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
metoda OpenAI.FineTuneMethod Metoda używana do dostrajania. Nie.
model ciąg (zobacz prawidłowe modele poniżej) Nazwa modelu do dostosowania. Tak
seed liczba całkowita Nasiono kontroluje reproduktywność procesu. Przekazywanie tych samych parametrów nasion i zadania powinno generować te same wyniki, ale mogą się różnić w rzadkich przypadkach.
Jeśli ziarno nie zostanie określone, zostanie wygenerowane dla Ciebie.
Nie.
przyrostek ciąg Ciąg zawierający maksymalnie 64 znaki, które zostaną dodane do precyzyjnej nazwy modelu.

Na przykład wartość suffix "custom-model-name" spowoduje wygenerowanie nazwy modelu, takiej jak ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
Nie. Żaden
plik szkoleniowy ciąg Identyfikator przekazanego pliku zawierającego dane szkoleniowe. Zestaw danych musi być sformatowany jako plik JSONL. Ponadto należy przekazać plik w celu fine-tune.

Zawartość pliku powinna się różnić w zależności od tego, czy model używa formatu czatu, uzupełniania lub czy metoda dostrajania dokładnego używa formatu preferencji.
Tak
plik walidacji ciąg Identyfikator przekazanego pliku zawierającego dane walidacji.

Jeśli podasz ten plik, dane są używane do okresowego generowania metryk walidacji podczas dostrajania. Te metryki można wyświetlić w pliku wyników dostrajania.
Te same dane nie powinny być obecne zarówno w plikach trenowania, jak i sprawdzania poprawności.

Zestaw danych musi być sformatowany jako plik JSONL. Musisz przekazać plik z celem fine-tune.
Nie.

OpenAI.CreateFineTuningJobRequestIntegration

Dyskryminowanie dla elementu OpenAI.CreateFineTuningJobRequestIntegration

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Name Typ Opis Wymagane Default
typ ciąg (zobacz prawidłowe modele poniżej) Tak

OpenAI.CreateFineTuningJobRequestWandbIntegration

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: wandb
Tak
wandb obiekt Tak
Jednostka └* ciąg Nie.
└─ nazwa ciąg Nie.
└project ciąg Nie.
Tagi └* macierz Nie.

OpenAI.CreateVectorStoreFileBatchRequest

Name Typ Opis Wymagane Default
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logiczne lub liczby. Nie.
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii. Nie.
identyfikatory_plików macierz Lista identyfikatorów plików, których powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search, które mogą access plików. Tak

OpenAI.CreateVectorStoreFileRequest

Name Typ Opis Wymagane Default
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logiczne lub liczby. Nie.
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii. Nie.
identyfikator_pliku ciąg Identyfikator pliku, którego powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search, które mogą access plików. Tak

OpenAI.CreateVectorStoreRequest

Name Typ Opis Wymagane Default
chunking_strategy obiekt Strategia domyślna. Ta strategia używa obecnie wartości max_chunk_size_tokens800 i chunk_overlap_tokens .400 Nie.
└* statyczny OpenAI.StaticChunkingStrategy Nie.
└typ wyliczenie Zawsze static.
Możliwe wartości: static
Nie.
wygasa po OpenAI.VectorStoreExpirationAfter Zasady wygasania magazynu wektorów. Nie.
identyfikatory_plików macierz Lista identyfikatorów plików, których powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search, które mogą access plików. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
nazwa ciąg Nazwa magazynu wektorów. Nie.

OpenAI.DeleteFileResponse

Name Typ Opis Wymagane Default
usunięta typ logiczny (boolowski) Tak
identyfikator ciąg Tak
obiekt wyliczenie
Możliwe wartości: file
Tak

OpenAI.DeleteVectorStoreFileResponse

Name Typ Opis Wymagane Default
usunięta typ logiczny (boolowski) Tak
identyfikator ciąg Tak
obiekt wyliczenie
Możliwe wartości: vector_store.file.deleted
Tak

OpenAI.DeleteVectorStoreResponse

Name Typ Opis Wymagane Default
usunięta typ logiczny (boolowski) Tak
identyfikator ciąg Tak
obiekt wyliczenie
Możliwe wartości: vector_store.deleted
Tak

OpenAI.Embedding

Reprezentuje wektor osadzania zwrócony przez punkt końcowy osadzania.

Name Typ Opis Wymagane Default
embedding tablica lub ciąg Tak
indeks liczba całkowita Indeks osadzania na liście osadzonych. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "osadzaniem".
Możliwe wartości: embedding
Tak

OpenAI.Eval

Obiekt Eval z konfiguracją źródła danych i kryteriami testowania. Eval reprezentuje zadanie, które należy wykonać na potrzeby Twojej integracji z LLM. Lubić:

  • Poprawianie jakości mojego czatbota
  • Zobacz, jak dobrze mój czatbot obsługuje obsługę klienta
  • Sprawdź, czy o4-mini jest lepiej w moim przypadku użycia niż gpt-4o
Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia oceny. Tak
konfiguracja źródła danych obiekt Tak
└typ OpenAI.EvalDataSourceConfigType Nie.
identyfikator ciąg Unikatowy identyfikator oceny. Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
nazwa ciąg Nazwa oceny. Tak
obiekt wyliczenie Typ obiektu.
Możliwe wartości: eval
Tak
kryteria_testowe macierz Lista kryteriów testowania. Tak Żaden

OpenAI.EvalApiError

Obiekt reprezentujący odpowiedź o błędzie z interfejsu API Eval.

Name Typ Opis Wymagane Default
kod ciąg Kod błędu. Tak
komunikat ciąg Komunikat o błędzie. Tak

OpenAI.EvalCompletionsRunDataSourceParams

Obiekt CompletionsRunDataSource opisujący konfigurację próbkowania modelu.

Name Typ Opis Wymagane Default
wiadomości wejściowe obiekt Nie.
└item_reference ciąg Odwołanie do zmiennej item w przestrzeni nazw. Tzn., "element.ścieżka_wejściowa" Nie.
└─ szablon macierz Lista wiadomości czatu tworzących monit lub kontekst. Może zawierać odwołania do zmiennych do item przestrzeni nazw, tj. {{item.name}}. Nie.
└typ wyliczenie Typ komunikatów wejściowych. Zawsze item_reference.
Możliwe wartości: item_reference
Nie.
model ciąg Nazwa modelu do użycia do generowania uzupełniania (np. "o3-mini"). Nie.
parametry_próbowania AzureEvalAPICompletionsSamplingParams Nie.
przesłać źródło obiekt Tak
└─ zawartość macierz Zawartość pliku jsonl. Nie.
└created_after liczba całkowita Opcjonalny znacznik czasu systemu Unix do filtrowania elementów utworzonych po tym czasie. Nie.
└created_before liczba całkowita Opcjonalny znacznik czasu systemu Unix do filtrowania elementów utworzonych przed tym czasem. Nie.
└─ ID ciąg Identyfikator pliku. Nie.
└* limit liczba całkowita Opcjonalna maksymalna liczba elementów do zwrócenia. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
Model └* ciąg Opcjonalny model filtrowania (np. „gpt-4o”). Nie.
└typ wyliczenie Typ źródła. Zawsze stored_completions.
Możliwe wartości: stored_completions
Nie.
typ wyliczenie Typ uruchomionego źródła danych. Zawsze completions.
Możliwe wartości: completions
Tak

OpenAI.EvalCustomDataSourceConfigParams

Obiekt CustomDataSourceConfig, który definiuje schemat źródła danych używanego do przeprowadzania serii ocen. Ten schemat służy do definiowania kształtu danych, które będą następujące:

  • Służy do definiowania kryteriów testowania i
  • Jakie dane są wymagane podczas tworzenia przebiegu
Name Typ Opis Wymagane Default
uwzględnij_przykładowy_schemat typ logiczny (boolowski) Czy podczas oceny należy oczekiwać wypełnienia przykładowej przestrzeni nazw (tj. przez generowanie odpowiedzi ze źródła danych) Nie. Nieprawda
item_schema obiekt Schemat JSON dla każdego wiersza w źródle danych. Tak
typ wyliczenie Typ źródła danych. Zawsze custom.
Możliwe wartości: custom
Tak

OpenAI.EvalCustomDataSourceConfigResource

CustomDataSourceConfig, który określa schemat twojej przestrzeni nazw item oraz opcjonalnie przestrzeni nazw sample. Schemat odpowiedzi definiuje kształt danych, które będą następujące:

  • Służy do definiowania kryteriów testowania i
  • Jakie dane są wymagane podczas tworzenia przebiegu
Name Typ Opis Wymagane Default
schemat obiekt Schemat json dla elementów uruchomiania źródła danych.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Tak
typ wyliczenie Typ źródła danych. Zawsze custom.
Możliwe wartości: custom
Tak

OpenAI.EvalDataSourceConfigParams

Dyskryminujące dla openAI.EvalDataSourceConfigParams

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
custom OpenAI.EvalCustomDataSourceConfigParams
logs OpenAI.EvalLogsDataSourceConfigParams
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigParams
Name Typ Opis Wymagane Default
typ OpenAI.EvalDataSourceConfigType Tak

OpenAI.EvalDataSourceConfigResource

Dyskryminujące dla openAI.EvalDataSourceConfigResource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
custom OpenAI.EvalCustomDataSourceConfigResource
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigResource
logs OpenAI.EvalLogsDataSourceConfigResource
Name Typ Opis Wymagane Default
typ OpenAI.EvalDataSourceConfigType Tak

OpenAI.EvalDataSourceConfigType

Majątek Wartość
Typ ciąg
Wartości custom
logs
stored_completions

OpenAI.EvalGraderLabelModelParams

Obiekt LabelModelGrader, który używa modelu do przypisywania etykiet do każdego elementu w ocenie.

Name Typ Opis Wymagane Default
dane wejściowe macierz Lista wiadomości czatu tworzących monit lub kontekst. Może zawierać odwołania do zmiennych do item przestrzeni nazw, tj. {{item.name}}. Tak
labels macierz Etykiety do klasyfikacji każdego elementu w ocenie. Tak
model ciąg Model do użycia do oceny. Musi obsługiwać dane wyjściowe ze strukturą. Tak
nazwa ciąg Nazwa oceniającego. Tak
przechodzące_etykiety macierz Etykiety wskazujące wynik pozytywny. Musi być podzbiorem etykiet. Tak
typ wyliczenie Typ obiektu, który jest zawsze label_model.
Możliwe wartości: label_model
Tak

OpenAI.EvalGraderLabelModelResource

Name Typ Opis Wymagane Default
dane wejściowe macierz Tak
labels macierz Etykiety do przypisania do każdego elementu w ocenie. Tak
model ciąg Model do użycia do oceny. Musi obsługiwać dane wyjściowe ze strukturą. Tak
nazwa ciąg Nazwa oceniającego. Tak
przechodzące_etykiety macierz Etykiety wskazujące wynik pozytywny. Musi być podzbiorem etykiet. Tak
typ wyliczenie Typ obiektu, który jest zawsze label_model.
Możliwe wartości: label_model
Tak

OpenAI.EvalGraderParams

Dyskryminujące dla openAI.EvalGraderParams

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
label_model OpenAI.EvalGraderLabelModelParams
string_check OpenAI.EvalGraderStringCheckParams
text_similarity OpenAI.EvalGraderTextSimilarityParams
python OpenAI.EvalGraderPythonParams
score_model OpenAI.EvalGraderScoreModelParams
Name Typ Opis Wymagane Default
typ OpenAI.GraderType Tak

OpenAI.EvalGraderPythonParams

Name Typ Opis Wymagane Default
image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Nie.
przesłać źródło ciąg Kod źródłowy skryptu języka Python. Tak
typ wyliczenie Typ obiektu, który jest zawsze python.
Możliwe wartości: python
Tak

OpenAI.EvalGraderPythonResource

Name Typ Opis Wymagane Default
image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Nie.
przesłać źródło ciąg Kod źródłowy skryptu języka Python. Tak
typ wyliczenie Typ obiektu, który jest zawsze python.
Możliwe wartości: python
Tak

OpenAI.EvalGraderResource

Dyskryminujące dla openAI.EvalGraderResource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
label_model OpenAI.EvalGraderLabelModelResource
text_similarity OpenAI.EvalGraderTextSimilarityResource
python OpenAI.EvalGraderPythonResource
score_model OpenAI.EvalGraderScoreModelResource
Name Typ Opis Wymagane Default
typ OpenAI.GraderType Tak

OpenAI.EvalGraderScoreModelParams

Name Typ Opis Wymagane Default
dane wejściowe macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
model ciąg Model do użycia do oceny. Tak
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Nie.
zakres macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
parametry_próbowania Parametry próbkowania dla modelu. Nie.
typ wyliczenie Typ obiektu, który jest zawsze score_model.
Możliwe wartości: score_model
Tak

OpenAI.EvalGraderScoreModelResource

Name Typ Opis Wymagane Default
dane wejściowe macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
model ciąg Model do użycia do oceny. Tak
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Nie.
zakres macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
parametry_próbowania Parametry próbkowania dla modelu. Nie.
typ wyliczenie Typ obiektu, który jest zawsze score_model.
Możliwe wartości: score_model
Tak

OpenAI.EvalGraderStringCheckParams

Name Typ Opis Wymagane Default
dane wejściowe ciąg Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
nazwa ciąg Nazwa oceniającego. Tak
operacja wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Tak
odwołanie ciąg Tekst odwołania. Może to obejmować ciągi szablonu. Tak
typ wyliczenie Typ obiektu, który jest zawsze string_check.
Możliwe wartości: string_check
Tak

OpenAI.EvalGraderTextSimilarityParams

Name Typ Opis Wymagane Default
miara oceny wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Tak
dane wejściowe ciąg Tekst jest oceniany. Tak
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Tak
odwołanie ciąg Tekst oceniany względem. Tak
typ wyliczenie Typ klasyra.
Możliwe wartości: text_similarity
Tak

OpenAI.EvalGraderTextSimilarityResource

Name Typ Opis Wymagane Default
miara oceny wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Tak
dane wejściowe ciąg Tekst jest oceniany. Tak
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Tak
odwołanie ciąg Tekst oceniany względem. Tak
typ wyliczenie Typ klasyra.
Możliwe wartości: text_similarity
Tak

OpenAI.EvalItem

Wiadomość jako wejście do modelu z rolą wskazującą przestrzeganie hierarchii instrukcji. Instrukcje przypisane do roli developer lub system mają pierwszeństwo przed instrukcjami przypisanymi do roli user. Przyjmuje się, że komunikaty z rolą assistant zostały wygenerowane przez model w poprzednich interakcjach.

Name Typ Opis Wymagane Default
zawartość obiekt Tak
└typ OpenAI.EvalItemContentType Nie.
rola wyliczenie Rola wejścia komunikatu. userJeden z , assistant, systemlub developer.
Możliwe wartości: user, , assistant, systemdeveloper
Tak
typ wyliczenie Typ danych wejściowych komunikatu. Zawsze message.
Możliwe wartości: message
Nie.

OpenAI.EvalItemContent

Dyskryminujący dla openAI.EvalItemContent

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
input_text OpenAI.EvalItemContentInputText
output_text OpenAI.EvalItemContentOutputText
Name Typ Opis Wymagane Default
typ OpenAI.EvalItemContentType Tak

OpenAI.EvalItemContentInputText

Name Typ Opis Wymagane Default
SMS ciąg Tak
typ wyliczenie
Możliwe wartości: input_text
Tak

OpenAI.EvalItemContentOutputText

Name Typ Opis Wymagane Default
SMS ciąg Tak
typ wyliczenie
Możliwe wartości: output_text
Tak

OpenAI.EvalItemContentType

Majątek Wartość
Typ ciąg
Wartości input_text
output_text

OpenAI.EvalJsonlRunDataSourceParams

Obiekt JsonlRunDataSource, który określa plik JSONL odpowiadający ewaluacji.

Name Typ Opis Wymagane Default
przesłać źródło obiekt Tak
└─ zawartość macierz Zawartość pliku jsonl. Nie.
└─ ID ciąg Identyfikator pliku. Nie.
└typ wyliczenie Typ źródła jsonl. Zawsze file_id.
Możliwe wartości: file_id
Nie.
typ wyliczenie Typ źródła danych. Zawsze jsonl.
Możliwe wartości: jsonl
Tak

OpenAI.EvalList

Obiekt reprezentujący listę ocen.

Name Typ Opis Wymagane Default
dane macierz Tablica obiektów owalnych. Tak
first_id ciąg Identyfikator pierwszej ewaluacji w tablicy danych. Tak
zawiera_więcej typ logiczny (boolowski) Wskazuje, czy dostępnych jest więcej ocen. Tak
last_id ciąg Identyfikator ostatniej ewaluacji w tablicy danych. Tak
obiekt wyliczenie Typ tego obiektu. Zawsze jest ustawiona na "list".
Możliwe wartości: list
Tak

OpenAI.EvalLogsDataSourceConfigParams

Konfiguracja źródła danych określająca właściwość metadanych zapytania dotyczącego dzienników. Zazwyczaj są to metadane, takie jak usecase=chatbot lub prompt-version=v2, itp.

Name Typ Opis Wymagane Default
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
typ wyliczenie Typ źródła danych. Zawsze logs.
Możliwe wartości: logs
Tak

OpenAI.EvalLogsDataSourceConfigResource

Element LogsDataSourceConfig określający właściwość metadanych zapytania dotyczącego dzienników. Zazwyczaj są to metadane, takie jak usecase=chatbot lub prompt-version=v2, itp. Schemat zwracany przez tę konfigurację źródła danych służy do określania, jakie zmienne są dostępne w ocenach. item i sample są definiowane podczas korzystania z tej konfiguracji źródła danych.

Name Typ Opis Wymagane Default
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
schemat obiekt Schemat json dla elementów uruchomiania źródła danych.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Tak
typ wyliczenie Typ źródła danych. Zawsze logs.
Możliwe wartości: logs
Tak

OpenAI.EvalResponsesRunDataSourceParams

Obiekt ResponsesRunDataSource opisujący konfigurację próbkowania modelu.

Name Typ Opis Wymagane Default
wiadomości wejściowe obiekt Nie.
└item_reference ciąg Odwołanie do zmiennej item w przestrzeni nazw. tzn. "item.name" Nie.
└─ szablon macierz Lista wiadomości czatu tworzących monit lub kontekst. Może zawierać odwołania do zmiennych do item przestrzeni nazw, tj. {{item.name}}. Nie.
└typ wyliczenie Typ komunikatów wejściowych. Zawsze item_reference.
Możliwe wartości: item_reference
Nie.
model ciąg Nazwa modelu do użycia do generowania uzupełniania (np. "o3-mini"). Nie.
parametry_próbowania AzureEvalAPIResponseSamplingParams Nie.
przesłać źródło obiekt Tak
└─ zawartość macierz Zawartość pliku jsonl. Nie.
└created_after liczba całkowita Uwzględnij tylko elementy utworzone po tym znaczniku czasu (włącznie). Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└created_before liczba całkowita Uwzględnij tylko elementy utworzone przed tym znacznikami czasu (włącznie). Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└─ ID ciąg Identyfikator pliku. Nie.
└instructions_search ciąg Opcjonalny ciąg do przeszukiwania pola "instrukcje". Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
Model └* ciąg Nazwa modelu do znalezienia odpowiedzi. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└reasoning_effort OpenAI.ReasoningEffort Opcjonalny parametr nakładu pracy rozumowania. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└* temperatura Liczba Temperatura próbkowania. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└─ Narzędzia macierz Lista nazw narzędzi. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└─top_p Liczba Parametr próbkowania jądra. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└typ wyliczenie Typ uruchomionego źródła danych. Zawsze responses.
Możliwe wartości: responses
Nie.
Użytkownicy └* macierz Lista identyfikatorów użytkowników. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
typ wyliczenie Typ uruchomionego źródła danych. Zawsze responses.
Możliwe wartości: responses
Tak

OpenAI.EvalRun

Schemat reprezentujący przebieg oceny.

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) podczas tworzenia przebiegu oceny. Tak
źródło danych obiekt Tak
└typ OpenAI.EvalRunDataSourceType Nie.
błąd OpenAI.EvalApiError Obiekt reprezentujący odpowiedź o błędzie z interfejsu API Eval. Tak
eval_id ciąg Identyfikator skojarzonej oceny. Tak
identyfikator ciąg Unikatowy identyfikator przebiegu oceny. Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
model ciąg Model, który jest oceniany, jeśli ma zastosowanie. Tak
nazwa ciąg Nazwa przebiegu oceny. Tak
obiekt wyliczenie Typ obiektu. Zawsze "eval.run".
Możliwe wartości: eval.run
Tak
użycie na model macierz Statystyki użycia dla każdego modelu podczas przebiegu oceny. Tak
wyniki_wg_kryteriów_testowych macierz Wyniki na kryteria testowania stosowane podczas przebiegu oceny. Tak
report_url ciąg Adres URL wyświetlonego raportu przebiegu oceny na pulpicie interfejsu użytkownika. Tak
wyniki_liczby obiekt Liczniki podsumowujące wyniki przebiegu oceny. Tak
└─ Wystąpił błąd liczba całkowita Liczba elementów wyjściowych, które spowodowały błąd. Nie.
└* nie powiodło się liczba całkowita Liczba elementów wyjściowych, które nie przeszły oceny. Nie.
└* zaliczone liczba całkowita Liczba elementów wyjściowych, które przeszły ocenę. Nie.
└─ suma liczba całkowita Łączna liczba wykonanych elementów wyjściowych. Nie.
stan ciąg Stan przebiegu oceny. Tak

OpenAI.EvalRunDataContentSource

Dyskryminujące dla openAI.EvalRunDataContentSource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
file_id OpenAI.EvalRunFileIdDataContentSource
stored_completions OpenAI.EvalRunStoredCompletionsDataContentSource
responses OpenAI.EvalRunResponsesDataContentSource
Name Typ Opis Wymagane Default
typ OpenAI.EvalRunDataContentSourceType Tak

OpenAI.EvalRunDataContentSourceType

Majątek Wartość
Typ ciąg
Wartości file_id
file_content
stored_completions
responses

OpenAI.EvalRunDataSourceCompletionsResource

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: completions
Tak

OpenAI.EvalRunDataSourceJsonlResource

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: jsonl
Tak

OpenAI.EvalRunDataSourceParams

Dyskryminujące dla openAI.EvalRunDataSourceParams

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
jsonl OpenAI.EvalJsonlRunDataSourceParams
completions OpenAI.EvalCompletionsRunDataSourceParams
responses OpenAI.EvalResponsesRunDataSourceParams
Name Typ Opis Wymagane Default
typ OpenAI.EvalRunDataSourceType Tak

OpenAI.EvalRunDataSourceResource

Name Typ Opis Wymagane Default
typ OpenAI.EvalRunDataSourceType Tak

OpenAI.EvalRunDataSourceResponsesResource

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: responses
Tak

OpenAI.EvalRunDataSourceType

Majątek Wartość
Typ ciąg
Wartości jsonl
completions
responses

OpenAI.EvalRunFileContentDataContentSource

Name Typ Opis Wymagane Default
zawartość macierz Zawartość pliku jsonl. Tak
typ wyliczenie Typ źródła jsonl. Zawsze file_content.
Możliwe wartości: file_content
Tak

OpenAI.EvalRunFileIdDataContentSource

Name Typ Opis Wymagane Default
identyfikator ciąg Identyfikator pliku. Tak
typ wyliczenie Typ źródła jsonl. Zawsze file_id.
Możliwe wartości: file_id
Tak

OpenAI.EvalRunList

Obiekt reprezentujący listę przebiegów oceny.

Name Typ Opis Wymagane Default
dane macierz Tablica obiektów testowych uruchomień. Tak
first_id ciąg Identyfikator pierwszego przebiegu oceny w tablicy danych. Tak
zawiera_więcej typ logiczny (boolowski) Wskazuje, czy dostępnych jest więcej ocen. Tak
last_id ciąg Identyfikator ostatniego przebiegu oceny w tablicy danych. Tak
obiekt wyliczenie Typ tego obiektu. Zawsze jest ustawiona na "list".
Możliwe wartości: list
Tak

OpenAI.EvalRunOutputItem

Schemat reprezentujący element wyjściowy przebiegu oceny.

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) podczas tworzenia przebiegu oceny. Tak
element źródła danych obiekt Szczegóły elementu wejściowego źródła danych. Tak
"identyfikator_elementu_źródła_danych (datasource_item_id)" liczba całkowita Identyfikator elementu źródła danych. Tak
eval_id ciąg Identyfikator grupy ewaluacyjnej. Tak
identyfikator ciąg Unikatowy identyfikator elementu wyjściowego procesu oceny. Tak
obiekt wyliczenie Typ obiektu. Zawsze "eval.run.output_item".
Możliwe wartości: eval.run.output_item
Tak
results macierz Lista wyników z przebiegu oceny. Tak
run_id ciąg Identyfikator przebiegu oceny skojarzonego z tym elementem wyjściowym. Tak
próbka obiekt Przykład zawierający dane wejściowe i wyjściowe przebiegu oceny. Tak
└─ błąd OpenAI.EvalApiError Obiekt reprezentujący odpowiedź o błędzie z interfejsu API Eval. Nie.
└ finish_reason ciąg Powód zakończenia generowania próbki. Nie.
└─ Wejście macierz Tablica komunikatów wejściowych. Nie.
└max_completion_tokens liczba całkowita Maksymalna liczba tokenów dozwolonych do ukończenia. Nie.
Model └* ciąg Model używany do generowania przykładu. Nie.
└─ Dane wyjściowe macierz Tablica komunikatów wyjściowych. Nie.
└─ nasion liczba całkowita Nasiono używane do generowania próbki. Nie.
└* temperatura Liczba Użyta temperatura próbkowania. Nie.
└─top_p Liczba Wartość top_p używana do próbkowania. Nie.
└─ użycie obiekt Szczegóły użycia tokenu dla przykładu. Nie.
└cached_tokens liczba całkowita Liczba tokenów pobranych z pamięci podręcznej. Nie.
└─ tokeny_zakończenia liczba całkowita Liczba wygenerowanych tokenów ukończenia. Nie.
└prompt_tokens liczba całkowita Liczba użytych tokenów wywołania. Nie.
└total_tokens liczba całkowita Całkowita liczba użytych tokenów. Nie.
stan ciąg Stan przebiegu oceny. Tak

OpenAI.EvalRunOutputItemList

Obiekt reprezentujący listę elementów wyjściowych dla przebiegu oceny.

Name Typ Opis Wymagane Default
dane macierz Tablica obiektów elementów wyjściowych z przebiegu eval. Tak
first_id ciąg Identyfikator pierwszego elementu wyjściowego przebiegu oceny w tablicy danych. Tak
zawiera_więcej typ logiczny (boolowski) Wskazuje, czy dostępnych jest więcej elementów wyjściowych przebiegu oceny. Tak
last_id ciąg Identyfikator ostatniego elementu wyjściowego przebiegu eval w tablicy danych. Tak
obiekt wyliczenie Typ tego obiektu. Zawsze jest ustawiona na "list".
Możliwe wartości: list
Tak

OpenAI.EvalRunResponsesDataContentSource

Obiekt EvalResponsesSource opisujący konfigurację uruchamiania źródła danych.

Name Typ Opis Wymagane Default
stworzone_po liczba całkowita Uwzględnij tylko elementy utworzone po tym znaczniku czasu (włącznie). Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
utworzone_przed liczba całkowita Uwzględnij tylko elementy utworzone przed tym znacznikami czasu (włącznie). Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
instructions_search ciąg Opcjonalny ciąg do przeszukiwania pola "instrukcje". Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
model ciąg Nazwa modelu do znalezienia odpowiedzi. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
wysiłek rozumowania obiekt Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Nie.
temperatura Liczba Temperatura próbkowania. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
narzędzia macierz Lista nazw narzędzi. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
top_p Liczba Parametr próbkowania jądra. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
typ wyliczenie Typ uruchomionego źródła danych. Zawsze responses.
Możliwe wartości: responses
Tak
users macierz Lista identyfikatorów użytkowników. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.

OpenAI.EvalRunStoredCompletionsDataContentSource

Konfiguracja StoredCompletionsRunDataSource opisująca zestaw filtrów

Name Typ Opis Wymagane Default
stworzone_po liczba całkowita Opcjonalny znacznik czasu systemu Unix do filtrowania elementów utworzonych po tym czasie. Nie.
utworzone_przed liczba całkowita Opcjonalny znacznik czasu systemu Unix do filtrowania elementów utworzonych przed tym czasem. Nie.
limit liczba całkowita Opcjonalna maksymalna liczba elementów do zwrócenia. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
model ciąg Opcjonalny model filtrowania (np. „gpt-4o”). Nie.
typ wyliczenie Typ źródła. Zawsze stored_completions.
Możliwe wartości: stored_completions
Tak

OpenAI.EvalStoredCompletionsDataSourceConfigParams

Przestarzałe na rzecz logsDataSourceConfig.

Name Typ Opis Wymagane Default
metadane obiekt Filtry metadanych dla przechowywanego źródła danych uzupełniania. Nie.
typ wyliczenie Typ źródła danych. Zawsze stored_completions.
Możliwe wartości: stored_completions
Tak

OpenAI.EvalStoredCompletionsDataSourceConfigResource

Przestarzałe na rzecz logsDataSourceConfig.

Name Typ Opis Wymagane Default
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
schemat obiekt Schemat json dla elementów uruchomiania źródła danych.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Tak
typ wyliczenie Typ źródła danych. Zawsze stored_completions.
Możliwe wartości: stored_completions
Tak

OpenAI.FileSearchTool

Narzędzie wyszukujące odpowiednią zawartość z przekazanych plików.

Name Typ Opis Wymagane Default
filters obiekt Nie.
maks_liczba_wyników liczba całkowita Maksymalna liczba wyników do zwrócenia. Ta liczba powinna należeć do zakresu od 1 do 50 włącznie. Nie.
opcje rankingu obiekt Nie.
└} ranker wyliczenie Klasyfikator używany do wyszukiwania plików.
Możliwe wartości: auto, default-2024-11-15
Nie.
└─ próg_punktowy Liczba Próg oceny dla wyszukiwania plików, liczba z zakresu od 0 do 1. Liczby bliżej 1 będą próbować zwracać tylko najbardziej odpowiednie wyniki, ale mogą zwracać mniej wyników. Nie.
typ wyliczenie Typ narzędzia wyszukiwania plików. Zawsze file_search.
Możliwe wartości: file_search
Tak
identyfikatory_sklepu_wektorów macierz Identyfikatory wektorów są przechowywane do wyszukiwania. Tak

OpenAI.FileSearchToolCallItemParam

Wyniki wywołania narzędzia wyszukiwania plików.

Name Typ Opis Wymagane Default
queries macierz Zapytania używane do wyszukiwania plików. Tak
results macierz Wyniki wywołania narzędzia wyszukiwania plików. Nie.
typ wyliczenie
Możliwe wartości: file_search_call
Tak

OpenAI.FileSearchToolCallItemResource

Wyniki wywołania narzędzia wyszukiwania plików.

Name Typ Opis Wymagane Default
queries macierz Zapytania używane do wyszukiwania plików. Tak
results macierz Wyniki wywołania narzędzia wyszukiwania plików. Nie.
stan wyliczenie Stan wywołania narzędzia do wyszukiwania plików. in_progressJeden z , searchingincomplete lub failed.
Możliwe wartości: in_progress, , searchingcompleted, , incompletefailed
Tak
typ wyliczenie
Możliwe wartości: file_search_call
Tak

OpenAI.Filters

Name Typ Opis Wymagane Default
filters macierz Tablica filtrów do połączenia. Elementy mogą mieć wartość ComparisonFilter lub CompoundFilter. Tak
klucz ciąg Klucz do porównania z wartością. Tak
typ wyliczenie Typ operacji: and lub or.
Możliwe wartości: and, or
Tak
wartość ciąg lub liczba lub wartość logiczna Wartość do porównania z kluczem atrybutu; obsługuje typy ciągów, liczb lub wartości logicznych. Tak

OpenAI.FineTuneDPOHyperparameters

Hiperparametry używane do zadania dostrajania obiektu DPO.

Name Typ Opis Wymagane Default
rozmiar partii wyliczenie
Możliwe wartości: auto
Nie.
wersja beta wyliczenie
Możliwe wartości: auto
Nie.
mnożnik szybkości uczenia wyliczenie
Możliwe wartości: auto
Nie.
n_epochs (liczba epok) wyliczenie
Możliwe wartości: auto
Nie.

OpenAI.FineTuneDPOMethod

Konfiguracja metody dostrajania obiektu DPO.

Name Typ Opis Wymagane Default
hiperparametry OpenAI.FineTuneDPOHyperparameters Hiperparametry używane do zadania dostrajania obiektu DPO. Nie.

OpenAI.FineTuneMethod

Metoda używana do dostrajania.

Name Typ Opis Wymagane Default
dpo OpenAI.FineTuneDPOMethod Konfiguracja metody dostrajania obiektu DPO. Nie.
Zbrojenia AzureFineTuneReinforcementMethod Nie.
Nadzorowany OpenAI.FineTuneSupervisedMethod Konfiguracja nadzorowanej metody dostrajania. Nie.
typ wyliczenie Typ metody. Ma wartość supervised, dpolub reinforcement.
Możliwe wartości: supervised, , dporeinforcement
Tak

OpenAI.FineTuneReinforcementHyperparameters

Hiperparametry używane do zadania dostrajania wzmocnienia.

Name Typ Opis Wymagane Default
rozmiar partii wyliczenie
Możliwe wartości: auto
Nie.
compute_multiplier wyliczenie
Możliwe wartości: auto
Nie.
eval_interval wyliczenie
Możliwe wartości: auto
Nie.
eval_samples wyliczenie
Możliwe wartości: auto
Nie.
mnożnik szybkości uczenia wyliczenie
Możliwe wartości: auto
Nie.
n_epochs (liczba epok) wyliczenie
Możliwe wartości: auto
Nie.
wysiłek rozumowania wyliczenie Poziom wysiłku rozumowania.
Możliwe wartości: default, , low, mediumhigh
Nie.

OpenAI.FineTuneSupervisedHyperparameters

Hiperparametry używane do zadania dostrajania.

Name Typ Opis Wymagane Default
rozmiar partii wyliczenie
Możliwe wartości: auto
Nie.
mnożnik szybkości uczenia wyliczenie
Możliwe wartości: auto
Nie.
n_epochs (liczba epok) wyliczenie
Możliwe wartości: auto
Nie.

OpenAI.FineTuneSupervisedMethod

Konfiguracja nadzorowanej metody dostrajania.

Name Typ Opis Wymagane Default
hiperparametry OpenAI.FineTuneSupervisedHyperparameters Hiperparametry używane do zadania dostrajania. Nie.

OpenAI.FineTuningIntegration

Dyskryminowanie dla openAI.FineTuningIntegration

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
wandb OpenAI.FineTuningIntegrationWandb
Name Typ Opis Wymagane Default
typ ciąg (zobacz prawidłowe modele poniżej) Tak

OpenAI.FineTuningIntegrationWandb

Name Typ Opis Wymagane Default
typ wyliczenie Typ integracji włączonej dla zadania dostrajania.
Możliwe wartości: wandb
Tak
wandb obiekt Ustawienia integracji z wagami i uprzedzeniami. Ten ładunek określa project, do których będą wysyłane metryki. Opcjonalnie możesz ustawić widoczną nazwę uruchomienia, dodać tagi do uruchomienia i ustawić domyślną jednostkę (zespół, użytkownik itp.) do skojarzenia z uruchomieniem. Tak
Jednostka └* ciąg Jednostka do użycia na potrzeby przebiegu. Dzięki temu możesz ustawić zespół lub nazwę użytkownika platformy WandB, który chcesz skojarzyć z eksperymentem. Jeśli nie zostanie ustawiona, zostanie użyta domyślna jednostka zarejestrowanego klucza interfejsu API WandB. Nie.
└─ nazwa ciąg Nazwa wyświetlana ustawiona dla przebiegu. Jeśli nie zostanie ustawiona, użyjemy identyfikatora zadania jako nazwy. Nie.
└project ciąg Nazwa project, w której zostanie utworzone nowe uruchomienie. Nie.
Tagi └* macierz Lista tagów do dołączenia do nowo utworzonego przebiegu. Te tagi są przekazywane bezpośrednio do usługi WandB. Niektóre tagi domyślne są generowane przez OpenAI: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}". Nie.

OpenAI.FineTuningJob

Obiekt fine_tuning.job reprezentuje zadanie dostrajania, które zostało utworzone za pośrednictwem interfejsu API.

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia zadania dostrajania. Tak
błąd obiekt W przypadku zadań dostrajania, które mają failedparametr , będzie to zawierać więcej informacji na temat przyczyny awarii. Tak
└─ kod ciąg Kod błędu czytelny dla maszyny. Nie.
└─ Komunikat ciąg Czytelny dla człowieka komunikat o błędzie. Nie.
└* param ciąg Parametr, który był nieprawidłowy, zwykle training_file lub validation_file. To pole będzie miało wartość null, jeśli błąd nie był specyficzny dla parametru. Nie.
szacowany czas zakończenia liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu zakończenia zadania dostrajania. Wartość będzie mieć wartość null, jeśli zadanie dostrajania szczegółowego nie jest uruchomione. Nie.
fine_tuned_model ciąg Nazwa tworzonego modelu. Wartość będzie mieć wartość null, jeśli zadanie dostrajania jest nadal uruchomione. Tak
zakończono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu zakończenia zadania dostrajania. Wartość będzie mieć wartość null, jeśli zadanie dostrajania jest nadal uruchomione. Tak
hiperparametry obiekt Hiperparametry używane do zadania dostrajania. Ta wartość zostanie zwrócona tylko podczas uruchamiania supervised zadań. Tak
└batch_size wyliczenie
Możliwe wartości: auto
Nie.
└learning_rate_multiplier wyliczenie
Możliwe wartości: auto
Nie.
└n_epochs wyliczenie
Możliwe wartości: auto
Nie.
identyfikator ciąg Identyfikator obiektu, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
Integracje macierz Lista integracji umożliwiających wykonanie tego zadania dostrajania. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
metoda OpenAI.FineTuneMethod Metoda używana do dostrajania. Nie.
model ciąg Model podstawowy, który jest dostrojony. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "fine_tuning.job".
Możliwe wartości: fine_tuning.job
Tak
organization_id ciąg Organizacja, która jest właścicielem zadania dostrajania. Tak
pliki_wynikowe macierz Skompilowane identyfikatory plików wyników dla zadania dostrajania. Wyniki można pobrać za pomocą interfejsu API plików. Tak
seed liczba całkowita Nasiono używane do działania dostrajania. Tak
stan wyliczenie Bieżący stan zadania dostrajania, które może mieć validating_fileswartość , , queued, running, succeeded, failedlub cancelled.
Możliwe wartości: validating_files, , queuedrunning, succeeded, , failedcancelled
Tak
tokeny szkoleniowe liczba całkowita Łączna liczba rozliczanych tokenów przetworzonych przez to zadanie dostrajania. Wartość będzie mieć wartość null, jeśli zadanie dostrajania jest nadal uruchomione. Tak
plik szkoleniowy ciąg Identyfikator pliku używany do trenowania. Dane szkoleniowe można pobrać za pomocą interfejsu API plików. Tak
user_provided_suffix ciąg Sufiks opisowy zastosowany do zadania, jak określono w żądaniu tworzenia zadania. Nie.
plik walidacji ciąg Identyfikator pliku używany do walidacji. Wyniki weryfikacji można pobrać za pomocą interfejsu API plików. Tak

OpenAI.FineTuningJobCheckpoint

Obiekt fine_tuning.job.checkpoint reprezentuje punkt kontrolny modelu dla zadania dostrajania, które jest gotowe do użycia.

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia punktu kontrolnego. Tak
punkt kontrolny modelu dostrojonego ciąg Nazwa utworzonego modelu punktów kontrolnych. Tak
identyfikator_zadania_dostrajania ciąg Nazwa zadania dostrajania, na podstawie którego utworzono ten punkt kontrolny. Tak
identyfikator ciąg Identyfikator punktu kontrolnego, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
metryki obiekt Metryki w numerze kroku podczas zadania dostrajania. Tak
└full_valid_loss Liczba Nie.
└full_valid_mean_token_accuracy Liczba Nie.
Krok └* Liczba Nie.
└train_loss Liczba Nie.
└train_mean_token_accuracy Liczba Nie.
└valid_loss Liczba Nie.
└valid_mean_token_accuracy Liczba Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze "fine_tuning.job.checkpoint".
Możliwe wartości: fine_tuning.job.checkpoint
Tak
numer_kroku liczba całkowita Numer kroku, na który został utworzony punkt kontrolny. Tak

OpenAI.FineTuningJobEvent

Obiekt zdarzenia zadania dostrajania

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia zadania dostrajania. Tak
dane Dane skojarzone ze zdarzeniem. Nie.
identyfikator ciąg Identyfikator obiektu. Tak
poziom wyliczenie Poziom dziennika zdarzenia.
Możliwe wartości: info, , warnerror
Tak
komunikat ciąg Komunikat zdarzenia. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "fine_tuning.job.event".
Możliwe wartości: fine_tuning.job.event
Tak
typ wyliczenie Typ zdarzenia.
Możliwe wartości: message, metrics
Nie.

OpenAI.FunctionObject

Name Typ Opis Wymagane Default
opis ciąg Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. Nie.
nazwa ciąg Nazwa funkcji do wywołania. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. Tak
parametry Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Nie.
surowy typ logiczny (boolowski) Czy włączyć ścisłe przestrzeganie schematu podczas generowania wywołania funkcji. Jeśli ustawiono wartość true, model będzie postępować zgodnie z dokładnym schematem zdefiniowanym parameters w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true. Nie. Nieprawda

OpenAI.FunctionTool

Definiuje funkcję w swoim kodzie, którą model może wywołać.

Name Typ Opis Wymagane Default
opis ciąg Opis funkcji. Używany przez model do określania, czy wywołać funkcję. Nie.
nazwa ciąg Nazwa funkcji do wywołania. Tak
parametry Obiekt schematu JSON opisujący parametry funkcji. Tak
surowy typ logiczny (boolowski) Czy wymusić ścisłą walidację parametrów. Wartość domyślna true. Tak
typ wyliczenie Typ narzędzia funkcji. Zawsze function.
Możliwe wartości: function
Tak

OpenAI.FunctionToolCallItemParam

Wywołanie narzędzia w celu uruchomienia funkcji.

Name Typ Opis Wymagane Default
Argumenty ciąg Łańcuch JSON zawierający argumenty do przekazania do funkcji. Tak
call_id ciąg Unikalny identyfikator wywołania funkcji narzędzia wygenerowany przez model. Tak
nazwa ciąg Nazwa funkcji do uruchomienia. Tak
typ wyliczenie
Możliwe wartości: function_call
Tak

OpenAI.FunctionToolCallItemResource

Wywołanie narzędzia w celu uruchomienia funkcji.

Name Typ Opis Wymagane Default
Argumenty ciąg Łańcuch JSON zawierający argumenty do przekazania do funkcji. Tak
call_id ciąg Unikalny identyfikator wywołania funkcji narzędzia wygenerowany przez model. Tak
nazwa ciąg Nazwa funkcji do uruchomienia. Tak
stan wyliczenie Stan elementu. in_progressJeden z , completedlub incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: function_call
Tak

OpenAI.FunctionToolCallOutputItemParam

Dane wyjściowe wywołania narzędzia funkcji.

Name Typ Opis Wymagane Default
call_id ciąg Unikalny identyfikator wywołania funkcji narzędzia wygenerowany przez model. Tak
We/Wy ciąg Ciąg JSON zawierający dane wyjściowe z wywołania narzędzia funkcji. Tak
typ wyliczenie
Możliwe wartości: function_call_output
Tak

OpenAI.FunctionToolCallOutputItemResource

Dane wyjściowe wywołania narzędzia funkcji.

Name Typ Opis Wymagane Default
call_id ciąg Unikalny identyfikator wywołania funkcji narzędzia wygenerowany przez model. Tak
We/Wy ciąg Ciąg JSON zawierający dane wyjściowe z wywołania narzędzia funkcji. Tak
stan wyliczenie Stan elementu. in_progressJeden z , completedlub incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: function_call_output
Tak

OpenAI.Grader

Dyskryminujący program OpenAI.Grader

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
label_model OpenAI.GraderLabelModel
text_similarity OpenAI.GraderTextSimilarity
python OpenAI.GraderPython
score_model OpenAI.GraderScoreModel
multi OpenAI.GraderMulti
Name Typ Opis Wymagane Default
typ OpenAI.GraderType Tak

OpenAI.GraderLabelModel

Obiekt LabelModelGrader, który używa modelu do przypisywania etykiet do każdego elementu w ocenie.

Name Typ Opis Wymagane Default
dane wejściowe macierz Tak
labels macierz Etykiety do przypisania do każdego elementu w ocenie. Tak
model ciąg Model do użycia do oceny. Musi obsługiwać dane wyjściowe ze strukturą. Tak
nazwa ciąg Nazwa oceniającego. Tak
przechodzące_etykiety macierz Etykiety wskazujące wynik pozytywny. Musi być podzbiorem etykiet. Tak
typ wyliczenie Typ obiektu, który jest zawsze label_model.
Możliwe wartości: label_model
Tak

OpenAI.GraderMulti

Obiekt MultiGrader łączy dane wyjściowe wielu klasykatorów w celu utworzenia pojedynczego wyniku.

Name Typ Opis Wymagane Default
calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Tak
Równiarki obiekt Tak
nazwa ciąg Nazwa oceniającego. Tak
typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Tak

OpenAI.GraderPython

Obiekt PythonGrader, który uruchamia skrypt języka Python na danych wejściowych.

Name Typ Opis Wymagane Default
image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
nazwa ciąg Nazwa oceniającego. Tak
przesłać źródło ciąg Kod źródłowy skryptu języka Python. Tak
typ wyliczenie Typ obiektu, który jest zawsze python.
Możliwe wartości: python
Tak

OpenAI.GraderScoreModel

Obiekt ScoreModelGrader, który używa modelu do przypisania wyniku do danych wejściowych.

Name Typ Opis Wymagane Default
dane wejściowe macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
model ciąg Model do użycia do oceny. Tak
nazwa ciąg Nazwa oceniającego. Tak
zakres macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
parametry_próbowania Parametry próbkowania dla modelu. Nie.
typ wyliczenie Typ obiektu, który jest zawsze score_model.
Możliwe wartości: score_model
Tak

OpenAI.GraderStringCheck

Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji.

Name Typ Opis Wymagane Default
dane wejściowe ciąg Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
nazwa ciąg Nazwa oceniającego. Tak
operacja wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Tak
odwołanie ciąg Tekst odwołania. Może to obejmować ciągi szablonu. Tak
typ wyliczenie Typ obiektu, który jest zawsze string_check.
Możliwe wartości: string_check
Tak

OpenAI.GraderTextSimilarity

Obiekt TextSimilarityGrader, który klasyfikuje tekst na podstawie metryk podobieństwa.

Name Typ Opis Wymagane Default
miara oceny wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Tak
dane wejściowe ciąg Tekst jest oceniany. Tak
nazwa ciąg Nazwa oceniającego. Tak
odwołanie ciąg Tekst oceniany względem. Tak
typ wyliczenie Typ klasyra.
Możliwe wartości: text_similarity
Tak

OpenAI.GraderType

Majątek Wartość
Typ ciąg
Wartości string_check
text_similarity
score_model
label_model
python
multi

OpenAI.ImageGenTool

Narzędzie, które generuje obrazy przy użyciu modelu, takiego jak gpt-image-1.5.

Name Typ Opis Wymagane Default
tło wyliczenie Typ tła wygenerowanego obrazu. transparentJeden z , opaquelub auto. Wartość domyślna: auto.
Możliwe wartości: transparent, , opaqueauto
Nie.
maska_wprowadzania_obrazu obiekt Opcjonalna maska do inpaintingu. Zawiera image_url (ciąg, opcjonalny) i file_id (ciąg, opcjonalny). Nie.
└ file_id ciąg Identyfikator pliku dla obrazu maski. Nie.
└image_url ciąg Obraz maski zakodowanej w formacie Base64. Nie.
model wyliczenie Model generowania obrazów do użycia. Wartość domyślna: gpt-image-1.
Możliwe wartości: gpt-image-1, gpt-image-1.5
Nie.
moderation wyliczenie Poziom moderowania wygenerowanego obrazu. Wartość domyślna: auto.
Możliwe wartości: auto, low
Nie.
kompresja wyjściowa liczba całkowita Poziom kompresji obrazu wyjściowego. Wartość domyślna: 100. Nie. 100
format_wyjściowy wyliczenie Format danych wyjściowych wygenerowanego obrazu. pngJeden z , webplub jpeg. Wartość domyślna: png.
Możliwe wartości: png, , webpjpeg
Nie.
częściowe_obrazy liczba całkowita Liczba częściowych obrazów do wygenerowania w trybie przesyłania strumieniowego z zakresu od 0 (wartość domyślna) do 3. Nie. 0
jakość wyliczenie Jakość wygenerowanego obrazu. lowJeden z , medium, highlub auto. Wartość domyślna: auto.
Możliwe wartości: low, , medium, highauto
Nie.
rozmiar wyliczenie Rozmiar wygenerowanego obrazu. 1024x1024Jeden z , 1024x1536, 1536x1024lub auto. Wartość domyślna: auto.
Możliwe wartości: 1024x1024, , 1024x1536, 1536x1024auto
Nie.
typ wyliczenie Typ narzędzia do generowania obrazów. Zawsze image_generation.
Możliwe wartości: image_generation
Tak

OpenAI.ImageGenToolCallItemParam

Żądanie generowania obrazu wykonane przez model.

Name Typ Opis Wymagane Default
wynik ciąg Wygenerowany obraz zakodowany w formacie base64. Tak
typ wyliczenie
Możliwe wartości: image_generation_call
Tak

OpenAI.ImageGenToolCallItemResource

Żądanie generowania obrazu wykonane przez model.

Name Typ Opis Wymagane Default
wynik ciąg Wygenerowany obraz zakodowany w formacie base64. Tak
stan wyliczenie
Możliwe wartości: in_progress, , completed, generatingfailed
Tak
typ wyliczenie
Możliwe wartości: image_generation_call
Tak

OpenAI.ImplicitUserMessage

Name Typ Opis Wymagane Default
zawartość ciąg lub tablica Tak

OpenAI.Includable

Określ dodatkowe dane wyjściowe do uwzględnienia w odpowiedzi modelu. Obecnie obsługiwane wartości to:

  • code_interpreter_call.outputs: zawiera dane wyjściowe wykonywania kodu języka Python w elementach wywołania narzędzia interpretera kodu.
  • computer_call_output.output.image_url: dołącz adresy URL obrazów z wyniku wywołania komputera.
  • file_search_call.results: uwzględnij wyniki operacji narzędzia do wyszukiwania plików.
  • message.input_image.image_url: dołącz adresy URL obrazów z komunikatu wejściowego.
  • message.output_text.logprobs: dołączanie logprobs z komunikatami asystenta.
  • reasoning.encrypted_content: zawiera zaszyfrowaną wersję tokenów rozumowania w danych wyjściowych elementu rozumowania. Dzięki temu elementy rozumowania mogą być używane w wielowariantowych rozmowach podczas bezstanowego korzystania z interfejsu API odpowiedzi (na przykład gdy store parametr jest ustawiony na false, lub gdy organizacja jest zarejestrowana w programie zerowego przechowywania danych).
Majątek Wartość
Opis Określ dodatkowe dane wyjściowe do uwzględnienia w odpowiedzi modelu. Obecnie obsługiwane wartości to:
- code_interpreter_call.outputs: Obejmuje dane wyjściowe z wykonywania kodu Python w elementach wywołania narzędzia do interpretacji kodu.
- computer_call_output.output.image_url: dołącz adresy URL obrazów z wyników procesu komputerowego.
- file_search_call.results: Dołącz wyniki wyszukiwania uzyskane z wezwania narzędzia do wyszukiwania plików.
- message.input_image.image_url: dołącz adresy URL obrazów z komunikatu wejściowego.
- message.output_text.logprobs: dołączanie logprobs z komunikatami asystenta.
- reasoning.encrypted_content: zawiera zaszyfrowaną wersję tokenów rozumowania w danych wyjściowych elementu rozumowania. Dzięki temu elementy rozumowania mogą być używane w wielowariantowych rozmowach podczas bezstanowego korzystania z interfejsu API odpowiedzi (na przykład gdy store parametr jest ustawiony na false, lub gdy organizacja jest zarejestrowana w programie zerowego przechowywania danych).
Typ ciąg
Wartości code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content

OpenAI.ItemContent

Dyskryminujący element OpenAI.ItemContent

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Name Typ Opis Wymagane Default
typ OpenAI.ItemContentType Zawartość danych wejściowych i wyjściowych wielomodalnych. Tak

OpenAI.ItemContentInputAudio

Dane audio jako wejście do modelu.

Name Typ Opis Wymagane Default
dane ciąg Dane audio zakodowane w formacie Base64. Tak
format wyliczenie Format danych audio. Obecnie obsługiwane formaty to mp3 i wav.
Możliwe wartości: mp3, wav
Tak
typ wyliczenie Typ elementu wejściowego. Zawsze input_audio.
Możliwe wartości: input_audio
Tak

OpenAI.ItemContentInputFile

Plik wejściowy do modelu.

Name Typ Opis Wymagane Default
file_data ciąg Zawartość pliku, który ma zostać wysłany do modelu. Nie.
identyfikator_pliku ciąg Identyfikator pliku, który ma zostać wysłany do modelu. Nie.
filename ciąg Nazwa pliku, który ma zostać wysłany do modelu. Nie.
typ wyliczenie Typ elementu wejściowego. Zawsze input_file.
Możliwe wartości: input_file
Tak

OpenAI.ItemContentInputImage

Dane wejściowe obrazu do modelu.

Name Typ Opis Wymagane Default
detail wyliczenie Poziom szczegółowości obrazu, który ma zostać wysłany do modelu. highJeden z , lowlub auto. Wartość domyślna to auto.
Możliwe wartości: low, , highauto
Nie.
identyfikator_pliku ciąg Identyfikator pliku, który ma zostać wysłany do modelu. Nie.
image_url ciąg Adres URL obrazu, który ma zostać wysłany do modelu. W pełni kwalifikowany adres URL lub obraz zakodowany w formacie base64 w adresie URL danych. Nie.
typ wyliczenie Typ elementu wejściowego. Zawsze input_image.
Możliwe wartości: input_image
Tak

OpenAI.ItemContentInputText

Wprowadzanie tekstu do modelu.

Name Typ Opis Wymagane Default
SMS ciąg Wprowadzanie tekstu do modelu. Tak
typ wyliczenie Typ elementu wejściowego. Zawsze input_text.
Możliwe wartości: input_text
Tak

OpenAI.ItemContentOutputAudio

Sygnał wyjściowy audio z modelu.

Name Typ Opis Wymagane Default
dane ciąg Dane audio zakodowane w formacie Base64 z modelu. Tak
transkrypcja ciąg Transkrypcja danych audio z modelu. Tak
typ wyliczenie Typ dźwięku wyjściowego. Zawsze output_audio.
Możliwe wartości: output_audio
Tak

OpenAI.ItemContentOutputText

Dane wyjściowe tekstowe z modelu.

Name Typ Opis Wymagane Default
Adnotacje macierz Adnotacje tekstu wyjściowego. Tak
logprobs macierz Nie.
SMS ciąg Dane wyjściowe tekstu z modelu. Tak
typ wyliczenie Typ tekstu wyjściowego. Zawsze output_text.
Możliwe wartości: output_text
Tak

OpenAI.ItemContentRefusal

Odmowa ze strony modelu.

Name Typ Opis Wymagane Default
refusal ciąg Wyjaśnienie odmowy z modelu. Tak
typ wyliczenie Rodzaj odmowy. Zawsze refusal.
Możliwe wartości: refusal
Tak

OpenAI.ItemContentType

Zawartość danych wejściowych i wyjściowych wielomodalnych.

Majątek Wartość
Opis Zawartość danych wejściowych i wyjściowych wielomodalnych.
Typ ciąg
Wartości input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Element zawartości używany do generowania odpowiedzi.

Dyskryminator dla OpenAI.ItemParam

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
message OpenAI.ResponsesMessageItemParam
Name Typ Opis Wymagane Default
typ OpenAI.ItemType Tak

OpenAI.ItemReferenceItemParam

Wewnętrzny identyfikator elementu do celów odniesienia.

Name Typ Opis Wymagane Default
identyfikator ciąg Identyfikator pochodzący z usługi wcześniej wygenerowanego elementu odpowiedzi, do którego się odnosi. Tak
typ wyliczenie
Możliwe wartości: item_reference
Tak

OpenAI.ItemResource

Element zawartości używany do generowania odpowiedzi.

Dyskryminujący element OpenAI.ItemResource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
mcp_call OpenAI.MCPCallItemResource
message OpenAI.ResponsesMessageItemResource
Name Typ Opis Wymagane Default
identyfikator ciąg Tak
typ OpenAI.ItemType Tak

OpenAI.ItemType

Majątek Wartość
Typ ciąg
Wartości message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ListFineTuningJobCheckpointsResponse

Name Typ Opis Wymagane Default
dane macierz Tak
first_id ciąg Nie.
zawiera_więcej typ logiczny (boolowski) Tak
last_id ciąg Nie.
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListFineTuningJobEventsResponse

Name Typ Opis Wymagane Default
dane macierz Tak
zawiera_więcej typ logiczny (boolowski) Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListModelsResponse

Name Typ Opis Wymagane Default
dane macierz Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListPaginatedFineTuningJobsResponse

Name Typ Opis Wymagane Default
dane macierz Tak
zawiera_więcej typ logiczny (boolowski) Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListVectorStoreFilesFilter

Majątek Wartość
Typ ciąg
Wartości in_progress
completed
failed
cancelled

OpenAI.ListVectorStoreFilesResponse

Name Typ Opis Wymagane Default
dane macierz Tak
first_id ciąg Tak
zawiera_więcej typ logiczny (boolowski) Tak
last_id ciąg Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListVectorStoresResponse

Name Typ Opis Wymagane Default
dane macierz Tak
first_id ciąg Tak
zawiera_więcej typ logiczny (boolowski) Tak
last_id ciąg Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.LocalShellExecAction

Wykonaj polecenie powłoki na serwerze.

Name Typ Opis Wymagane Default
polecenie macierz Polecenie do uruchomienia. Tak
środowisko obiekt Zmienne środowiskowe do ustawienia dla polecenia . Tak
limit_czasu_ms liczba całkowita Opcjonalny limit czasu w milisekundach dla polecenia. Nie.
typ wyliczenie Typ akcji powłoki lokalnej. Zawsze exec.
Możliwe wartości: exec
Tak
użytkownik ciąg Opcjonalny użytkownik, aby uruchomić polecenie jako. Nie.
working_directory ciąg Opcjonalny katalog roboczy do uruchomienia polecenia w programie . Nie.

OpenAI.LocalShellTool

Narzędzie, które umożliwia modelowi wykonywanie poleceń powłoki w środowisku lokalnym.

Name Typ Opis Wymagane Default
typ wyliczenie Typ lokalnego narzędzia powłoki. Zawsze local_shell.
Możliwe wartości: local_shell
Tak

OpenAI.LocalShellToolCallItemParam

Wywołanie narzędzia w celu uruchomienia polecenia w lokalnej powłoce.

Name Typ Opis Wymagane Default
akcja OpenAI.LocalShellExecAction Wykonaj polecenie powłoki na serwerze. Tak
call_id ciąg Unikatowy identyfikator wywołania lokalnego narzędzia powłoki wygenerowanego przez model. Tak
typ wyliczenie
Możliwe wartości: local_shell_call
Tak

OpenAI.LocalShellToolCallItemResource

Wywołanie narzędzia w celu uruchomienia polecenia w lokalnej powłoce.

Name Typ Opis Wymagane Default
akcja OpenAI.LocalShellExecAction Wykonaj polecenie powłoki na serwerze. Tak
call_id ciąg Unikatowy identyfikator wywołania lokalnego narzędzia powłoki wygenerowanego przez model. Tak
stan wyliczenie
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: local_shell_call
Tak

OpenAI.LocalShellToolCallOutputItemParam

Dane wyjściowe lokalnego wywołania narzędzia powłoki.

Name Typ Opis Wymagane Default
We/Wy ciąg Ciąg JSON danych wyjściowych wywołania lokalnego narzędzia powłoki. Tak
typ wyliczenie
Możliwe wartości: local_shell_call_output
Tak

OpenAI.LocalShellToolCallOutputItemResource

Dane wyjściowe lokalnego wywołania narzędzia powłoki.

Name Typ Opis Wymagane Default
We/Wy ciąg Ciąg JSON danych wyjściowych wywołania lokalnego narzędzia powłoki. Tak
stan wyliczenie
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: local_shell_call_output
Tak

OpenAI.Location

Dyskryminator dla OpenAI.Location

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
approximate OpenAI.ApproximateLocation
Name Typ Opis Wymagane Default
typ OpenAI.LocationType Tak

OpenAI.TypLokalizacji

Majątek Wartość
Typ ciąg
Wartości approximate

OpenAI.LogProb

Prawdopodobieństwo dziennika tokenu.

Name Typ Opis Wymagane Default
bytes macierz Tak
logprob Liczba Tak
kod przedpłaty ciąg Tak
top_logprobs macierz Tak

OpenAI.MCPApprovalRequestItemParam

Wniosek o zatwierdzenie przez człowieka wywołania narzędzia.

Name Typ Opis Wymagane Default
Argumenty ciąg Ciąg JSON argumentów dla narzędzia. Tak
nazwa ciąg Nazwa narzędzia do uruchomienia. Tak
etykieta_serwera ciąg Etykieta serwera MCP wysyłającego żądanie. Tak
typ wyliczenie
Możliwe wartości: mcp_approval_request
Tak

OpenAI.MCPApprovalRequestItemResource

Wniosek o zatwierdzenie przez człowieka wywołania narzędzia.

Name Typ Opis Wymagane Default
Argumenty ciąg Ciąg JSON argumentów dla narzędzia. Tak
nazwa ciąg Nazwa narzędzia do uruchomienia. Tak
etykieta_serwera ciąg Etykieta serwera MCP wysyłającego żądanie. Tak
typ wyliczenie
Możliwe wartości: mcp_approval_request
Tak

OpenAI.MCPApprovalResponseItemParam

Odpowiedź na żądanie zatwierdzenia MCP.

Name Typ Opis Wymagane Default
approval_request_id ciąg Identyfikator odpowiedzi na żądanie zatwierdzenia. Tak
approve typ logiczny (boolowski) Czy żądanie zostało zatwierdzone. Tak
powód ciąg Opcjonalna przyczyna decyzji. Nie.
typ wyliczenie
Możliwe wartości: mcp_approval_response
Tak

OpenAI.MCPApprovalResponseItemResource

Odpowiedź na żądanie zatwierdzenia MCP.

Name Typ Opis Wymagane Default
approval_request_id ciąg Identyfikator odpowiedzi na żądanie zatwierdzenia. Tak
approve typ logiczny (boolowski) Czy żądanie zostało zatwierdzone. Tak
powód ciąg Opcjonalna przyczyna decyzji. Nie.
typ wyliczenie
Możliwe wartości: mcp_approval_response
Tak

OpenAI.MCPCallItemParam

Wywołanie narzędzia na serwerze MCP.

Name Typ Opis Wymagane Default
Argumenty ciąg Ciąg JSON argumentów przekazanych do narzędzia. Tak
błąd ciąg Błąd wywołania narzędzia, jeśli istnieje. Nie.
nazwa ciąg Nazwa uruchomionego narzędzia. Tak
We/Wy ciąg Dane wyjściowe z wywołania narzędzia. Nie.
etykieta_serwera ciąg Etykieta serwera MCP z uruchomionym narzędziem. Tak
typ wyliczenie
Możliwe wartości: mcp_call
Tak

OpenAI.MCPCallItemResource

Wywołanie narzędzia na serwerze MCP.

Name Typ Opis Wymagane Default
Argumenty ciąg Ciąg JSON argumentów przekazanych do narzędzia. Tak
błąd ciąg Błąd wywołania narzędzia, jeśli istnieje. Nie.
nazwa ciąg Nazwa uruchomionego narzędzia. Tak
We/Wy ciąg Dane wyjściowe z wywołania narzędzia. Nie.
etykieta_serwera ciąg Etykieta serwera MCP z uruchomionym narzędziem. Tak
typ wyliczenie
Możliwe wartości: mcp_call
Tak

OpenAI.MCPListToolsItemParam

Lista narzędzi dostępnych na serwerze MCP.

Name Typ Opis Wymagane Default
błąd ciąg Komunikat o błędzie, jeśli serwer nie może wyświetlić listy narzędzi. Nie.
etykieta_serwera ciąg Etykieta serwera MCP. Tak
narzędzia macierz Narzędzia dostępne na serwerze. Tak
typ wyliczenie
Możliwe wartości: mcp_list_tools
Tak

OpenAI.MCPListToolsItemResource

Lista narzędzi dostępnych na serwerze MCP.

Name Typ Opis Wymagane Default
błąd ciąg Komunikat o błędzie, jeśli serwer nie może wyświetlić listy narzędzi. Nie.
etykieta_serwera ciąg Etykieta serwera MCP. Tak
narzędzia macierz Narzędzia dostępne na serwerze. Tak
typ wyliczenie
Możliwe wartości: mcp_list_tools
Tak

OpenAI.MCPListToolsTool

Narzędzie dostępne na serwerze MCP.

Name Typ Opis Wymagane Default
Adnotacje Dodatkowe adnotacje dotyczące narzędzia. Nie.
opis ciąg Opis narzędzia. Nie.
input_schema Schemat JSON opisujący dane wejściowe narzędzia. Tak
nazwa ciąg Nazwa narzędzia. Tak

OpenAI.MCPTool

Nadaj modelowi access dodatkowym narzędziom za pośrednictwem zdalnych serwerów protokołu MCP (Model Context Protocol).

Name Typ Opis Wymagane Default
dozwolone_narzędzia obiekt Nie.
└─ nazwy_narzędzi macierz Lista dozwolonych nazw narzędzi. Nie.
headers obiekt Opcjonalne nagłówki HTTP do wysyłania do serwera MCP. Służy do uwierzytelniania lub innych celów. Nie.
wymaga_akceptacji object (zobacz prawidłowe modele poniżej) Określ, które narzędzia serwera MCP wymagają zatwierdzenia. Nie.
etykieta_serwera ciąg Etykieta dla tego serwera MCP używana do identyfikowania go w wywołaniach narzędzi. Tak
adres_serwera ciąg Adres URL serwera MCP. Tak
typ wyliczenie Typ narzędzia MCP. Zawsze mcp.
Możliwe wartości: mcp
Tak

OpenAI.MetadataPropertyForRequest

Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.

Name Typ Opis Wymagane Default
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.

OpenAI.Model

Opisuje ofertę modelu OpenAI, która może być używana z interfejsem API.

Name Typ Opis Wymagane Default
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) podczas tworzenia modelu. Tak
identyfikator ciąg Identyfikator modelu, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "modelem".
Możliwe wartości: model
Tak
owned_by ciąg Organizacja, która jest właścicielem modelu. Tak

OpenAI.OtherChunkingStrategyResponseParam

Jest to zwracane, gdy strategia fragmentowania jest nieznana. Zazwyczaj jest to spowodowane tym, że plik został zaindeksowany przed wprowadzeniem chunking_strategy koncepcji w interfejsie API.

Name Typ Opis Wymagane Default
typ wyliczenie Zawsze other.
Możliwe wartości: other
Tak

OpenAI.ParallelToolCalls

Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia.

Typ: wartość logiczna

OpenAI.Prompt

Odwołanie do szablonu monitu i jego zmiennych.

Name Typ Opis Wymagane Default
identyfikator ciąg Unikatowy identyfikator szablonu monitu do użycia. Tak
zmienne obiekt Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w wierszu polecenia. Wartości podstawienia mogą być ciągami lub innymi typami wejściowymi odpowiedzi, takimi jak obrazy lub pliki. Nie.
wersja ciąg Opcjonalna wersja szablonu monitu. Nie.

OpenAI.RankingOptions

Name Typ Opis Wymagane Default
klasyfikator wyliczenie Klasyfikator używany do wyszukiwania plików.
Możliwe wartości: auto, default-2024-11-15
Nie.
próg punktowy Liczba Próg oceny dla wyszukiwania plików, liczba z zakresu od 0 do 1. Liczby bliżej 1 będą próbować zwracać tylko najbardziej odpowiednie wyniki, ale mogą zwracać mniej wyników. Nie.

OpenAI.Reasoning

Tylko modele serii o

Name Typ Opis Wymagane Default
nakład pracy obiekt Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Nie.
generate_summary wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
podsumowanie wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.

OpenAI.ReasoningEffort

Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania. Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.

Majątek Wartość
Opis Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Typ ciąg
Wartości low
medium
high

OpenAI.ReasoningItemParam

Opis łańcucha myśli używanego przez model rozumowania podczas generowania odpowiedzi. Pamiętaj, aby uwzględnić te elementy w API Odpowiedzi input podczas kolejnych tur rozmowy, jeśli zarządzasz kontekstem ręcznie.

Name Typ Opis Wymagane Default
encrypted_content ciąg Zaszyfrowana zawartość elementu rozumowania — wypełniana podczas generowania odpowiedzi za pomocą reasoning.encrypted_content w parametrze include . Nie.
podsumowanie macierz Analiza zawartości tekstu. Tak
typ wyliczenie
Możliwe wartości: reasoning
Tak

OpenAI.ReasoningItemResource

Opis łańcucha myśli używanego przez model rozumowania podczas generowania odpowiedzi. Pamiętaj, aby uwzględnić te elementy w API Odpowiedzi input podczas kolejnych tur rozmowy, jeśli zarządzasz kontekstem ręcznie.

Name Typ Opis Wymagane Default
encrypted_content ciąg Zaszyfrowana zawartość elementu rozumowania — wypełniana podczas generowania odpowiedzi za pomocą reasoning.encrypted_content w parametrze include . Nie.
podsumowanie macierz Analiza zawartości tekstu. Tak
typ wyliczenie
Możliwe wartości: reasoning
Tak

OpenAI.ReasoningItemSummaryPart

Klasyfikator OpenAI.ReasoningItemSummaryPart

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
summary_text OpenAI.ReasoningItemSummaryTextPart
Name Typ Opis Wymagane Default
typ OpenAI.ReasoningItemSummaryPartType Tak

OpenAI.ReasoningItemSummaryPartType

Majątek Wartość
Typ ciąg
Wartości summary_text

OpenAI.ReasoningItemSummaryTextPart

Name Typ Opis Wymagane Default
SMS ciąg Tak
typ wyliczenie
Możliwe wartości: summary_text
Tak

OpenAI.Response

Name Typ Opis Wymagane Default
tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Tak
błąd obiekt Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Tak
└─ kod OpenAI.ResponseErrorCode Kod błędu odpowiedzi. Nie.
└─ Komunikat ciąg Czytelny dla człowieka opis błędu. Nie.
identyfikator ciąg Unikatowy identyfikator tej odpowiedzi. Tak
incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Tak
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
instructions ciąg lub tablica Tak
max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na response.
Możliwe wartości: response
Tak
We/Wy macierz Tablica elementów zawartości wygenerowanych przez model.

— Długość i kolejność elementów w output tablicy zależy od odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w output tablicy i zakładając, że jest to komunikat z zawartością wygenerowaną assistant przez model, możesz rozważyć użycie output_text właściwości, która jest obsługiwana w zestawach SDK.
Tak
output_text ciąg Właściwość przeznaczona tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu ze wszystkich elementów w tablicy output_text, jeśli takowe istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
wywołania_narzędzia_równoległe typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Tak Prawda
previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
monit obiekt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└─ ID ciąg Unikatowy identyfikator szablonu monitu do użycia. Nie.
Zmienne └* OpenAI.ResponsePromptVariables Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w wierszu polecenia. Wartości podstawienia mogą być ciągami lub innymi typami wejściowymi odpowiedzi, takimi jak obrazy lub pliki. Nie.
└* wersja ciąg Opcjonalna wersja szablonu monitu. Nie.
reasoning obiekt Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
└─ wysiłek OpenAI.ReasoningEffort Tylko modele serii o

Ogranicza nakład pracy na rozumowanie modeli rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.
Nie.
└─ generuj_podsumowanie wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
└─ Podsumowanie wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
stan wyliczenie Stan generowania odpowiedzi. Jeden z completed, failed, in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Tak
SMS obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
tool_choice obiekt Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Nie.
└typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Nie.
narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez platformę OpenAI, które rozszerzają możliwości modelu.
Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Tak
truncation wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów. Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Tak

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Emitowane, gdy fragment kodu jest przesyłany strumieniowo przez interpreter kodu.

Name Typ Opis Wymagane Default
delta ciąg Fragment kodu przesyłany strumieniowo przez interpreter kodu. Tak
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której jest przesyłany strumieniowo kod. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call_code.delta.
Możliwe wartości: response.code_interpreter_call_code.delta
Tak

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Emitowane, gdy fragment kodu jest finalizowany przez interpreter kodu.

Name Typ Opis Wymagane Default
kod ciąg Ostateczny wynik fragmentu kodu generowany przez interpretatora kodu. Tak
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której kod jest sfinalizowany. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call_code.done.
Możliwe wartości: response.code_interpreter_call_code.done
Tak

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Emitowane po zakończeniu wywołania interpretera kodu.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której wykonano wywołanie interpretera kodu. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call.completed.
Możliwe wartości: response.code_interpreter_call.completed
Tak

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Emitowane, gdy trwa wywołanie interpretera kodu.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której trwa wywołanie interpretera kodu. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call.in_progress.
Możliwe wartości: response.code_interpreter_call.in_progress
Tak

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Emitowane, gdy interpreter kodu aktywnie interpretuje fragment kodu.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której interpreter kodu interpretuje kod. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call.interpreting.
Możliwe wartości: response.code_interpreter_call.interpreting
Tak

OpenAI.ResponseCompletedEvent

Emitowane po zakończeniu odpowiedzi modelu.

Name Typ Opis Wymagane Default
odpowiedź obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
└─ utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└niekompletne_szczegóły obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
└─ instrukcje ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania wraz z previous_response_id, instrukcje z poprzedniej odpowiedzi nie będą przenoszone do kolejnej odpowiedzi. Ułatwia proste wymienianie komunikatów systemowych lub komunikatów od deweloperów w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
└─ obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na response.
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

— Długość i kolejność elementów w output tablicy zależy od odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w output tablicy i zakładając, że jest to komunikat z zawartością wygenerowaną assistant przez model, możesz rozważyć użycie output_text właściwości, która jest obsługiwana w zestawach SDK.
Nie.
└output_text ciąg Właściwość przeznaczona tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu ze wszystkich elementów w tablicy output_text, jeśli takowe istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
Zachęta └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└* rozumowanie OpenAI.Reasoning Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. Jeden z completed, failed, in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie.
└* tekst obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
└wybór_narzędzia OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject W jaki sposób model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania odpowiedzi. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia, które może wywołać model. Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez platformę OpenAI, które rozszerzają możliwości modelu.
Nie.
└ top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
└─top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie.
└* skrócenie wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów. Nie.
└─ Użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.completed.
Możliwe wartości: response.completed
Tak

OpenAI.ResponseContentPartAddedEvent

Emitowane po dodaniu nowej części zawartości.

Name Typ Opis Wymagane Default
content_index liczba całkowita Indeks dodanej części zawartości. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego została dodana część zawartości. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego została dodana część zawartości. Tak
część obiekt Tak
└typ OpenAI.ItemContentType Zawartość danych wejściowych i wyjściowych wielomodalnych. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.content_part.added.
Możliwe wartości: response.content_part.added
Tak

OpenAI.ResponseContentPartDoneEvent

Emitowane po zakończeniu części zawartości.

Name Typ Opis Wymagane Default
content_index liczba całkowita Indeks części zawartości, która jest ukończona. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego została dodana część zawartości. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego została dodana część zawartości. Tak
część obiekt Tak
└typ OpenAI.ItemContentType Zawartość danych wejściowych i wyjściowych wielomodalnych. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.content_part.done.
Możliwe wartości: response.content_part.done
Tak

OpenAI.ResponseCreatedEvent

Zdarzenie emitowane podczas tworzenia odpowiedzi.

Name Typ Opis Wymagane Default
odpowiedź obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
└─ utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└niekompletne_szczegóły obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
└─ instrukcje ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania wraz z previous_response_id, instrukcje z poprzedniej odpowiedzi nie będą przenoszone do kolejnej odpowiedzi. Ułatwia proste wymienianie komunikatów systemowych lub komunikatów od deweloperów w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
└─ obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na response.
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

— Długość i kolejność elementów w output tablicy zależy od odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w output tablicy i zakładając, że jest to komunikat z zawartością wygenerowaną assistant przez model, możesz rozważyć użycie output_text właściwości, która jest obsługiwana w zestawach SDK.
Nie.
└output_text ciąg Właściwość przeznaczona tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu ze wszystkich elementów w tablicy output_text, jeśli takowe istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
Zachęta └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└* rozumowanie OpenAI.Reasoning Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie.
└* tekst obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
└wybór_narzędzia OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject W jaki sposób model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania odpowiedzi. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia, które może wywołać model. Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez platformę OpenAI, które rozszerzają możliwości modelu.
Nie.
└ top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
└─top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie.
└* skrócenie wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów. Nie.
└─ Użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.created.
Możliwe wartości: response.created
Tak

OpenAI.ResponseError

Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi.

Name Typ Opis Wymagane Default
kod OpenAI.ResponseErrorCode Kod błędu odpowiedzi. Tak
komunikat ciąg Czytelny dla człowieka opis błędu. Tak

OpenAI.ResponseErrorCode

Kod błędu odpowiedzi.

Majątek Wartość
Opis Kod błędu odpowiedzi.
Typ ciąg
Wartości server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Emitowane w przypadku wystąpienia błędu.

Name Typ Opis Wymagane Default
kod ciąg Kod błędu. Tak
komunikat ciąg Komunikat o błędzie. Tak
param ciąg Parametr błędu. Tak
typ wyliczenie Typ zdarzenia. Zawsze error.
Możliwe wartości: error
Tak

OpenAI.ResponseFailedEvent

Zdarzenie emitowane w przypadku niepowodzenia odpowiedzi.

Name Typ Opis Wymagane Default
odpowiedź obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
└─ utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└niekompletne_szczegóły obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
└─ instrukcje ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania wraz z previous_response_id, instrukcje z poprzedniej odpowiedzi nie będą przenoszone do kolejnej odpowiedzi. Ułatwia proste wymienianie komunikatów systemowych lub komunikatów od deweloperów w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
└─ obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na response.
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

— Długość i kolejność elementów w output tablicy zależy od odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w output tablicy i zakładając, że jest to komunikat z zawartością wygenerowaną assistant przez model, możesz rozważyć użycie output_text właściwości, która jest obsługiwana w zestawach SDK.
Nie.
└output_text ciąg Właściwość przeznaczona tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu ze wszystkich elementów w tablicy output_text, jeśli takowe istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
Zachęta └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└* rozumowanie OpenAI.Reasoning Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. Jeden z completed, failed, in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie.
└* tekst obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
└wybór_narzędzia OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject W jaki sposób model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania odpowiedzi. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia, które może wywołać model. Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia udostępniane przez platformę OpenAI, które rozszerzają możliwości modelu.
Nie.
└ top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
└─top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie.
└* skrócenie wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów. Nie.
└─ Użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.failed.
Możliwe wartości: response.failed
Tak

OpenAI.ResponseFileSearchCallCompletedEvent

Emitowane po zakończeniu wywołania wyszukiwania plików (znaleziono wyniki).

Name Typ Opis Wymagane Default
item_id ciąg Identyfikator elementu wyjściowego, dla którego zainicjowano wywołanie wyszukiwania plików. Tak
output_index liczba całkowita Indeks elementu wyjściowego, dla którego zainicjowano wywołanie wyszukiwania plików. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.file_search_call.completed.
Możliwe wartości: response.file_search_call.completed
Tak

OpenAI.ResponseFileSearchCallInProgressEvent

Emitowane po zainicjowaniu wywołania wyszukiwania plików.

Name Typ Opis Wymagane Default
item_id ciąg Identyfikator elementu wyjściowego, dla którego zainicjowano wywołanie wyszukiwania plików. Tak
output_index liczba całkowita Indeks elementu wyjściowego, dla którego zainicjowano wywołanie wyszukiwania plików. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.file_search_call.in_progress.
Możliwe wartości: response.file_search_call.in_progress
Tak

OpenAI.ResponseFileSearchCallSearchingEvent

Emitowane, gdy wyszukiwanie plików jest obecnie przeszukiwane.

Name Typ Opis Wymagane Default
item_id ciąg Identyfikator elementu wyjściowego, dla którego zainicjowano wywołanie wyszukiwania plików. Tak
output_index liczba całkowita Indeks elementu wyjściowego przeszukiwanego przez wywołanie wyszukiwania plików. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.file_search_call.searching.
Możliwe wartości: response.file_search_call.searching
Tak

OpenAI.ResponseFormat

Dyskryminator dla OpenAI.ResponseFormat

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
text OpenAI.ResponseFormatText
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: text, , json_objectjson_schema
Tak

OpenAI.ResponseFormatJsonObject

Format odpowiedzi obiektu JSON. Starsza metoda generowania odpowiedzi JSON. Użycie json_schema jest zalecane w przypadku modeli, które go obsługują. Należy pamiętać, że model nie wygeneruje kodu JSON bez komunikatu systemowego lub użytkownika informującego o tym, że to do tak.

Name Typ Opis Wymagane Default
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi. Zawsze json_object.
Możliwe wartości: json_object
Tak

OpenAI.ResponseFormatJsonSchema

Format odpowiedzi schematu JSON. Służy do generowania ustrukturyzowanych odpowiedzi JSON.

Name Typ Opis Wymagane Default
json_schema obiekt Opcje konfiguracji danych wyjściowych ze strukturą, w tym schemat JSON. Tak
Opis └* ciąg Opis celu formatu odpowiedzi, który jest używany przez model do określenia, jak odpowiedzieć w tym formacie. Nie.
└─ nazwa ciąg Nazwa formatu odpowiedzi. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. Nie.
Schemat └* OpenAI.ResponseFormatJsonSchemaSchema Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Nie.
└* ścisłe typ logiczny (boolowski) Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych.
W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego schematu zdefiniowanego schema w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true.
Nie. Nieprawda
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi. Zawsze json_schema.
Możliwe wartości: json_schema
Tak

OpenAI.ResponseFormatJsonSchemaSchema

Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON. Dowiedz się, jak tworzyć schematy JSON tutaj.

Typ: obiekt

OpenAI.ResponseFormatText

Domyślny format odpowiedzi. Służy do generowania odpowiedzi tekstowych.

Name Typ Opis Wymagane Default
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi. Zawsze text.
Możliwe wartości: text
Tak

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Emitowane, gdy występuje różnica w argumentach wywołania funkcji częściowej.

Name Typ Opis Wymagane Default
delta ciąg Dodano argument delta w wywołaniu funkcji. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego dodano różnicę argumentów wywołania funkcji. Tak
output_index liczba całkowita Indeks elementu wyjściowego do którego zostanie dodana różnica w argumentach wywołania funkcji. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.function_call_arguments.delta.
Możliwe wartości: response.function_call_arguments.delta
Tak

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Emitowane, gdy argumenty wywołania funkcji są finalizowane.

Name Typ Opis Wymagane Default
Argumenty ciąg Argumenty wywołania funkcji. Tak
item_id ciąg Identyfikator elementu. Tak
output_index liczba całkowita Indeks elementu wyjściowego. Tak
typ wyliczenie
Możliwe wartości: response.function_call_arguments.done
Tak

OpenAI.ResponseImageGenCallCompletedEvent

Emitowane, gdy wywołanie narzędzia do generowania obrazów się zakończyło i dostępny jest końcowy obraz.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator przetwarzanego elementu generowania obrazu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.image_generation_call.completed".
Możliwe wartości: response.image_generation_call.completed
Tak

OpenAI.ResponseImageGenCallGeneratingEvent

Emitowane, gdy wywołanie narzędzia do generowania obrazów aktywnie generuje obraz (stan pośredni).

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator przetwarzanego elementu generowania obrazu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.image_generation_call.generating".
Możliwe wartości: response.image_generation_call.generating
Tak

OpenAI.ResponseImageGenCallInProgressEvent

Emitowane jest, gdy trwa wywołanie narzędzia do generowania obrazów.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator przetwarzanego elementu generowania obrazu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.image_generation_call.in_progress".
Możliwe wartości: response.image_generation_call.in_progress
Tak

OpenAI.ResponseImageGenCallPartialImageEvent

Emitowany sygnał, gdy częściowy obraz staje się dostępny podczas przesyłania strumieniowego generowanych obrazów.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator przetwarzanego elementu generowania obrazu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
partial_image_b64 ciąg Dane częściowe obrazu zakodowane w formacie Base64, odpowiednie do renderowania jako obrazu. Tak
partial_image_index liczba całkowita Indeks zaczynający się od 0 dla obrazu częściowego (w systemie backend indeks zaczyna się od 1, ale dla użytkownika jest to indeks od 0). Tak
typ wyliczenie Typ zdarzenia. Zawsze „response.image_generation_call.partial_image”.
Możliwe wartości: response.image_generation_call.partial_image
Tak

OpenAI.ResponseInProgressEvent

Emitowane, gdy odpowiedź jest w toku.

Name Typ Opis Wymagane Default
odpowiedź obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
└─ utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└niekompletne_szczegóły obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
└─ instrukcje ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania wraz z previous_response_id, instrukcje z poprzedniej odpowiedzi nie będą przenoszone do kolejnej odpowiedzi. Ułatwia proste wymienianie komunikatów systemowych lub komunikatów od deweloperów w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
└─ obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na response.
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

— Długość i kolejność elementów w output tablicy zależy od odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w output tablicy i zakładając, że jest to komunikat z zawartością wygenerowaną assistant przez model, możesz rozważyć użycie output_text właściwości, która jest obsługiwana w zestawach SDK.
Nie.
└output_text ciąg Właściwość przeznaczona tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu ze wszystkich elementów w tablicy output_text, jeśli takowe istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
Zachęta └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└* rozumowanie OpenAI.Reasoning Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. Jeden z completed, failed, in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie.
└* tekst obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
└wybór_narzędzia OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject W jaki sposób model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania odpowiedzi. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia, które może wywołać model. Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez platformę OpenAI, które rozszerzają możliwości modelu.
Nie.
└ top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
└─top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie.
└* skrócenie wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów. Nie.
└─ Użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.in_progress.
Możliwe wartości: response.in_progress
Tak

OpenAI.ResponseIncompleteEvent

Zdarzenie emitowane, gdy odpowiedź jest zakończona jako niekompletna.

Name Typ Opis Wymagane Default
odpowiedź obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
└─ utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└niekompletne_szczegóły obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
└─ instrukcje ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania wraz z previous_response_id, instrukcje z poprzedniej odpowiedzi nie będą przenoszone do kolejnej odpowiedzi. Ułatwia proste wymienianie komunikatów systemowych lub komunikatów od deweloperów w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
└─ obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na response.
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

— Długość i kolejność elementów w output tablicy zależy od odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w output tablicy i zakładając, że jest to komunikat z zawartością wygenerowaną assistant przez model, możesz rozważyć użycie output_text właściwości, która jest obsługiwana w zestawach SDK.
Nie.
└output_text ciąg Właściwość przeznaczona tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu ze wszystkich elementów w tablicy output_text, jeśli takowe istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
Zachęta └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└* rozumowanie OpenAI.Reasoning Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. Jeden z completed, failed, in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie.
└* tekst obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
└wybór_narzędzia OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject W jaki sposób model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania odpowiedzi. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia, które może wywołać model. Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez platformę OpenAI, które rozszerzają możliwości modelu.
Nie.
└ top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
└─top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie.
└* skrócenie wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów. Nie.
└─ Użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.incomplete.
Możliwe wartości: response.incomplete
Tak

OpenAI.ResponseItemList

Lista elementów odpowiedzi.

Name Typ Opis Wymagane Default
dane macierz Lista elementów używanych do wygenerowania tej odpowiedzi. Tak
first_id ciąg Identyfikator pierwszego elementu na liście. Tak
zawiera_więcej typ logiczny (boolowski) Czy dostępnych jest więcej elementów? Tak
last_id ciąg Identyfikator ostatniego elementu na liście. Tak
obiekt wyliczenie Zwracany typ obiektu musi mieć wartość list.
Możliwe wartości: list
Tak

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Emituje się, gdy następuje różnica (częściowa aktualizacja) w argumentach wywołania narzędzia MCP.

Name Typ Opis Wymagane Default
delta Częściowa aktualizacja argumentów wywołania narzędzia MCP. Tak
item_id ciąg Unikatowy identyfikator przetwarzanego elementu wywołania narzędzia MCP. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.arguments_delta".
Możliwe wartości: response.mcp_call.arguments_delta
Tak

OpenAI.ResponseMCPCallArgumentsDoneEvent

Emitowane, gdy argumenty wywołania narzędzia MCP są finalizowane.

Name Typ Opis Wymagane Default
Argumenty Sfinalizowane argumenty wywołania narzędzia MCP. Tak
item_id ciąg Unikatowy identyfikator przetwarzanego elementu wywołania narzędzia MCP. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.arguments_done".
Możliwe wartości: response.mcp_call.arguments_done
Tak

OpenAI.ResponseMCPCallCompletedEvent

Emitowane po pomyślnym zakończeniu wywołania narzędzia MCP.

Name Typ Opis Wymagane Default
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.completed".
Możliwe wartości: response.mcp_call.completed
Tak

OpenAI.ResponseMCPCallFailedEvent

Emitowane, gdy wywołanie narzędzia MCP nie powiodło się.

Name Typ Opis Wymagane Default
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.failed".
Możliwe wartości: response.mcp_call.failed
Tak

OpenAI.ResponseMCPCallInProgressEvent

Emitowane, gdy trwa wywołanie narzędzia MCP.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator przetwarzanego elementu wywołania narzędzia MCP. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.in_progress".
Możliwe wartości: response.mcp_call.in_progress
Tak

OpenAI.ResponseMCPListToolsCompletedEvent

Emitowane po pomyślnym pobraniu listy dostępnych narzędzi MCP.

Name Typ Opis Wymagane Default
typ wyliczenie Typ zdarzenia. Zawsze „response.mcp_list_tools.completed”.
Możliwe wartości: response.mcp_list_tools.completed
Tak

OpenAI.ResponseMCPListToolsFailedEvent

Emitowane, gdy próba wyświetlenia listy dostępnych narzędzi MCP nie powiodła się.

Name Typ Opis Wymagane Default
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_list_tools.failed".
Możliwe wartości: response.mcp_list_tools.failed
Tak

OpenAI.ResponseMCPListToolsInProgressEvent

Emitowane, gdy system jest w trakcie pobierania listy dostępnych narzędzi MCP.

Name Typ Opis Wymagane Default
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_list_tools.in_progress".
Możliwe wartości: response.mcp_list_tools.in_progress
Tak

OpenAI.ResponseOutputItemAddedEvent

Emitowane po dodaniu nowego elementu wyjściowego.

Name Typ Opis Wymagane Default
element obiekt Element zawartości używany do generowania odpowiedzi. Tak
└─ ID ciąg Nie.
└typ OpenAI.ItemType Nie.
output_index liczba całkowita Indeks dodanego elementu wyjściowego. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.output_item.added.
Możliwe wartości: response.output_item.added
Tak

OpenAI.ResponseOutputItemDoneEvent

Emitowane, gdy element wyjściowy jest oznaczony jako zakończony.

Name Typ Opis Wymagane Default
element obiekt Element zawartości używany do generowania odpowiedzi. Tak
└─ ID ciąg Nie.
└typ OpenAI.ItemType Nie.
output_index liczba całkowita Indeks elementu wyjściowego, który został oznaczony jako wykonany. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.output_item.done.
Możliwe wartości: response.output_item.done
Tak

OpenAI.ResponsePromptVariables

Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w wierszu polecenia. Wartości podstawienia mogą być ciągami lub innymi typami wejściowymi odpowiedzi, takimi jak obrazy lub pliki.

Typ: obiekt

OpenAI.ResponseQueuedEvent

Emitowane, gdy odpowiedź czeka w kolejce na przetworzenie.

Name Typ Opis Wymagane Default
odpowiedź obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle. Nie. Nieprawda
└─ utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└niekompletne_szczegóły obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
└─ instrukcje ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania wraz z previous_response_id, instrukcje z poprzedniej odpowiedzi nie będą przenoszone do kolejnej odpowiedzi. Ułatwia proste wymienianie komunikatów systemowych lub komunikatów od deweloperów w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
└─ obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na response.
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

— Długość i kolejność elementów w output tablicy zależy od odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w output tablicy i zakładając, że jest to komunikat z zawartością wygenerowaną assistant przez model, możesz rozważyć użycie output_text właściwości, która jest obsługiwana w zestawach SDK.
Nie.
└output_text ciąg Właściwość przeznaczona tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu ze wszystkich elementów w tablicy output_text, jeśli takowe istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego, aby utworzyć wielokrotne konwersacje. Nie.
Zachęta └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych. Nie.
└* rozumowanie OpenAI.Reasoning Tylko modele serii o

Opcje konfiguracji dla modeli rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. Jeden z completed, failed, in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie.
└* tekst obiekt Opcje konfiguracji generowania odpowiedzi tekstowej przez model. Może to być zwykły tekst lub dane JSON ze strukturą. Nie.
Format └─ OpenAI.ResponseTextFormatConfiguration Nie.
└wybór_narzędzia OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject W jaki sposób model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania odpowiedzi. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia, które może wywołać model. Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Możesz określić, którego narzędzia użyć, ustawiając tool_choice parametr .

Dwie kategorie narzędzi, które można modelowi podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez platformę OpenAI, które rozszerzają możliwości modelu.
Nie.
└ top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. Nie.
└─top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie.
└* skrócenie wyliczenie Strategia obcinania, która ma być użyta dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy rozmiar okna kontekstu modelu, model obcina odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w środku konwersacji.
- disabled (ustawienie domyślne): Jeśli odpowiedź modelu przekroczy rozmiar okna kontekstu dla modelu, żądanie zakończy się niepowodzeniem z powodu błędu 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów. Nie.
└─ Użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze "response.queued".
Możliwe wartości: response.queued
Tak

OpenAI.ResponseReasoningDeltaEvent

Emitowane w przypadku zmiany (częściowej aktualizacji) treści rozumowania.

Name Typ Opis Wymagane Default
content_index liczba całkowita Indeks zawartości części rozumowania w elemencie wyjściowym. Tak
delta Częściowa aktualizacja zawartości rozumowania. Tak
item_id ciąg Unikatowy identyfikator elementu, dla którego jest aktualizowane rozumowanie. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.reasoning.delta".
Możliwe wartości: response.reasoning.delta
Tak

OpenAI.ResponseReasoningDoneEvent

Emitowane, gdy zawartość rozumowania jest finalizowana dla elementu.

Name Typ Opis Wymagane Default
content_index liczba całkowita Indeks zawartości części rozumowania w elemencie wyjściowym. Tak
item_id ciąg Unikatowy identyfikator elementu, dla którego rozumowanie jest finalizowane. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
SMS ciąg Sfinalizowany tekst rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.reasoning.done".
Możliwe wartości: response.reasoning.done
Tak

OpenAI.ResponseReasoningSummaryDeltaEvent

Emitowane w przypadku zmiany (częściowej aktualizacji) w zawartości podsumowania wnioskowania.

Name Typ Opis Wymagane Default
delta Częściowa aktualizacja zawartości podsumowania przyczyn. Tak
item_id ciąg Unikatowy identyfikator elementu, dla którego jest aktualizowane podsumowanie rozumowania. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
summary_index liczba całkowita Indeks części podsumowania w elemencie wyjściowym. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.reasoning_summary.delta".
Możliwe wartości: response.reasoning_summary.delta
Tak

OpenAI.ResponseReasoningSummaryDoneEvent

Emitowane, gdy zawartość podsumowania rozumowania jest finalizowana dla elementu.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator elementu, dla którego podsumowanie rozumowania jest finalizowane. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
summary_index liczba całkowita Indeks części podsumowania w elemencie wyjściowym. Tak
SMS ciąg Sfinalizowany tekst podsumowania rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.reasoning_summary.done".
Możliwe wartości: response.reasoning_summary.done
Tak

OpenAI.ResponseReasoningSummaryPartAddedEvent

Emitowane po dodaniu nowej części podsumowania rozumowania.

Name Typ Opis Wymagane Default
item_id ciąg Identyfikator elementu, z którym ta część podsumowania jest skojarzona. Tak
output_index liczba całkowita Indeks elementu wyjściowego jest skojarzony z tą częścią podsumowania. Tak
część obiekt Tak
└typ OpenAI.ReasoningItemSummaryPartType Nie.
summary_index liczba całkowita Indeks części podsumowania w podsumowaniu rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.reasoning_summary_part.added.
Możliwe wartości: response.reasoning_summary_part.added
Tak

OpenAI.ResponseReasoningSummaryPartDoneEvent

Emitowane po ukończeniu części podsumowującej wnioskowanie.

Name Typ Opis Wymagane Default
item_id ciąg Identyfikator elementu, z którym ta część podsumowania jest skojarzona. Tak
output_index liczba całkowita Indeks elementu wyjściowego jest skojarzony z tą częścią podsumowania. Tak
część obiekt Tak
└typ OpenAI.ReasoningItemSummaryPartType Nie.
summary_index liczba całkowita Indeks części podsumowania w podsumowaniu rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.reasoning_summary_part.done.
Możliwe wartości: response.reasoning_summary_part.done
Tak

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Emitowane po dodaniu zmiany do tekstu podsumowującego rozumowanie.

Name Typ Opis Wymagane Default
delta ciąg Delta tekstu dodana do podsumowania. Tak
item_id ciąg Identyfikator elementu, z który jest skojarzona ta delta tekstu podsumowania. Tak
output_index liczba całkowita Indeks elementu wyjściowego, z którym powiązana jest zmiana tekstu podsumowania. Tak
summary_index liczba całkowita Indeks części podsumowania w podsumowaniu rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.reasoning_summary_text.delta.
Możliwe wartości: response.reasoning_summary_text.delta
Tak

OpenAI.ResponseReasoningSummaryTextDoneEvent

Emitowany po zakończeniu tekstu podsumowania rozumowania.

Name Typ Opis Wymagane Default
item_id ciąg Identyfikator elementu, z którym jest powiązany ten tekst podsumowania. Tak
output_index liczba całkowita Indeks elementu wyjściowego, z którym związany jest ten tekst podsumowania. Tak
summary_index liczba całkowita Indeks części podsumowania w podsumowaniu rozumowania. Tak
SMS ciąg Pełny tekst ukończonego podsumowania rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.reasoning_summary_text.done.
Możliwe wartości: response.reasoning_summary_text.done
Tak

OpenAI.ResponseRefusalDeltaEvent

Emitowane w przypadku częściowego tekstu odmowy.

Name Typ Opis Wymagane Default
content_index liczba całkowita Indeks części zawartości, do którego jest dodawany tekst odmowy. Tak
delta ciąg Tekst odmowy, który został dodany. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego jest dodawany tekst odmowy. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego jest dodawany tekst odmowy. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.refusal.delta.
Możliwe wartości: response.refusal.delta
Tak

OpenAI.ResponseRefusalDoneEvent

Emitowane, gdy tekst odmowy jest sfinalizowany.

Name Typ Opis Wymagane Default
content_index liczba całkowita Indeks części treści, w której tekst odmowy jest sfinalizowany. Tak
item_id ciąg Identyfikator elementu wyjściowego, dla którego tekst odmowy jest finalizowany. Tak
output_index liczba całkowita Indeks elementu wyjściowego, w którym tekst odmowy został sfinalizowany. Tak
refusal ciąg Tekst odmowy, który jest sfinalizowany. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.refusal.done.
Możliwe wartości: response.refusal.done
Tak

OpenAI.ResponseStreamEvent

Dyskryminator dla OpenAI.ResponseStreamEvent

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Name Typ Opis Wymagane Default
sequence_number liczba całkowita Numer sekwencji dla tego zdarzenia. Tak
typ OpenAI.ResponseStreamEventType Tak

OpenAI.ResponseStreamEventType

Majątek Wartość
Typ ciąg
Wartości response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Emitowane w przypadku dodatkowej zmiany tekstu.

Name Typ Opis Wymagane Default
content_index liczba całkowita Indeks części zawartości, do której dodano zmianę tekstową. Tak
delta ciąg Dodano zmianę tekstu. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego dodano różnicę tekstu. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego dodano różnicę tekstu. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.output_text.delta.
Możliwe wartości: response.output_text.delta
Tak

OpenAI.ResponseTextDoneEvent

Emitowane po sfinalizowaniu zawartości tekstowej.

Name Typ Opis Wymagane Default
content_index liczba całkowita Indeks części zawartości, w której treść tekstowa jest sfinalizowana. Tak
item_id ciąg Identyfikator elementu wyjściowego, którego zawartość tekstowa jest finalizowana. Tak
output_index liczba całkowita Indeks elementu wyjściowego, którego treść tekstowa jest sfinalizowana. Tak
SMS ciąg Zawartość tekstowa, która jest sfinalizowana. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.output_text.done.
Możliwe wartości: response.output_text.done
Tak

KonfiguracjaFormatuTekstuOdpowiedzi.OpenAI

Dyskryminowanie pliku OpenAI.ResponseTextFormatConfiguration

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Name Typ Opis Wymagane Default
typ OpenAI.ResponseTextFormatConfigurationType Obiekt określający format, który musi zostać wygenerowany przez model.

Konfigurowanie { "type": "json_schema" } umożliwia korzystanie ze strukturowych danych wyjściowych, co zapewnia, że model będzie zgodny z podanym schematem JSON. Domyślny format to { "type": "text" } bez żadnych dodatkowych opcji.

Niezalecane w przypadku modeli gpt-4o i nowszych:

Włączenie trybu { "type": "json_object" } aktywuje starszy tryb JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON. Użycie json_schema jest preferowane w przypadku modeli, które go obsługują.
Tak

OpenAI.ResponseTextFormatConfigurationJsonObject

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: json_object
Tak

OpenAI.ResponseTextFormatConfigurationJsonSchema (konfiguracja formatu tekstu odpowiedzi OpenAI według schematu JSON)

Format odpowiedzi schematu JSON. Służy do generowania ustrukturyzowanych odpowiedzi JSON.

Name Typ Opis Wymagane Default
opis ciąg Opis celu formatu odpowiedzi, który jest używany przez model do określenia, jak odpowiedzieć w tym formacie. Nie.
nazwa ciąg Nazwa formatu odpowiedzi. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. Tak
schemat OpenAI.ResponseFormatJsonSchemaSchema Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Tak
surowy typ logiczny (boolowski) Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych.
W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego schematu zdefiniowanego schema w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true.
Nie. Nieprawda
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi. Zawsze json_schema.
Możliwe wartości: json_schema
Tak

Konfiguracja formatu tekstu odpowiedzi OpenAI

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: text
Tak

OpenAI.TypKonfiguracjiFormatowaniaTekstu odpowiedzi

Obiekt określający format, który musi zostać wygenerowany przez model.

Konfigurowanie { "type": "json_schema" } umożliwia korzystanie ze strukturowych danych wyjściowych, co zapewnia, że model będzie zgodny z podanym schematem JSON.

Domyślny format to { "type": "text" } bez żadnych dodatkowych opcji.

Niezalecane w przypadku modeli gpt-4o i nowszych:

Włączenie trybu { "type": "json_object" } aktywuje starszy tryb JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON. Użycie json_schema jest preferowane w przypadku modeli, które go obsługują.

Majątek Wartość
Opis Obiekt określający format, który musi zostać wygenerowany przez model.

Konfigurowanie { "type": "json_schema" } umożliwia korzystanie ze strukturowych danych wyjściowych, co zapewnia, że model będzie zgodny z podanym schematem JSON.

Domyślny format to { "type": "text" } bez żadnych dodatkowych opcji.

Niezalecane w przypadku modeli gpt-4o i nowszych:

Włączenie trybu { "type": "json_object" } aktywuje starszy tryb JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON. Użycie json_schemajest preferowane w przypadku modeli, które go obsługują.

OpenAI.ResponseUsage

Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów.

Name Typ Opis Wymagane Default
input_tokens liczba całkowita Liczba tokenów wejściowych. Tak
input_tokens_details obiekt Szczegółowy podział tokenów wejściowych. Tak
└cached_tokens liczba całkowita Liczba tokenów pobranych z pamięci podręcznej. Nie.
output_tokens liczba całkowita Liczba tokenów wyjściowych. Tak
output_tokens_details obiekt Szczegółowy podział tokenów wyjściowych. Tak
└─ tokeny_rozumowania liczba całkowita Liczba tokenów rozumowania. Nie.
total_tokens liczba całkowita Całkowita liczba użytych tokenów. Tak

OpenAI.ResponseWebSearchCallCompletedEvent

Uwaga: web_search nie jest jeszcze dostępna za pośrednictwem Azure OpenAI.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator elementu wyjściowego skojarzonego z wywołaniem wyszukiwania w Internecie. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego jest skojarzone wywołanie wyszukiwania w Internecie. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.web_search_call.completed.
Możliwe wartości: response.web_search_call.completed
Tak

OpenAI.ResponseWebSearchCallInProgressEvent

Uwaga: web_search nie jest jeszcze dostępna za pośrednictwem Azure OpenAI.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator elementu wyjściowego skojarzonego z wywołaniem wyszukiwania w Internecie. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego jest skojarzone wywołanie wyszukiwania w Internecie. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.web_search_call.in_progress.
Możliwe wartości: response.web_search_call.in_progress
Tak

OpenAI.ResponseWebSearchCallSearchingEvent

Uwaga: web_search nie jest jeszcze dostępna za pośrednictwem Azure OpenAI.

Name Typ Opis Wymagane Default
item_id ciąg Unikatowy identyfikator elementu wyjściowego skojarzonego z wywołaniem wyszukiwania w Internecie. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego jest skojarzone wywołanie wyszukiwania w Internecie. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.web_search_call.searching.
Możliwe wartości: response.web_search_call.searching
Tak

OpenAI.ResponsesAssistantMessageItemParam

Element parametru komunikatu z rolą assistant .

Name Typ Opis Wymagane Default
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze assistant.
Możliwe wartości: assistant
Tak

OpenAI.ResponsesAssistantMessageItemResource

Element zasobu komunikatu z rolą assistant .

Name Typ Opis Wymagane Default
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze assistant.
Możliwe wartości: assistant
Tak

OpenAI.ResponsesDeveloperMessageItemParam

Element parametru komunikatu z rolą developer .

Name Typ Opis Wymagane Default
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze developer.
Możliwe wartości: developer
Tak

OpenAI.ResponsesDeveloperMessageItemResource

Element zasobu komunikatu z rolą developer .

Name Typ Opis Wymagane Default
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze developer.
Możliwe wartości: developer
Tak

OpenAI.ResponsesMessageItemParam

Element komunikatu odpowiedzi reprezentujący rolę i zawartość, jak podano jako parametry żądania klienta.

Klasyfikator dla OpenAI.ResponsesMessageItemParam

Ten składnik używa właściwości role do rozróżniania różnych typów:

Wartość typu Schema
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Name Typ Opis Wymagane Default
rola obiekt Kolekcja prawidłowych ról dla elementów komunikatów odpowiedzi. Tak
typ wyliczenie Typ elementu odpowiedzi, który jest zawsze "komunikatem".
Możliwe wartości: message
Tak

OpenAI.ResponsesMessageItemResource

Element zasobu komunikatu odpowiedzi reprezentujący rolę i zawartość podaną w odpowiedziach usługi.

Dyskryminujące dla openAI.ResponsesMessageItemResource

Ten składnik używa właściwości role do rozróżniania różnych typów:

Wartość typu Schema
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Name Typ Opis Wymagane Default
rola obiekt Kolekcja prawidłowych ról dla elementów komunikatów odpowiedzi. Tak
stan wyliczenie Stan elementu. in_progressJeden z , completedlub incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie Typ elementu odpowiedzi, który jest zawsze "komunikatem".
Możliwe wartości: message
Tak

OpenAI.ResponsesMessageRole

Kolekcja prawidłowych ról dla elementów komunikatów odpowiedzi.

Majątek Wartość
Opis Kolekcja prawidłowych ról dla elementów komunikatów odpowiedzi.
Typ ciąg
Wartości system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Element parametru komunikatu z rolą system .

Name Typ Opis Wymagane Default
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze system.
Możliwe wartości: system
Tak

OpenAI.ResponsesSystemMessageItemResource

Element zasobu komunikatu z rolą system .

Name Typ Opis Wymagane Default
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze system.
Możliwe wartości: system
Tak

OpenAI.ResponsesUserMessageItemParam

Element parametru komunikatu z rolą user .

Name Typ Opis Wymagane Default
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze user.
Możliwe wartości: user
Tak

OpenAI.ResponsesUserMessageItemResource

Element zasobu komunikatu z rolą user .

Name Typ Opis Wymagane Default
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze user.
Możliwe wartości: user
Tak

OpenAI.RunGraderRequest

Name Typ Opis Wymagane Default
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.
element Element zestawu danych dostarczony do klasyra. Zostanie użyta do wypełnienia item przestrzeni nazw. Nie.
model_sample ciąg Przykładowy model do oceny. Ta wartość sample zostanie użyta do wypełnienia przestrzeni nazw.
Zmienna output_json zostanie wypełniona, jeśli przykładowy model jest prawidłowym ciągiem JSON.
Tak

OpenAI.RunGraderResponse

Name Typ Opis Wymagane Default
metadane obiekt Tak
Błędy └* obiekt Nie.
└formula_parse_error typ logiczny (boolowski) Nie.
└invalid_variable_error typ logiczny (boolowski) Nie.
└model_grader_parse_error typ logiczny (boolowski) Nie.
└model_grader_refusal_error typ logiczny (boolowski) Nie.
└model_grader_server_error typ logiczny (boolowski) Nie.
└model_grader_server_error_details ciąg Nie.
└other_error typ logiczny (boolowski) Nie.
└python_grader_runtime_error typ logiczny (boolowski) Nie.
└python_grader_runtime_error_details ciąg Nie.
└python_grader_server_error typ logiczny (boolowski) Nie.
└python_grader_server_error_type ciąg Nie.
└sample_parse_error typ logiczny (boolowski) Nie.
└truncated_observation_error typ logiczny (boolowski) Nie.
└unresponsive_reward_error typ logiczny (boolowski) Nie.
└execution_time Liczba Nie.
└─ nazwa ciąg Nie.
└sampled_model_name ciąg Nie.
Wyniki └* Nie.
└token_usage liczba całkowita Nie.
└typ ciąg Nie.
model_grader_token_usage_per_model Tak
nagroda Liczba Tak
sub_rewards Tak

OpenAI.StaticChunkingStrategy

Name Typ Opis Wymagane Default
nakładanie się tokenów segmentu liczba całkowita Liczba tokenów nakładających się między fragmentami. Domyślna wartość to 400.

Należy pamiętać, że nakładanie się nie może przekraczać połowy wartości max_chunk_size_tokens.
Tak
maksymalna_liczba_tokenów_w_kawałku liczba całkowita Maksymalna liczba tokenów w każdym kawałku. Domyślna wartość to 800. Wartość minimalna to 100 , a wartość maksymalna to 4096. Tak

OpenAI.StaticChunkingStrategyRequestParam

Dostosuj własną strategię fragmentowania, ustawiając rozmiar fragmentu i nakładanie się fragmentów.

Name Typ Opis Wymagane Default
statyczny OpenAI.StaticChunkingStrategy Tak
typ wyliczenie Zawsze static.
Możliwe wartości: static
Tak

OpenAI.StaticChunkingStrategyResponseParam

Name Typ Opis Wymagane Default
statyczny OpenAI.StaticChunkingStrategy Tak
typ wyliczenie Zawsze static.
Możliwe wartości: static
Tak

OpenAI.StopConfiguration

Nie jest obsługiwane przez najnowsze modele rozumowania o3 i o4-mini.

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.

Ten schemat akceptuje jeden z następujących typów:

  • string
  • array

OpenAI.Tool

Dyskryminator dla OpenAI.Tool

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
Name Typ Opis Wymagane Default
typ OpenAI.ToolType Narzędzie, które może służyć do generowania odpowiedzi. Tak

OpenAI.ToolChoiceObject

Dyskryminator dla OpenAI.ToolChoiceObject

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Name Typ Opis Wymagane Default
typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Tak

OpenAI.ToolChoiceObjectCodeInterpreter

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: code_interpreter
Tak

OpenAI.ToolChoiceObjectComputer

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: computer_use_preview
Tak

OpenAI.ToolChoiceObjectFileSearch

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: file_search
Tak

OpenAI.ToolChoiceObjectFunction

Użyj tej opcji, aby wymusić wywołanie określonej funkcji przez model.

Name Typ Opis Wymagane Default
nazwa ciąg Nazwa funkcji do wywołania. Tak
typ wyliczenie W przypadku wywoływania funkcji typ to zawsze function.
Możliwe wartości: function
Tak

OpenAI.ToolChoiceObjectImageGen

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: image_generation
Tak

OpenAI.ToolChoiceObjectMCP

Użyj tej opcji, aby wymusić wywołanie określonego narzędzia na zdalnym serwerze MCP.

Name Typ Opis Wymagane Default
nazwa ciąg Nazwa narzędzia do wywołania na serwerze. Nie.
etykieta_serwera ciąg Etykieta serwera MCP do użycia. Tak
typ wyliczenie W przypadku narzędzi MCP typ to zawsze mcp.
Możliwe wartości: mcp
Tak

OpenAI.ToolChoiceObjectType

Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi.

Majątek Wartość
Opis Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi.
Typ ciąg
Wartości file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Uwaga: web_search nie jest jeszcze dostępna za pośrednictwem Azure OpenAI.

Name Typ Opis Wymagane Default
typ wyliczenie
Możliwe wartości: web_search_preview
Tak

OpenAI.ToolChoiceOptions

Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.

Majątek Wartość
Opis Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Typ ciąg
Wartości none
auto
required

OpenAI.ToolType

Narzędzie, które może służyć do generowania odpowiedzi.

Majątek Wartość
Opis Narzędzie, które może służyć do generowania odpowiedzi.
Typ ciąg
Wartości file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell

OpenAI.TopLogProb

Najwyższe prawdopodobieństwo dziennika tokenu.

Name Typ Opis Wymagane Default
bytes macierz Tak
logprob Liczba Tak
kod przedpłaty ciąg Tak

OpenAI.TranscriptionAudioResponseFormat

Odwołania: OpenAI.AudioResponseFormat

OpenAI.TranscriptionInclude

Majątek Wartość
Typ ciąg
Wartości logprobs

OpenAI.TranscriptionSegment

Name Typ Opis Wymagane Default
avg_logprob Liczba Średnia wartość logprob segmentu. Jeśli wartość jest niższa niż -1, rozważ niepowodzenie logprobs. Tak
compression_ratio Liczba Współczynnik kompresji segmentu. Jeśli wartość jest większa niż 2,4, rozważ niepowodzenie kompresji. Tak
koniec Liczba Czas zakończenia segmentu w sekundach. Tak
identyfikator liczba całkowita Unikatowy identyfikator segmentu. Tak
no_speech_prob Liczba Prawdopodobieństwo braku mowy w segmencie. Jeśli wartość jest wyższa niż 1,0, a wartość avg_logprob jest niższa niż -1, rozważ użycie tego segmentu w trybie dyskretnym. Tak
seek liczba całkowita Znajdź przesunięcie segmentu. Tak
początek Liczba Czas rozpoczęcia segmentu w sekundach. Tak
temperatura Liczba Parametr temperatury używany do generowania segmentu. Tak
SMS ciąg Zawartość tekstowa segmentu. Tak
tokens macierz Tablica identyfikatorów tokenów dla zawartości tekstowej. Tak

OpenAI.TranscriptionWord

Name Typ Opis Wymagane Default
koniec Liczba Czas zakończenia słowa w sekundach. Tak
początek Liczba Czas rozpoczęcia słowa w sekundach. Tak
słowo ciąg Zawartość tekstowa wyrazu. Tak

OpenAI.TranslationAudioResponseFormat

Odwołania: OpenAI.AudioResponseFormat

OpenAI.UpdateVectorStoreFileAttributesRequest

Name Typ Opis Wymagane Default
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logiczne lub liczby. Tak

OpenAI.UpdateVectorStoreRequest

Name Typ Opis Wymagane Default
wygasa po obiekt Zasady wygasania magazynu wektorów. Nie.
└* kotwica wyliczenie Znacznik czasu zakotwiczenia, po którym mają zastosowanie zasady wygasania. Obsługiwane kotwice: last_active_at.
Możliwe wartości: last_active_at
Nie.
└days liczba całkowita Liczba dni po upływie czasu zakotwiczenia, przez który magazyn wektorów wygaśnie. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Nie.
nazwa ciąg Nazwa magazynu wektorów. Nie.

OpenAI.VadConfig

Name Typ Opis Wymagane Default
prefix_padding_ms liczba całkowita Ilość dźwięku do uwzględnienia przed wykryciem mowy przez VAD (w milisekundach). Nie. 300
silence_duration_ms liczba całkowita Czas trwania ciszy wykrywania zatrzymania mowy (w milisekundach).
Dzięki krótszym wartościom model będzie reagować szybciej, ale może wskoczyć na krótkie przerwy od użytkownika.
Nie. 200
próg Liczba Próg czułości (od 0,0 do 1,0) na potrzeby wykrywania aktywności głosowej. Wyższy próg będzie wymagać głośniejszego dźwięku do aktywowania modelu, a tym samym może działać lepiej w hałaśliwych środowiskach. Nie. 0,5
typ wyliczenie Musi być ustawiona na server_vad, aby włączyć ręczne fragmentowanie przy użyciu VAD po stronie serwera.
Możliwe wartości: server_vad
Tak

OpenAI.ValidateGraderRequest

Name Typ Opis Wymagane Default
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.

OpenAI.ValidateGraderResponse

Name Typ Opis Wymagane Default
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Nie.
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.

OpenAI.VectorStoreExpirationAfter

Zasady wygasania magazynu wektorów.

Name Typ Opis Wymagane Default
kotwica wyliczenie Znacznik czasu zakotwiczenia, po którym mają zastosowanie zasady wygasania. Obsługiwane kotwice: last_active_at.
Możliwe wartości: last_active_at
Tak
Dni liczba całkowita Liczba dni po upływie czasu zakotwiczenia, przez który magazyn wektorów wygaśnie. Tak

OpenAI.VectorStoreFileAttributes

Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logiczne lub liczby.

Typ: obiekt

OpenAI.VectorStoreFileBatchObject

Partia plików dołączonych do magazynu wektorów.

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia partii plików magazynu wektorów. Tak
liczba_plików obiekt Tak
└* anulowano liczba całkowita Liczba plików, które zostały anulowane. Nie.
└─ Ukończono liczba całkowita Liczba przetworzonych plików. Nie.
└* nie powiodło się liczba całkowita Liczba plików, które nie mogły przetworzyć. Nie.
└─ w_toku liczba całkowita Liczba obecnie przetwarzanych plików. Nie.
└─ suma liczba całkowita Całkowita liczba plików. Nie.
identyfikator ciąg Identyfikator, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze vector_store.file_batch.
Możliwe wartości: vector_store.files_batch
Tak
stan wyliczenie Stan partii plików magazynu wektorów, który może mieć in_progresswartość , completedcancelled lub failed.
Możliwe wartości: in_progress, , completed, cancelledfailed
Tak
identyfikator_magazynu_wektorów ciąg Identyfikator magazynu wektorów, do którego jest dołączony plik. Tak

OpenAI.VectorStoreFileObject

Lista plików dołączonych do magazynu wektorów.

Name Typ Opis Wymagane Default
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logiczne lub liczby. Nie.
chunking_strategy obiekt Nie.
└typ wyliczenie
Możliwe wartości: static, other
Nie.
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia pliku magazynu wektorów. Tak
identyfikator ciąg Identyfikator, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
ostatni błąd obiekt Ostatni błąd skojarzony z tym plikiem magazynu wektorów. Jeśli nie ma żadnych błędów, będzie występować null błąd. Tak
└─ kod wyliczenie Jeden z server_error lub rate_limit_exceeded.
Możliwe wartości: server_error, , unsupported_fileinvalid_file
Nie.
└─ Komunikat ciąg Czytelny dla człowieka opis błędu. Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze vector_store.file.
Możliwe wartości: vector_store.file
Tak
stan wyliczenie Stan pliku magazynu wektorów, który może mieć in_progresswartość , , completedcancelledlub failed. Stan completed wskazuje, że plik magazynu wektorów jest gotowy do użycia.
Możliwe wartości: in_progress, , completed, cancelledfailed
Tak
użycie_bajtów liczba całkowita Łączne użycie magazynu wektorów w bajtach. Należy pamiętać, że może się to różnić od oryginalnego rozmiaru pliku. Tak
identyfikator_magazynu_wektorów ciąg Identyfikator magazynu wektorów, do którego jest dołączony plik. Tak

OpenAI.VectorStoreObject

Magazyn wektorów to kolekcja przetworzonych plików może być używana przez file_search narzędzie.

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia magazynu wektorów. Tak
wygasa po OpenAI.VectorStoreExpirationAfter Zasady wygasania magazynu wektorów. Nie.
wygasa_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla czasu wygaśnięcia magazynu wektorów. Nie.
liczba_plików obiekt Tak
└* anulowano liczba całkowita Liczba anulowanych plików. Nie.
└─ Ukończono liczba całkowita Liczba plików, które zostały pomyślnie przetworzone. Nie.
└* nie powiodło się liczba całkowita Liczba plików, które nie mogły przetworzyć. Nie.
└─ w_toku liczba całkowita Liczba obecnie przetwarzanych plików. Nie.
└─ suma liczba całkowita Całkowita liczba plików. Nie.
identyfikator ciąg Identyfikator, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
ostatnia_aktywność_w liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla czasu ostatniego aktywnego magazynu wektorów. Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.
Tak
nazwa ciąg Nazwa magazynu wektorów. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze vector_store.
Możliwe wartości: vector_store
Tak
stan wyliczenie Stan magazynu wektorów, który może mieć expiredwartość , in_progresslub completed. Stan completed wskazuje, że magazyn wektorów jest gotowy do użycia.
Możliwe wartości: expired, , in_progresscompleted
Tak
użycie_bajtów liczba całkowita Całkowita liczba bajtów używanych przez pliki w magazynie wektorów. Tak

OpenAI.VoiceIdsShared

Majątek Wartość
Typ ciąg
Wartości alloy
ash
ballad
coral
echo
fable
onyx
nova
sage
shimmer
verse

OpenAI.WebSearchAction

Dyskryminowanie openAI.WebSearchAction

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schema
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Name Typ Opis Wymagane Default
typ OpenAI.WebSearchActionType Tak

OpenAI.WebSearchActionFind

Typ akcji "find": wyszukuje wzorzec na załadowanej stronie.

Name Typ Opis Wymagane Default
wzorzec ciąg Wzorzec lub tekst do wyszukania na stronie. Tak
typ wyliczenie Typ akcji.
Możliwe wartości: find
Tak
Adres URL ciąg Adres URL strony wyszukał wzorzec. Tak

OpenAI.WebSearchActionOpenPage

Typ akcji "open_page" — otwiera określony adres URL z wyników wyszukiwania.

Name Typ Opis Wymagane Default
typ wyliczenie Typ akcji.
Możliwe wartości: open_page
Tak
Adres URL ciąg Adres URL otwarty przez model. Tak

OpenAI.WebSearchActionSearch

Typ akcji "search" — wykonuje zapytanie wyszukiwania w Internecie.

Name Typ Opis Wymagane Default
kwerenda ciąg Zapytanie wyszukiwania. Tak
typ wyliczenie Typ akcji.
Możliwe wartości: search
Tak

OpenAI.WebSearchActionType

Majątek Wartość
Typ ciąg
Wartości search
open_page
find

OpenAI.WebSearchPreviewTool

Uwaga: web_search nie jest jeszcze dostępna za pośrednictwem Azure OpenAI.

Name Typ Opis Wymagane Default
rozmiar_kontekstu_wyszukiwania wyliczenie Ogólne wskazówki dotyczące ilości miejsca w oknie kontekstowym do użycia w wyszukiwaniu. lowJeden z , mediumlub high. medium jest wartością domyślną.
Możliwe wartości: low, , mediumhigh
Nie.
typ wyliczenie Typ narzędzia wyszukiwania w Internecie. Jeden z web_search_preview lub web_search_preview_2025_03_11.
Możliwe wartości: web_search_preview
Tak
lokalizacja_użytkownika obiekt Nie.
└typ OpenAI.LocationType Nie.

OpenAI.WebSearchToolCallItemParam

Uwaga: web_search nie jest jeszcze dostępna za pośrednictwem Azure OpenAI.

Name Typ Opis Wymagane Default
akcja obiekt Tak
└typ OpenAI.WebSearchActionType Nie.
typ wyliczenie
Możliwe wartości: web_search_call
Tak

OpenAI.WebSearchToolCallItemResource

Uwaga: web_search nie jest jeszcze dostępna za pośrednictwem Azure OpenAI.

Name Typ Opis Wymagane Default
akcja obiekt Tak
└typ OpenAI.WebSearchActionType Nie.
stan wyliczenie Stan działania wyszukiwarki internetowej.
Możliwe wartości: in_progress, , searching, completedfailed
Tak
typ wyliczenie
Możliwe wartości: web_search_call
Tak

PineconeChatDataSource

Name Typ Opis Wymagane Default
parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych Pinecone. Tak
└ zezwól_na_częściowy_wynik typ logiczny (boolowski) Jeśli zostanie ustawiona wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie zapytania częściowe nie powiodą się. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem. Nie. Nieprawda
Uwierzytelnianie obiekt Nie.
└─ klucz ciąg Nie.
└typ wyliczenie
Możliwe wartości: api_key
Nie.
└─ zależność_osadzania obiekt Reprezentacja źródła wektoryzacji danych, która może być użyta jako zasób do osadzania w kontekście danych. Nie.
└typ AzureChatDataSourceVectorizationSourceType Identyfikator różnicujący dla konkretnego źródła wektoryzacji. Nie.
└─ środowisko ciąg Nazwa środowiska do użycia z Pinecone. Nie.
└fields_mapping obiekt Mapowania pól do zastosowania do danych używanych przez źródło danych Pinecone.
Należy pamiętać, że mapowania pól zawartości są wymagane dla Pinecone.
Nie.
└content_fields macierz Nie.
└─content_fields_separator ciąg Nie.
└ filepath_field ciąg Nie.
└─ pole_tytułu ciąg Nie.
└ url_field ciąg Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└─ zawiera_konteksty macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nazwa indeksu bazy danych Pinecone, którego chcesz użyć. Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie dokonywać ustaleń.
Nie.
└* ścisłość liczba całkowita Skonfigurowana dokładność filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do uwzględnienia w zapytaniu. Nie.
typ wyliczenie Identyfikator typu dyskryminowanego, który jest zawsze 'pinecone'.
Możliwe wartości: pinecone
Tak

Jakość

Jakość zawartości wideo do pobrania. Określa jakość zawartości wideo, która ma zostać zwrócona.

Majątek Wartość
Opis Jakość zawartości wideo do pobrania.
Określa jakość zawartości wideo, która ma zostać zwrócona.
Typ ciąg
Wartości high
low

ResponseFormatJSONSchemaRequest

Name Typ Opis Wymagane Default
json_schema obiekt Schemat JSON dla formatu odpowiedzi Tak
typ wyliczenie Typ formatu odpowiedzi
Możliwe wartości: json_schema
Tak

ResponseModalities

Typy danych wyjściowych, które mają być generowane przez model. Większość modeli jest w stanie wygenerować tekst, co jest wartością domyślną:

["text"]

Model gpt-4o-audio-preview może również służyć do generowania dźwięku. Aby zażądać, aby ten model wygenerował odpowiedzi tekstowe i audio, możesz użyć:

["text", "audio"]

Tablica: łańcuch

SpeechGenerationResponseFormat

Obsługiwane formaty danych wyjściowych audio dla zamiany tekstu na mowę.

Ten składnik może być jednym z następujących elementów:

VideoGeneration

Wynik generowania wideo.

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Czas utworzenia generacji wideo. Tak
height liczba całkowita Wysokość filmu wideo. Tak
identyfikator ciąg Identyfikator generacji wideo. Tak
job_id ciąg Identyfikator zadania generowania wideo dla tego wideo. Tak
n_seconds liczba całkowita Czas trwania generowania wideo. Tak
obiekt wyliczenie
Możliwe wartości: video.generation
Tak
monit ciąg Monit o wygenerowanie tego wideo. Tak
width liczba całkowita Szerokość filmu wideo. Tak

VideoGenerationJob

Zadanie generowania wideo.

Name Typ Opis Wymagane Default
utworzono_o liczba całkowita Godzina utworzenia zadania. Tak
wygasa_o liczba całkowita Godzina automatycznego usunięcia zadania z usługi. Zawartość wideo i metadane zadania powinny być przechowywane przed tą datą, aby uniknąć utraty danych. Nie.
failure_reason ciąg (zobacz prawidłowe modele poniżej) Nie.
zakończono_o liczba całkowita Czas zakończenia zadania wraz z wszystkimi wygenerowanymi wersjami wideo. Nie.
Pokoleń macierz Wygenerowane filmy wideo dla tego zadania. Liczba zależy od danej n_wariantów oraz sukcesu generacji. Nie.
height liczba całkowita Wysokość filmu wideo. Tak
identyfikator ciąg Identyfikator zadania. Tak
inpaint_items macierz Opcjonalne elementy inpainting dla tego zadania generowania wideo. Nie.
model ciąg Nazwa wdrożenia do użycia dla tego zadania generowania wideo. Tak
n_seconds liczba całkowita Czas trwania zadania generowania wideo. Tak
n_variants liczba całkowita Liczba filmów do stworzenia jako warianty dla tego zadania generowania wideo. Tak
obiekt wyliczenie
Możliwe wartości: video.generation.job
Tak
monit ciąg Polecenie do zlecenia generowania wideo. Tak
stan obiekt Stan zadania generowania wideo. Tak
width liczba całkowita Wysokość filmu wideo. Tak

VideoGenerationJobList

Lista zadań generowania wideo.

Name Typ Opis Wymagane Default
dane macierz Lista zadań generowania wideo. Tak
first_id ciąg Identyfikator pierwszego zadania na bieżącej stronie, jeśli jest dostępny. Nie.
zawiera_więcej typ logiczny (boolowski) Flaga wskazująca, czy po liście jest dostępnych więcej zadań. Tak
last_id ciąg Identyfikator ostatniego zadania na bieżącej stronie, jeśli jest dostępny. Nie.
obiekt wyliczenie
Możliwe wartości: list
Tak

Dalsze kroki

Dowiedz się więcej o modelach i dostrajaniu za pomocą interfejsu API REST. Dowiedz się więcej na temat modeli underlying, które zasilają Azure OpenAI.