Dokumentacja interfejsu API REST usługi Azure OpenAI
Ten artykuł zawiera szczegółowe informacje na temat punktów końcowych interfejsu API REST wnioskowania dla usługi Azure OpenAI.
Specyfikacje interfejsu API
Zarządzanie modelami i zasobami platformy Azure OpenAI i zarządzanie nimi jest podzielone na trzy podstawowe powierzchnie interfejsu API:
- Płaszczyzna sterowania
- Płaszczyzna danych — tworzenie
- Płaszczyzna danych — wnioskowanie
Każda powierzchnia/specyfikacja interfejsu API hermetyzuje inny zestaw funkcji usługi Azure OpenAI. Każdy interfejs API ma swój własny unikatowy zestaw wersji zapoznawczych i stabilne/ogólnie dostępne wersje interfejsu API. Obecnie wersje zapoznawcza mają tendencję do śledzenia miesięcznego tempa.
interfejs API | Najnowsza wersja zapoznawcza | Najnowsza wersja ogólnie dostępna | Specyfikacje | opis |
---|---|---|---|---|
Płaszczyzna sterowania | 2024-04-01-preview |
2023-05-01 |
Pliki specyfikacji | Usługa Azure OpenAI udostępnia wspólną płaszczyznę sterowania wszystkim innym usługom Azure AI Services. Interfejs API płaszczyzny sterowania służy do tworzenia zasobów usługi Azure OpenAI, wdrażania modelu i innych zadań zarządzania zasobami wyższego poziomu. Płaszczyzna sterowania zarządza również możliwościami, takimi jak azure Resource Manager, Bicep, Terraform i interfejs wiersza polecenia platformy Azure. |
Płaszczyzna danych — tworzenie | 2024-05-01-preview |
2024-06-01 |
Pliki specyfikacji | Interfejs API tworzenia płaszczyzny danych steruje dostrajaniem, przekazywaniem plików, zadaniami pozyskiwania i niektórymi zapytaniami na poziomie modelu |
Płaszczyzna danych — wnioskowanie | 2024-05-01-preview |
2024-06-01 |
Pliki specyfikacji | Interfejs API wnioskowania płaszczyzny danych zapewnia możliwości wnioskowania/punktów końcowych dla funkcji, takich jak ukończenie, ukończenie czatu, osadzanie, mowę/szepta, na danych, dall-e, asystentów itp. |
Uwierzytelnianie
Usługa Azure OpenAI udostępnia dwie metody uwierzytelniania. Możesz użyć kluczy interfejsu API lub identyfikatora entra firmy Microsoft.
Uwierzytelnianie klucza interfejsu API: w przypadku tego typu uwierzytelniania wszystkie żądania interfejsu API muszą zawierać klucz interfejsu API w nagłówku
api-key
HTTP. Przewodnik Szybki start zawiera wskazówki dotyczące wykonywania wywołań przy użyciu tego typu uwierzytelniania.Uwierzytelnianie identyfikatora Entra firmy Microsoft: możesz uwierzytelnić wywołanie interfejsu API przy użyciu tokenu Entra firmy Microsoft. Tokeny uwierzytelniania są dołączane do żądania jako nagłówka
Authorization
. Podany token musi być poprzedzony elementemBearer
, na przykładBearer YOUR_AUTH_TOKEN
. Możesz przeczytać nasz przewodnik z instrukcjami dotyczącymi uwierzytelniania za pomocą identyfikatora Entra firmy Microsoft.
Przechowywanie wersji interfejsu API REST
Interfejsy API usługi są wersjonowane przy użyciu parametru api-version
zapytania. Wszystkie wersje są zgodne ze strukturą dat RRRR-MM-DD. Na przykład:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-06-01
Wnioskowanie płaszczyzny danych
W pozostałej części artykułu omówiono najnowszą wersję ogólnodostępną specyfikacji wnioskowania płaszczyzny danych platformy Azure OpenAI. 2024-06-01
Jeśli szukasz dokumentacji najnowszej wersji zapoznawczej interfejsu API, zapoznaj się z najnowszym interfejsem API wnioskowania płaszczyzny danych w wersji zapoznawczej
Uzupełnienia
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01
Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu, który został wdrożony. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: application/json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
monit | ciąg lub tablica | Monity o wygenerowanie uzupełniania dla parametrów zakodowane jako ciąg lub tablica ciągów. Należy pamiętać, że <|endoftext|> jest separatorem dokumentu, który widzi model podczas trenowania, więc jeśli monit nie zostanie określony, model zostanie wygenerowany tak, jakby od początku nowego dokumentu. Maksymalny dozwolony rozmiar listy ciągów to 2048. |
Nie. | |
max_tokens | integer | Liczba tokenów monitu i max_tokens nie może przekroczyć długości kontekstu modelu. Większość modeli ma długość kontekstu 2048 tokenów (z wyjątkiem najnowszych modeli, które obsługują 4096). Ma co najmniej 0. | Nie. | 16 |
temperature | Liczba | Jaka temperatura próbkowania ma być używana. Wyższe wartości oznaczają, że model podejmie większe ryzyko. Wypróbuj 0.9, aby uzyskać więcej kreatywnych aplikacji, i 0 (arg maksymalne próbkowanie) dla tych z dobrze zdefiniowaną odpowiedzią. Ogólnie zaleca się zmianę tego lub top_p, ale nie obu. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tej wartości lub temperatury, ale nie obu. |
Nie. | 1 |
logit_bias | obiekt | Wartość domyślna to null. Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON, który mapuje tokeny (określone przez ich identyfikator tokenu w tokenizer GPT) na skojarzona wartość stronnicza z -100 do 100. Możesz użyć tego narzędzia tokenizatora (które działa zarówno dla GPT-2, jak i GPT-3), aby przekonwertować tekst na identyfikatory tokenów. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Na przykład możesz przekazać token {"50256":-100}, aby zapobiec wygenerowaniu tokenu <|endoftext|> . | Nie. | |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć | Nie. | |
n | integer | Ile uzupełniania ma być generowanych dla każdego monitu. Wartość minimalna 1 i maksymalnie 128 dozwolonych. Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy dokładnie użyć i upewnić się, że masz odpowiednie ustawienia dla max_tokens i zatrzymaj. |
Nie. | 1 |
strumień | boolean | Czy przesyłać strumieniowo częściowy postęp. W przypadku ustawienia tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony przez dane: [GOTOWE] komunikat. | Nie. | Fałsz |
logprobs | integer | Uwzględnij prawdopodobieństwa dziennika na tokenach logprobs najprawdopodobniej, a także wybrane tokeny. Jeśli na przykład logprobs ma wartość 5, interfejs API zwróci listę 5 najbardziej prawdopodobnych tokenów. Interfejs API zawsze zwraca logprob przykładowego tokenu, więc w odpowiedzi może istnieć maksymalnie 1 element logprobs+1. Co najmniej 0 i maksymalnie 5 dozwolonych. |
Nie. | Brak |
przyrostek | string | Sufiks, który pojawia się po zakończeniu wstawionego tekstu. | Nie. | |
echo | boolean | Powtórz ponownie monit oprócz ukończenia | Nie. | Fałsz |
zatrzymać | ciąg lub tablica | Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania. | Nie. | |
completion_config | string | Nie | ||
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. | Nie. | 0 |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. | Nie. | 0 |
best_of | integer | Generuje best_of uzupełniania po stronie serwera i zwraca wartość "najlepszą" (zdefiniowaną jako z najwyższym prawdopodobieństwem dziennika na token). Nie można przesyłać strumieniowo wyników. W przypadku użycia z n best_of kontroluje liczbę ukończonych kandydatów i n określa, ile ma zostać zwróconych — best_of musi być większa niż n. Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy dokładnie użyć i upewnić się, że masz odpowiednie ustawienia dla max_tokens i zatrzymaj. Ma maksymalną wartość 128. |
Nie. |
Odpowiedzi
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | string | Tak | ||
obiekt | string | Tak | ||
utworzono | integer | Tak | ||
model | string | Tak | ||
prompt_filter_results | promptFilterResults | Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach. | Nie. | |
Wyborów | tablica | Tak | ||
użycie | obiekt | Nie. |
Właściwości użycia
completion_tokens
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
completion_tokens | Liczba | ||
prompt_tokens | Liczba | ||
total_tokens | Liczba |
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | obiekt |
Kod stanu: wartość domyślna
Opis: Usługa niedostępna
Typ zawartości | Type | Opis |
---|---|---|
application/json | errorResponse |
Przykłady
Przykład
Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Osadzanie
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01
Uzyskaj wektorową reprezentację danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego.
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: application/json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
input | ciąg lub tablica | Tekst wejściowy do pobrania osadzania dla elementu zakodowany jako ciąg. Aby uzyskać osadzanie dla wielu danych wejściowych w jednym żądaniu, przekaż tablicę ciągów. Każde dane wejściowe nie może przekraczać 2048 tokenów długości. Jeśli nie osadzasz kodu, sugerujemy zastąpienie nowych linii (\n) w danych wejściowych pojedynczym miejscem, ponieważ zaobserwowaliśmy gorsze wyniki w przypadku obecności nowych linii. |
Tak | |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
input_type | string | typ danych wejściowych wyszukiwania osadzania do użycia | Nie. | |
encoding_format | string | Format umożliwiający zwrócenie osadzania. Może to być wartość float lub base64 . Wartość domyślna to float . |
Nie. | |
wymiary | integer | Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. |
Nie. |
Odpowiedzi
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
obiekt | string | Tak | ||
model | string | Tak | ||
dane | tablica | Tak | ||
użycie | obiekt | Tak |
Właściwości użycia
prompt_tokens
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
total_tokens | integer |
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | obiekt |
Przykłady
Przykład
Zwróć osadzanie dla danego monitu.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01
{
"input": [
"this is a test"
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Ukończenie czatu
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
Tworzy ukończenie wiadomości na czacie
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu, który został wdrożony. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: application/json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
temperature | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów. |
Nie. | 1 |
strumień | boolean | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . |
Nie. | Fałsz |
zatrzymać | ciąg lub tablica | Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. | Nie. | |
max_tokens | integer | Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które może zwrócić model, to (4096 — tokeny monitu). | Nie. | 4096 |
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. | Nie. | 0 |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. | Nie. | 0 |
logit_bias | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. | Nie. | |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
wiadomości | tablica | Lista wiadomości składających się z konwersacji do tej pory. Przykładowy kod języka Python. | Nie. | |
data_sources | tablica | Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają. Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI. |
Nie. | |
n | integer | Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. | Nie. | 1 |
nasienie | integer | Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik. Determinizm jest niegwajny i należy odwołać się do parametru system_fingerprint odpowiedzi, aby monitorować zmiany w zapleczu. |
Nie. | 0 |
logprobs | boolean | Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true, zwraca prawdopodobieństwo dziennika każdego tokenu wyjściowego zwróconego w elemecie content message . Ta opcja jest obecnie niedostępna gpt-4-vision-preview w modelu. |
Nie. | Fałsz |
top_logprobs | integer | Liczba całkowita z zakresu od 0 do 5 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawiona na true wartość , jeśli ten parametr jest używany. |
Nie. | |
response_format | obiekt | Obiekt określający format, który musi zostać wygenerowany przez model. Służy do włączania trybu JSON. | Nie. | |
tools | tablica | Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. | Nie. | |
tool_choice | chatCompletionToolChoiceOption | Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tej funkcji przez model. |
Nie. | |
— funkcje | tablica | Przestarzałe na rzecz .tools Lista funkcji, dla których model może generować dane wejściowe JSON. |
Nie. | |
function_call | ciąg lub obiekt | Przestarzałe na rzecz .tool_choice Określa sposób, w jaki model reaguje na wywołania funkcji. "none" oznacza, że model nie wywołuje funkcji i odpowiada użytkownikowi końcowemu. "auto" oznacza, że model może wybrać między użytkownikiem końcowym lub wywołaniem funkcji. Określenie określonej funkcji za pośrednictwem {"name":\ "my_function"} wymusza wywołanie tej funkcji przez model. Wartość domyślna "none" jest domyślna, gdy nie ma żadnych funkcji. "auto" jest wartością domyślną, jeśli funkcje są obecne. |
Nie. |
Właściwości response_format
Type
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
type | chatCompletionResponseFormat | Ustawienie w celu json_object włączenia trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON. |
text |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | createChatCompletionResponse |
Kod stanu: wartość domyślna
Opis: Usługa niedostępna
Typ zawartości | Type | Opis |
---|---|---|
application/json | errorResponse |
Przykłady
Przykład
Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "system",
"content": "you're a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy uzupełnianie na podstawie danych usługi Azure Search i przypisanej przez system tożsamości zarządzanej.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy uzupełnianie na podstawie danych wektora usługi Azure Search, poprzedniego komunikatu asystenta i tożsamości zarządzanej przypisanej przez użytkownika.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "you're an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy ukończenie dla podanej usługi Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkrypcje
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
Transkrybuje dźwięk w języku wejściowym.
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu szeptu. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: multipart/form-data
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
plik | string | Obiekt pliku audio do transkrypcji. | Tak | |
monit | string | Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być zgodny z językiem dźwięku. | Nie. | |
response_format | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperature | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. | Nie. | 0 |
język | string | Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. | Nie. |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | audioResponse lub audioVerboseResponse | |
text/plain | string | Transkrypcja tekstu w formacie wyjściowym (gdy response_format był jednym z tekstu, vtt lub srt). |
Przykłady
Przykład
Pobiera transkrypcja tekstu i skojarzonych metadanych z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
Odpowiedzi: Kod stanu: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Przykład
Pobiera transkrypcja tekstu i skojarzonych metadanych z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Tłumaczenia
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
Transkrybuje i tłumaczy dźwięk wejściowy na tekst w języku angielskim.
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu szeptu, który został wdrożony. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: multipart/form-data
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
plik | string | Plik audio do tłumaczenia. | Tak | |
monit | string | Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być w języku angielskim. | Nie. | |
response_format | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperature | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. | Nie. | 0 |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | audioResponse lub audioVerboseResponse | |
text/plain | string | Transkrypcja tekstu w formacie wyjściowym (gdy response_format był jednym z tekstu, vtt lub srt). |
Przykłady
Przykład
Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Przykład
Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Generowanie obrazu
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01
Generuje partię obrazów na podstawie podpisu tekstowego dla danego wdrożenia modelu DALLE
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator dall-e wdrożenia modelu, który został wdrożony. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: application/json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
monit | string | Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. | Tak | |
n | integer | Liczba obrazów do wygenerowania. | Nie. | 1 |
size | imageSize | Rozmiar wygenerowanych obrazów. | Nie. | 1024x1024 |
response_format | imagesResponseFormat | Format, w którym są zwracane wygenerowane obrazy. | Nie. | Adres URL |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
jakość | imageQuality | Jakość obrazu, który zostanie wygenerowany. | Nie. | standardowa |
— styl | imageStyle | Styl wygenerowanych obrazów. | Nie. | żywy |
Odpowiedzi
Kod stanu: 200
Opis: Ok
Typ zawartości | Type | Opis |
---|---|---|
application/json | generateImagesResponse |
Kod stanu: wartość domyślna
Opis: Wystąpił błąd.
Typ zawartości | Type | Opis |
---|---|---|
application/json | dalleErrorResponse |
Przykłady
Przykład
Tworzy obrazy z monitem.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Składniki
errorResponse
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
error | błąd | Nie. |
errorBase
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
code | string | Nie | ||
wiadomość | string | Nie |
Błąd
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Param | string | Nie | ||
type | string | Nie | ||
inner_error | innerError | Wewnętrzny błąd z dodatkowymi szczegółami. | Nie. |
innerError
Wewnętrzny błąd z dodatkowymi szczegółami.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
code | innerErrorCode | Kody błędów dla obiektu błędu wewnętrznego. | Nie. | |
content_filter_results | contentFilterPromptResults | Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. | Nie. |
innerErrorCode
Kody błędów dla obiektu błędu wewnętrznego.
Opis: Kody błędów dla wewnętrznego obiektu błędu.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: InnerErrorCode
Wartości wyliczenia:
Wartość | Opis |
---|---|
ResponsibleAIPolicyViolation | Monit naruszył jedną z więcej reguł filtrowania zawartości. |
dalleErrorResponse
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
error | dalleError | Nie. |
dalleError
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Param | string | Nie | ||
type | string | Nie | ||
inner_error | dalleInnerError | Wewnętrzny błąd z dodatkowymi szczegółami. | Nie. |
dalleInnerError
Wewnętrzny błąd z dodatkowymi szczegółami.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
code | innerErrorCode | Kody błędów dla obiektu błędu wewnętrznego. | Nie. | |
content_filter_results | dalleFilterResults | Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. | Nie. | |
revised_prompt | string | Monit, który został użyty do wygenerowania obrazu, jeśli wystąpiła jakakolwiek poprawka do monitu. | Nie. |
contentFilterResultBase
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Filtrowane | boolean | Tak |
contentFilterSeverityResult
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Filtrowane | boolean | Tak | ||
ważność | string | Nie |
contentFilterDetectedResult
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Filtrowane | boolean | Tak | ||
Wykryte | boolean | Nie. |
contentFilterDetectedWithCitationResult
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
cytat | obiekt | Nie. |
Właściwości cytatu
URL
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
URL | string |
Licencja
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
license (licencja) | string |
contentFilterResultsBase
Informacje o wynikach filtrowania zawartości.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. | ||
przekleństwo | contentFilterDetectedResult | Nie. | ||
error | errorBase | Nie. |
contentFilterPromptResults
Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. | ||
przekleństwo | contentFilterDetectedResult | Nie. | ||
error | errorBase | Nie. | ||
Jailbreak | contentFilterDetectedResult | Nie. |
contentFilterChoiceResults
Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o tekście i wulgaryzmach innych firm, jeśli zostały wykryte, i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. | ||
przekleństwo | contentFilterDetectedResult | Nie. | ||
error | errorBase | Nie. | ||
protected_material_text | contentFilterDetectedResult | Nie. | ||
protected_material_code | contentFilterDetectedWithCitationResult | Nie. |
promptFilterResult
Wyniki filtrowania zawartości dla pojedynczego monitu w żądaniu.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
prompt_index | integer | Nie. | ||
content_filter_results | contentFilterPromptResults | Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. | Nie. |
promptFilterResults
Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach.
dalleContentFilterResults
Informacje o wynikach filtrowania zawartości.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. |
dalleFilterResults
Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. | ||
przekleństwo | contentFilterDetectedResult | Nie. | ||
Jailbreak | contentFilterDetectedResult | Nie. |
chatCompletionsRequestCommon
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
temperature | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów. |
Nie. | 1 |
strumień | boolean | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . |
Nie. | Fałsz |
zatrzymać | ciąg lub tablica | Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. | Nie. | |
max_tokens | integer | Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które może zwrócić model, to (4096 — tokeny monitu). | Nie. | 4096 |
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. | Nie. | 0 |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. | Nie. | 0 |
logit_bias | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. | Nie. | |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. | Nie. |
createChatCompletionRequest
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
temperature | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów. |
Nie. | 1 |
strumień | boolean | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . |
Nie. | Fałsz |
zatrzymać | ciąg lub tablica | Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. | Nie. | |
max_tokens | integer | Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które może zwrócić model, to (4096 — tokeny monitu). | Nie. | 4096 |
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. | Nie. | 0 |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. | Nie. | 0 |
logit_bias | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. | Nie. | |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
wiadomości | tablica | Lista wiadomości składających się z konwersacji do tej pory. Przykładowy kod języka Python. | Nie. | |
data_sources | tablica | Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają. Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI. |
Nie. | |
n | integer | Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. | Nie. | 1 |
nasienie | integer | Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik. Determinizm jest niegwajny i należy odwołać się do parametru system_fingerprint odpowiedzi, aby monitorować zmiany w zapleczu. |
Nie. | 0 |
logprobs | boolean | Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true, zwraca prawdopodobieństwo dziennika każdego tokenu wyjściowego zwróconego w elemecie content message . Ta opcja jest obecnie niedostępna gpt-4-vision-preview w modelu. |
Nie. | Fałsz |
top_logprobs | integer | Liczba całkowita z zakresu od 0 do 5 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawiona na true wartość , jeśli ten parametr jest używany. |
Nie. | |
response_format | obiekt | Obiekt określający format, który musi zostać wygenerowany przez model. Służy do włączania trybu JSON. | Nie. | |
tools | tablica | Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. | Nie. | |
tool_choice | chatCompletionToolChoiceOption | Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tej funkcji przez model. |
Nie. | |
— funkcje | tablica | Przestarzałe na rzecz .tools Lista funkcji, dla których model może generować dane wejściowe JSON. |
Nie. | |
function_call | ciąg lub obiekt | Przestarzałe na rzecz .tool_choice Określa sposób, w jaki model reaguje na wywołania funkcji. "none" oznacza, że model nie wywołuje funkcji i odpowiada użytkownikowi końcowemu. "auto" oznacza, że model może wybrać między użytkownikiem końcowym lub wywołaniem funkcji. Określenie określonej funkcji za pośrednictwem {"name":\ "my_function"} wymusza wywołanie tej funkcji przez model. Wartość domyślna "none" jest domyślna, gdy nie ma żadnych funkcji. "auto" jest wartością domyślną, jeśli funkcje są obecne. |
Nie. |
Właściwości response_format
Type
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
type | chatCompletionResponseFormat | Ustawienie w celu json_object włączenia trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON. |
text |
chatCompletionResponseFormat
Ustawienie w celu json_object
włączenia trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON.
Opis: Ustawienie umożliwiające json_object
włączenie trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON.
Typ: ciąg
Ustawienie domyślne: tekst
Nazwa wyliczenia: ChatCompletionResponseFormat
Wartości wyliczenia:
Wartość | Opis |
---|---|
text | Format odpowiedzi to zwykły ciąg tekstowy. |
json_object | Format odpowiedzi to obiekt JSON. |
chatCompletionFunction
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. | Tak | |
opis | string | Opis działania funkcji. | Nie. | |
parameters | chatCompletionFunctionParameters | Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z dokumentacją dotyczącą formatu schematu JSON. | Nie. |
chatCompletionFunctionParameters
Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z dokumentacją dotyczącą formatu schematu JSON.
chatCompletionRequestMessage
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Rola autora wiadomości. | Tak |
chatCompletionRequestMessageRole
Rola autora wiadomości.
Opis: Rola autora komunikatów.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: ChatCompletionRequestMessageRole
Wartości wyliczenia:
Wartość | Opis |
---|---|
sterowana | Rola autora komunikatów jest systemowa. |
Użytkownik | Rola autora wiadomości jest użytkownikiem. |
asystent | Rola autora wiadomości jest asystentem. |
narzędzie | Rola autora wiadomości jest narzędziem. |
function | Przestarzałe. Rola autora wiadomości jest funkcją. |
chatCompletionRequestMessageSystem
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Rola autora wiadomości. | Tak | |
content | string | Zawartość wiadomości. | Nie. |
chatCompletionRequestMessageUser
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Rola autora wiadomości. | Tak | |
content | ciąg lub tablica | Nie. |
chatCompletionRequestMessageContentPart
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Typ części zawartości. | Tak |
chatCompletionRequestMessageContentPartType
Typ części zawartości.
Opis: typ części zawartości.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: ChatCompletionRequestMessageContentPartType
Wartości wyliczenia:
Wartość | Opis |
---|---|
text | Typ części zawartości to tekst. |
image_url | Typ części zawartości jest image_url. |
chatCompletionRequestMessageContentPartText
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Typ części zawartości. | Tak | |
text | string | Zawartość tekstowa. | Nie. |
chatCompletionRequestMessageContentPartImage
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Typ części zawartości. | Tak | |
Adres URL | string | Adres URL obrazu lub zakodowane w formacie base64 dane obrazu. | Nie. | |
szczegóły | imageDetailLevel | Określa poziom szczegółowości obrazu. | Nie. | auto |
imageDetailLevel
Określa poziom szczegółowości obrazu.
Opis: określa poziom szczegółowości obrazu.
Typ: ciąg
Ustawienie domyślne: auto
Nazwa wyliczenia: ImageDetailLevel
Wartości wyliczenia:
Wartość | Opis |
---|---|
auto | Poziom szczegółów obrazu jest automatyczny. |
Niski | Poziom szczegółów obrazu jest niski. |
wysoki | Poziom szczegółów obrazu jest wysoki. |
chatCompletionRequestMessageAssistant
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Rola autora wiadomości. | Tak | |
content | string | Zawartość wiadomości. | Nie. | |
tool_calls | tablica | Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. | Nie. | |
kontekst | azureChatExtensionsMessageContext | Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy są zaangażowane rozszerzenia czatu usługi Azure OpenAI w generacji odpowiadającej odpowiedzi na ukończenie czatu. Te informacje kontekstowe są wypełniane tylko wtedy, gdy przy użyciu żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia. |
Nie. |
azureChatExtensionConfiguration
Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak |
azureChatExtensionType
Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Opis: reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat
Żądania ukończenia, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: AzureChatExtensionType
Wartości wyliczenia:
Wartość | Opis |
---|---|
azure_search | Reprezentuje użycie usługi Azure Search jako rozszerzenia czatu usługi Azure OpenAI. |
azure_cosmos_db | Reprezentuje użycie usługi Azure Cosmos DB jako rozszerzenia czatu usługi Azure OpenAI. |
azureSearchChatExtensionConfiguration
Konkretna reprezentacja konfigurowalnych opcji usługi Azure Search podczas korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak | |
parameters | azureSearchChatExtensionParameters | Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI. | Nie. |
azureSearchChatExtensionParameters
Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
uwierzytelnianie | onYourDataApiKeyAuthenticationOptions lub onYourDataSystemAssignedManagedIdentityAuthenticationOptions lub onYourDataUserAssignedManagedIdentityAuthenticationOptions | Tak | ||
top_n_documents | integer | Skonfigurowano maksymalną liczbę dokumentów do funkcji dla skonfigurowanego zapytania. | Nie. | |
in_scope | boolean | Czy zapytania powinny być ograniczone do używania indeksowanych danych. | Nie. | |
ścisłość | integer | Skonfigurowana ścisłość filtrowania istotności wyszukiwania. Im większa surowość, większa precyzja, ale niższa kompletność odpowiedzi. | Nie. | |
role_information | string | Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit tokenu 100 i jest liczone względem ogólnego limitu tokenów. | Nie. | |
endpoint | string | Bezwzględna ścieżka punktu końcowego zasobu usługi Azure Search do użycia. | Tak | |
index_name | string | Nazwa indeksu, który ma być używany jako dostępny w przywoływowanym zasobie usługi Azure Search. | Tak | |
fields_mapping | azureSearchIndexFieldMappingOptions | Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search. | Nie. | |
query_type | azureSearchQueryType | Typ zapytania pobierania usługi Azure Search, który należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI. | Nie. | |
semantic_configuration | string | Dodatkowa konfiguracja semantyczna zapytania. | Nie. | |
filtr | string | Filtr wyszukiwania. | Nie. | |
embedding_dependency | onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource | Nie. |
azureSearchIndexFieldMappingOptions
Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
title_field | string | Nazwa pola indeksu, które ma być używane jako tytuł. | Nie. | |
url_field | string | Nazwa pola indeksu, które ma być używane jako adres URL. | Nie. | |
filepath_field | string | Nazwa pola indeksu do użycia jako ścieżka pliku. | Nie. | |
content_fields | tablica | Nazwy pól indeksu, które powinny być traktowane jako zawartość. | Nie. | |
content_fields_separator | string | Wzorzec separatora, którego powinny używać pola zawartości. | Nie. | |
vector_fields | tablica | Nazwy pól reprezentujących dane wektorowe. | Nie. |
azureSearchQueryType
Typ zapytania pobierania usługi Azure Search, który należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI.
Opis: typ zapytania pobierania usługi Azure Search, które należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: azureSearchQueryType
Wartości wyliczenia:
Wartość | Opis |
---|---|
prosty | Reprezentuje domyślny, prosty analizator zapytań. |
semantyczne | Reprezentuje semantyczny analizator zapytań na potrzeby zaawansowanego modelowania semantycznego. |
wektor | Reprezentuje wyszukiwanie wektorów na podstawie obliczonych danych. |
vector_simple_hybrid | Reprezentuje kombinację prostej strategii zapytania z danymi wektorowymi. |
vector_semantic_hybrid | Reprezentuje kombinację semantycznego wyszukiwania i wykonywania zapytań dotyczących danych wektorowych. |
azureCosmosDBChatExtensionConfiguration
Konkretna reprezentacja konfigurowalnych opcji dla usługi Azure Cosmos DB w przypadku korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak | |
parameters | azureCosmosDBChatExtensionParameters | Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI w czacie danych podczas korzystania z usługi Azure Cosmos DB dla Rdzenie wirtualne bazy danych MongoDB. |
Nie. |
azureCosmosDBChatExtensionParameters
Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI na czacie danych podczas korzystania z usługi Azure Cosmos DB dla rdzeni wirtualnych bazy danych MongoDB.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
uwierzytelnianie | onYourDataConnectionStringAuthenticationOptions | Opcje uwierzytelniania dla usługi Azure OpenAI Na danych podczas korzystania z parametry połączenia. | Tak | |
top_n_documents | integer | Skonfigurowano maksymalną liczbę dokumentów do funkcji dla skonfigurowanego zapytania. | Nie. | |
in_scope | boolean | Czy zapytania powinny być ograniczone do używania indeksowanych danych. | Nie. | |
ścisłość | integer | Skonfigurowana ścisłość filtrowania istotności wyszukiwania. Im większa surowość, większa precyzja, ale niższa kompletność odpowiedzi. | Nie. | |
role_information | string | Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit tokenu 100 i jest liczone względem ogólnego limitu tokenów. | Nie. | |
database_name | string | Nazwa bazy danych mongoDB z rdzeniami wirtualnymi do użycia z usługą Azure Cosmos DB. | Tak | |
container_name | string | Nazwa kontenera zasobów usługi Azure Cosmos DB. | Tak | |
index_name | string | Nazwa indeksu rdzeni wirtualnych bazy danych MongoDB do użycia z usługą Azure Cosmos DB. | Tak | |
fields_mapping | azureCosmosDBFieldMappingOptions | Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB. | Tak | |
embedding_dependency | onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource | Tak |
azureCosmosDBFieldMappingOptions
Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
title_field | string | Nazwa pola indeksu, które ma być używane jako tytuł. | Nie. | |
url_field | string | Nazwa pola indeksu, które ma być używane jako adres URL. | Nie. | |
filepath_field | string | Nazwa pola indeksu do użycia jako ścieżka pliku. | Nie. | |
content_fields | tablica | Nazwy pól indeksu, które powinny być traktowane jako zawartość. | Tak | |
content_fields_separator | string | Wzorzec separatora, którego powinny używać pola zawartości. | Nie. | |
vector_fields | tablica | Nazwy pól reprezentujących dane wektorowe. | Tak |
onYourDataAuthenticationOptions
Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak |
onYourDataAuthenticationType
Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych.
Opis: Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: OnYourDataAuthenticationType
Wartości wyliczenia:
Wartość | Opis |
---|---|
api_key | Uwierzytelnianie za pośrednictwem klucza interfejsu API. |
connection_string | Uwierzytelnianie za pośrednictwem parametry połączenia. |
system_assigned_managed_identity | Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez system. |
user_assigned_managed_identity | Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez użytkownika. |
onYourDataApiKeyAuthenticationOptions
Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z klucza interfejsu API.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak | |
klucz | string | Klucz interfejsu API do użycia do uwierzytelniania. | Nie. |
onYourDataConnectionStringAuthenticationOptions
Opcje uwierzytelniania dla usługi Azure OpenAI Na danych podczas korzystania z parametry połączenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak | |
connection_string | string | Parametry połączenia do użycia do uwierzytelniania. | Nie. |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez system.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez użytkownika.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak | |
managed_identity_resource_id | string | Identyfikator zasobu tożsamości zarządzanej przypisanej przez użytkownika do użycia do uwierzytelniania. | Nie. |
onYourDataVectorizationSource
Abstrakcyjna reprezentacja źródła wektoryzacji dla usługi Azure OpenAI On Your Data z wyszukiwaniem wektorowym.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwanie wektorów. |
Tak |
onYourDataVectorizationSourceType
Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data może służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwaniem wektorowym.
Opis: Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
Wyszukiwanie wektorowe.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: OnYourDataVectorizationSourceType
Wartości wyliczenia:
Wartość | Opis |
---|---|
endpoint | Reprezentuje wektoryzację wykonywaną przez wywołania usług publicznych do modelu osadzania usługi Azure OpenAI. |
deployment_name | Reprezentuje nazwę wdrożenia modelu Ada do użycia. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale Funkcja na danych będzie używać tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wektor wyszukiwanie nawet w sieciach prywatnych. |
onYourDataDeploymentNameVectorizationSource
Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na wewnętrznej nazwie wdrożenia modelu osadzania w tym samym zasobie usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwanie wektorów. |
Tak | |
deployment_name | string | Określa nazwę wdrożenia modelu do użycia na potrzeby wektoryzacji. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale w danych będzie używać tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. | Nie. |
onYourDataEndpointVectorizationSource
Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na publicznym punkcie końcowym osadzania dla usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwanie wektorów. |
Tak | |
uwierzytelnianie | onYourDataApiKeyAuthenticationOptions | Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z klucza interfejsu API. | Nie. | |
endpoint | string | Określa punkt końcowy, który ma być używany do wektoryzacji. Ten punkt końcowy musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale w danych użyje tego punktu końcowego za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. | Nie. |
azureChatExtensionsMessageContext
Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy rozszerzenia czatu usługi Azure OpenAI są zaangażowane w generowanie odpowiedniej odpowiedzi na czat. Te informacje kontekstowe są wypełniane tylko w przypadku używania żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Cytatów | tablica | Wynik pobierania źródła danych używany do generowania komunikatu asystenta w odpowiedzi. | Nie. | |
Intencja | string | Wykryta intencja z historii czatu użyta do przekazania do następnego kroku w celu przeniesienia kontekstu. | Nie. |
Odsyłacz bibliograficzny
Informacje cytatu dotyczące komunikatu odpowiedzi na zakończenie czatu.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
content | string | Zawartość cytatu. | Tak | |
title | string | Tytuł cytatu. | Nie. | |
Adres URL | string | Adres URL cytatu. | Nie. | |
ścieżka pliku | string | Ścieżka pliku cytatu. | Nie. | |
chunk_id | string | Identyfikator fragmentu cytatu. | Nie. |
chatCompletionMessageToolCall
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | string | Identyfikator wywołania narzędzia. | Tak | |
type | toolCallType | W tym przypadku function typ wywołania narzędzia . |
Tak | |
function | obiekt | Funkcja wywoływana przez model. | Tak |
Właściwości funkcji
Nazwisko
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. |
Argumenty
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | string | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może utworzyć sieć szkieletową parametrów, które nie są zdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
toolCallType
W tym przypadku function
typ wywołania narzędzia .
Opis: typ wywołania narzędzia, w tym przypadku function
.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: ToolCallType
Wartości wyliczenia:
Wartość | Opis |
---|---|
function | Typ wywołania narzędzia to funkcja. |
chatCompletionRequestMessageTool
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Rola autora wiadomości. | Tak | |
tool_call_id | string | Wywołanie narzędzia, na które odpowiada ten komunikat. | Nie. | |
content | string | Zawartość wiadomości. | Nie. |
chatCompletionRequestMessageFunction
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | wyliczenie | Rola autora komunikatów, w tym przypadku function .Możliwe wartości: funkcja |
Tak | |
nazwa | string | Zawartość wiadomości. | Nie. | |
content | string | Zawartość wiadomości. | Nie. |
createChatCompletionResponse
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | string | Unikatowy identyfikator ukończenia czatu. | Tak | |
obiekt | chatCompletionResponseObject | Typ obiektu. | Tak | |
utworzono | integer | Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. | Tak | |
model | string | Model używany do ukończenia czatu. | Tak | |
użycie | completionUsage | Statystyki użycia dla żądania ukończenia. | Nie. | |
system_fingerprint | string | Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm. |
Nie. | |
prompt_filter_results | promptFilterResults | Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach. | Nie. | |
Wyborów | tablica | Nie. |
chatCompletionChoiceLogProbs
Informacje o prawdopodobieństwie rejestrowania dla wybranego elementu.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
content | tablica | Lista tokenów zawartości komunikatów z informacjami o prawdopodobieństwa dziennika. | Tak |
chatCompletionTokenLogprob
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
token | string | Token. | Tak | |
logprob | Liczba | Prawdopodobieństwo dziennika tego tokenu. | Tak | |
B | tablica | Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może to być null , jeśli nie ma reprezentacji bajtów dla tokenu. |
Tak | |
top_logprobs | tablica | Lista najbardziej prawdopodobnych tokenów i ich prawdopodobieństwa dziennika na tej pozycji tokenu. W rzadkich przypadkach może być mniej niż liczba zwróconych żądań top_logprobs . |
Tak |
chatCompletionResponseMessage
Komunikat ukończenia czatu wygenerowany przez model.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | Rola autora komunikatu odpowiedzi. | Nie. | |
content | string | Zawartość wiadomości. | Nie. | |
tool_calls | tablica | Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. | Nie. | |
function_call | chatCompletionFunctionCall | Przestarzałe i zastąpione przez tool_calls . Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. |
Nie. | |
kontekst | azureChatExtensionsMessageContext | Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy są zaangażowane rozszerzenia czatu usługi Azure OpenAI w generacji odpowiadającej odpowiedzi na ukończenie czatu. Te informacje kontekstowe są wypełniane tylko wtedy, gdy przy użyciu żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia. |
Nie. |
chatCompletionResponseMessageRole
Rola autora komunikatu odpowiedzi.
Opis: rola autora komunikatu odpowiedzi.
Typ: ciąg
Domyślnie:
Wartości wyliczenia:
- asystent
chatCompletionToolChoiceOption
Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none
oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto
oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}}
wymusza wywołanie tej funkcji przez model.
Ten składnik może być jednym z następujących elementów:
chatCompletionNamedToolChoice
Określa narzędzie, które ma być używane przez model. Użyj polecenia , aby wymusić wywołanie określonej funkcji przez model.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.Możliwe wartości: funkcja |
Nie. | |
function | obiekt | Nie. |
Właściwości funkcji
Nazwisko
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. |
chatCompletionFunctionCall
Przestarzałe i zastąpione przez tool_calls
. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. | Tak | |
Argumenty | string | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może utworzyć sieć szkieletową parametrów, które nie są zdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. | Tak |
chatCompletionsResponseCommon
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | string | Unikatowy identyfikator ukończenia czatu. | Tak | |
obiekt | chatCompletionResponseObject | Typ obiektu. | Tak | |
utworzono | integer | Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. | Tak | |
model | string | Model używany do ukończenia czatu. | Tak | |
użycie | completionUsage | Statystyki użycia dla żądania ukończenia. | Nie. | |
system_fingerprint | string | Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm. |
Nie. |
chatCompletionResponseObject
Typ obiektu.
Opis: typ obiektu.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: ChatCompletionResponseObject
Wartości wyliczenia:
Wartość | Opis |
---|---|
chat.completion | Typ obiektu to uzupełnianie czatu. |
completionUsage
Statystyki użycia dla żądania ukończenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
prompt_tokens | integer | Liczba tokenów w wierszu polecenia. | Tak | |
completion_tokens | integer | Liczba tokenów w wygenerowanych ukończeniu. | Tak | |
total_tokens | integer | Łączna liczba tokenów używanych w żądaniu (monit + ukończenie). | Tak |
chatCompletionTool
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | chatCompletionToolType | Typ narzędzia. Obecnie obsługiwane są tylko function te elementy. |
Tak | |
function | obiekt | Tak |
Właściwości funkcji
opis
Nazwa/nazwisko | Pisz | Opis | Domyślny |
---|---|---|---|
opis | string | Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. |
Nazwisko
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. |
Parametry
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
parameters | chatCompletionFunctionParameters | Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z dokumentacją dotyczącą formatu schematu JSON. |
chatCompletionToolType
Typ narzędzia. Obecnie obsługiwane są tylko function
te elementy.
Opis: typ narzędzia. Obecnie obsługiwane są tylko function
te elementy.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: ChatCompletionToolType
Wartości wyliczenia:
Wartość | Opis |
---|---|
function | Typ narzędzia to funkcja. |
chatCompletionChoiceCommon
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
index | integer | Nie. | ||
finish_reason | string | Nie |
createTranslationRequest
Żądanie tłumaczenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
plik | string | Plik audio do tłumaczenia. | Tak | |
monit | string | Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być w języku angielskim. | Nie. | |
response_format | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperature | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. | Nie. | 0 |
audioResponse
Odpowiedź tłumaczenia lub transkrypcji, gdy response_format był w formacie JSON
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
text | string | Przetłumaczony lub transkrypowany tekst. | Tak |
audioVerboseResponse
Odpowiedź tłumaczenia lub transkrypcji, gdy response_format była verbose_json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
text | string | Przetłumaczony lub transkrypowany tekst. | Tak | |
task | string | Typ zadania audio. | Nie. | |
język | string | Język. | Nie. | |
czas trwania | Liczba | Czas trwania. | Nie. | |
segmenty | tablica | Nie. |
audioResponseFormat
Definiuje format danych wyjściowych.
Opis: definiuje format danych wyjściowych.
Typ: ciąg
Domyślnie:
Wartości wyliczenia:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Żądanie transkrypcji.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
plik | string | Obiekt pliku audio do transkrypcji. | Tak | |
monit | string | Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być zgodny z językiem dźwięku. | Nie. | |
response_format | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperature | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. | Nie. | 0 |
język | string | Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. | Nie. |
audioSegment
Transkrypcja lub segment tłumaczenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | integer | Identyfikator segmentu. | Nie. | |
szukać | Liczba | Przesunięcie segmentu. | Nie. | |
start | Liczba | Przesunięcie rozpoczęcia segmentu. | Nie. | |
end | Liczba | Przesunięcie końcowe segmentu. | Nie. | |
text | string | Tekst segmentu. | Nie. | |
Tokeny | tablica | Tokeny tekstu. | Nie. | |
temperature | Liczba | Temperatura. | Nie. | |
avg_logprob | Liczba | Średnie prawdopodobieństwo dziennika. | Nie. | |
compression_ratio | Liczba | Sprężania. | Nie. | |
no_speech_prob | Liczba | Prawdopodobieństwo braku mowy. | Nie. |
imageQuality
Jakość obrazu, który zostanie wygenerowany.
Opis: jakość obrazu, który zostanie wygenerowany.
Typ: ciąg
Wartość domyślna: standardowa
Nazwa wyliczenia: Jakość
Wartości wyliczenia:
Wartość | Opis |
---|---|
standardowa | Standardowa jakość tworzy obrazy o standardowej jakości. |
Hd | Jakość hd tworzy obrazy z bardziej szczegółowymi szczegółami i większą spójnością na obrazie. |
imagesResponseFormat
Format, w którym są zwracane wygenerowane obrazy.
Opis: format, w którym są zwracane wygenerowane obrazy.
Typ: ciąg
Ustawienie domyślne: adres URL
Nazwa wyliczenia: ImagesResponseFormat
Wartości wyliczenia:
Wartość | Opis |
---|---|
Adres URL | Adres URL, który zapewnia tymczasowy dostęp do pobierania wygenerowanych obrazów. |
b64_json | Wygenerowane obrazy są zwracane jako ciąg zakodowany w formacie base64. |
imageSize
Rozmiar wygenerowanych obrazów.
Opis: rozmiar wygenerowanych obrazów.
Typ: ciąg
Ustawienie domyślne: 1024x1024
Nazwa wyliczenia: rozmiar
Wartości wyliczenia:
Wartość | Opis |
---|---|
1792x1024 | Żądany rozmiar wygenerowanego obrazu to 1792 x 1024 pikseli. |
1024x1792 | Żądany rozmiar wygenerowanego obrazu to 1024 x 1792 pikseli. |
1024x1024 | Żądany rozmiar wygenerowanego obrazu to 1024 x 1024 pikseli. |
imageStyle
Styl wygenerowanych obrazów.
Opis: styl wygenerowanych obrazów.
Typ: ciąg
Ustawienie domyślne: żywe
Nazwa wyliczenia: styl
Wartości wyliczenia:
Wartość | Opis |
---|---|
żywy | Vivid tworzy obrazy, które są hiperrealistyczne i dramatyczne. |
naturalny | Naturalne tworzy obrazy, które są bardziej naturalne i mniej hiperrealistyczne. |
imageGenerationsRequest
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
monit | string | Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. | Tak | |
n | integer | Liczba obrazów do wygenerowania. | Nie. | 1 |
size | imageSize | Rozmiar wygenerowanych obrazów. | Nie. | 1024x1024 |
response_format | imagesResponseFormat | Format, w którym są zwracane wygenerowane obrazy. | Nie. | Adres URL |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
jakość | imageQuality | Jakość obrazu, który zostanie wygenerowany. | Nie. | standardowa |
— styl | imageStyle | Styl wygenerowanych obrazów. | Nie. | żywy |
generateImagesResponse
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
utworzono | integer | Sygnatura czasowa systemu unix podczas tworzenia operacji. | Tak | |
dane | tablica | Dane wynikowe operacji, jeśli operacja zakończyła się pomyślnie | Tak |
imageResult
Adres URL obrazu lub zakodowany obraz, jeśli się powiedzie, i błąd w przeciwnym razie.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Adres URL | string | Adres URL obrazu. | Nie. | |
b64_json | string | Obraz zakodowany w formacie base64 | Nie. | |
content_filter_results | dalleContentFilterResults | Informacje o wynikach filtrowania zawartości. | Nie. | |
revised_prompt | string | Monit, który został użyty do wygenerowania obrazu, jeśli wystąpiła jakakolwiek poprawka do monitu. | Nie. | |
prompt_filter_results | dalleFilterResults | Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. | Nie. |
Rozszerzenia uzupełniania
Rozszerzenia uzupełniania nie są częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.
Czatmessage
Obiekt komunikatu czatu nie jest częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.
Zamiana tekstu na mowę
Obecnie nie jest częścią najnowszej wersji ogólnodostępnej platformy Azure OpenAI w specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI. Zapoznaj się z najnowszą wersją zapoznawcza tej funkcji.
Następne kroki
Dowiedz się więcej o modelach i dostrajaniu za pomocą interfejsu API REST. Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.
Opinia
https://aka.ms/ContentUserFeedback.
Dostępne już wkrótce: W 2024 r. będziemy stopniowo wycofywać zgłoszenia z serwisu GitHub jako mechanizm przesyłania opinii na temat zawartości i zastępować go nowym systemem opinii. Aby uzyskać więcej informacji, sprawdź:Prześlij i wyświetl opinię dla