Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ten artykuł zawiera szczegółowe informacje na temat punktów końcowych interfejsu API REST wnioskowania dla usługi Azure OpenAI.
Specyfikacje interfejsu API
Zarządzanie modelami i zasobami Azure OpenAI oraz interakcja z nimi są podzielone na trzy podstawowe elementy interfejsu API.
- Płaszczyzna sterowania
- Płaszczyzna danych — tworzenie
- Płaszczyzna danych — wnioskowanie
Każda powierzchnia/specyfikacja interfejsu API hermetyzuje inny zestaw funkcji usługi Azure OpenAI. Każdy interfejs API ma swój własny unikatowy zestaw wersji zapoznawczych i stabilne/ogólnie dostępne wersje interfejsu API. Obecnie wersje zapoznawcze zwykle podążają za miesięcznym harmonogramem.
Ważne
Teraz dostępny jest nowy interfejs API do wnioskowania w wersji zapoznawczej. Dowiedz się więcej w naszym przewodniku cyklu życia interfejsu API.
API | Najnowsza wersja zapoznawcza | Najnowsza wersja ogólnie dostępna | Specyfikacje | Opis |
---|---|---|---|---|
Płaszczyzna sterowania | 2024-06-01-preview |
2024-10-01 |
Pliki specyfikacji | Usługa Azure OpenAI dzieli wspólną płaszczyznę zarządzania ze wszystkimi innymi usługami. Interfejs API płaszczyzny sterowania służy do tworzenia zasobów usługi Azure OpenAI, wdrażania modelu i innych zadań zarządzania zasobami wyższego poziomu. Płaszczyzna sterowania decyduje również o możliwościach wykorzystania takich narzędzi, jak Azure Resource Manager, Bicep, Terraform i Azure CLI. |
Płaszczyzna danych — tworzenie | 2025-04-01-preview |
2024-10-21 |
Pliki specyfikacji | Interfejs API tworzenia płaszczyzny danych steruje dostrajaniem, przesyłaniem plików, przetwarzaniem danych, procesami wsadowymi i określonymi zapytaniami na poziomie modelu. |
Płaszczyzna danych — wnioskowanie | 2025-04-01-preview |
2024-10-21 |
Pliki specyfikacji | Interfejs API wnioskowania w płaszczyźnie danych zapewnia możliwości wnioskowania oraz punkty końcowe dla funkcji takich jak kompletności, ukończenie czatu, osadzanie, dźwięk, Twoje dane, DALL-E, asystenci itp. |
Uwierzytelnianie
Usługa Azure OpenAI udostępnia dwie metody uwierzytelniania. Możesz użyć kluczy interfejsu API lub Microsoft Entra ID.
Uwierzytelnianie klucza interfejsu API: w przypadku tego typu uwierzytelniania wszystkie żądania interfejsu API muszą zawierać klucz interfejsu API w nagłówku
api-key
HTTP. Przewodnik Szybki start zawiera wskazówki dotyczące wykonywania wywołań przy użyciu tego typu uwierzytelniania.Uwierzytelnianie identyfikatora Entra firmy Microsoft: możesz uwierzytelnić wywołanie interfejsu API przy użyciu tokenu Entra firmy Microsoft. Tokeny uwierzytelniania są dołączane do żądania jako nagłówka
Authorization
. Podany token musi być poprzedzony elementemBearer
, na przykładBearer YOUR_AUTH_TOKEN
. Możesz przeczytać nasz przewodnik z instrukcjami dotyczącymi uwierzytelniania za pomocą identyfikatora Entra firmy Microsoft.
Przechowywanie wersji interfejsu API REST
Interfejsy API usługi są wersjonowane za pomocą parametru api-version
zapytania. Wszystkie wersje są zgodne ze strukturą dat RRRR-MM-DD. Przykład:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Wnioskowanie płaszczyzny danych
W pozostałej części artykułu omówiono najnowszą wersję ogólnodostępną specyfikacji wnioskowania płaszczyzny danych platformy Azure OpenAI. 2024-10-21
Jeśli szukasz dokumentacji najnowszej wersji zapoznawczej interfejsu API, zapoznaj się z najnowszym interfejsem API wnioskowania płaszczyzny danych w wersji zapoznawczej
Uzupełnienia
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Tworzy uzupełnienie dla podanej podpowiedzi, parametrów i wybranego modelu.
Parametry identyfikatora URI
Nazwa | W | Wymagane | Typ | Opis |
---|---|---|---|---|
punkt końcowy | ścieżka | Tak | ciąg URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com ". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com |
identyfikator wdrożenia | ścieżka | Tak | ciąg | Identyfikator wdrożenia modelu, który został wdrożony. |
wersja API | kwerenda | Tak | ciąg | wersja API |
Nagłówek żądania
Nazwa | Wymagane | Typ | Opis |
---|---|---|---|
klucz API | Prawda | ciąg | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: aplikacja/json
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | createCompletionResponse | Reprezentuje odpowiedź końcową z interfejsu API. Uwaga: obiekty odpowiedzi przesyłane strumieniowo i nieprzesyłane strumieniowo mają taką samą strukturę (w przeciwieństwie do punktu końcowego czatowego). |
Kod stanu: wartość domyślna
Opis: Usługa niedostępna
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | errorResponse |
Przykłady
Przykład
Tworzy uzupełnienie dla podanej podpowiedzi, parametrów i wybranego modelu.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Osadzanie
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Uzyskaj wektorową reprezentację danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego.
Parametry identyfikatora URI
Nazwa | W | Wymagane | Typ | Opis |
---|---|---|---|---|
punkt końcowy | ścieżka | Tak | ciąg URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com ". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com |
identyfikator wdrożenia | ścieżka | Tak | ciąg | |
wersja API | kwerenda | Tak | ciąg | wersja API |
Nagłówek żądania
Nazwa | Wymagane | Typ | Opis |
---|---|---|---|
klucz API | Prawda | ciąg | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: aplikacja/json
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
dane wejściowe | ciąg lub tablica | Tekst wejściowy do osadzenia, zakodowany jako ciąg lub tablica tokenów. Aby osadzić wiele danych wejściowych w jednym żądaniu, przekaż tablicę ciągów lub tablicę tablic tokenów. Dane wejściowe nie mogą przekraczać maksymalnych tokenów wejściowych dla modelu (8192 tokenów dla text-embedding-ada-002 ), nie mogą być pustymi ciągami, a każda tablica musi mieć 2048 wymiarów lub mniej. |
Tak | |
użytkownik | ciąg | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
typ_wprowadzenia | ciąg | typ wyszukiwania osadzania, którego chcesz użyć | Nie. | |
format_kodowania | ciąg | Format, w jakim można zwrócić osadzenia. Może to być wartość float lub base64 . Wartość domyślna to float . |
Nie. | |
wymiary | liczba całkowita | Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. |
Nie. |
Odpowiedzi
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
obiekt | ciąg | Tak | ||
model | ciąg | Tak | ||
dane | macierz | Tak | ||
użycie | obiekt | Tak |
Właściwości użycia
tokeny_wywołania
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
tokeny_wywołania | liczba całkowita |
suma_znaczniki
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
suma_znaczniki | liczba całkowita |
Kod stanu: 200
Opis: OK
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | obiekt |
Przykłady
Przykład
Zwróć wektory osadzeń dla danego zapytania.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Ukończenie czatu
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Tworzy uzupełnienie wiadomości na czacie
Parametry identyfikatora URI
Nazwa | W | Wymagane | Typ | Opis |
---|---|---|---|---|
punkt końcowy | ścieżka | Tak | ciąg URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com ". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com |
identyfikator wdrożenia | ścieżka | Tak | ciąg | Identyfikator wdrożenia modelu, który został wdrożony. |
wersja API | kwerenda | Tak | ciąg | wersja API |
Nagłówek żądania
Nazwa | Wymagane | Typ | Opis |
---|---|---|---|
klucz API | Prawda | ciąg | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: aplikacja/json
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
temperatura | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Ogólnie zalecamy zmienić to lub top_p , ale nie obu jednocześnie. |
Nie. | 1 |
top_p | Liczba | Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa. Ogólnie zalecamy zmienić to lub temperature , ale nie obu jednocześnie. |
Nie. | 1 |
odtwarzać strumieniowo | typ logiczny (boolowski) | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane przez serwer, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . |
Nie. | Nieprawda |
zatrzymaj | ciąg lub tablica | Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. |
Nie. | |
maks_tokenów | liczba całkowita | Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu. Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu. |
Nie. | |
max_completion_tokens (maksymalna liczba tokenów zakończenia) | liczba całkowita | Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. | Nie. | |
kara_obecności | Liczba | Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy. |
Nie. | 0 |
kara za częstotliwość | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
Nie. | 0 |
odchylenie logistyczne | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. |
Nie. | Żaden |
użytkownik | ciąg | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. |
Nie. | |
wiadomości | macierz | Lista wiadomości składających się z konwersacji do tej pory. | Tak | |
źródła danych | macierz | Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają. Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI. |
Nie. | |
logprobs | typ logiczny (boolowski) | Czy zwracać logarytmiczne prawdopodobieństwa dla tokenów wyjściowych, czy nie. Jeśli true, zwraca logarytmiczne prawdopodobieństwa każdego tokenu wyjściowego zwróconego w content elementu message . |
Nie. | Nieprawda |
top_logprobs | liczba całkowita | Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo.
logprobs musi być ustawione na true , jeśli ten parametr jest używany. |
Nie. | |
n | liczba całkowita | Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n jako 1 aby zminimalizować koszty. |
Nie. | 1 |
wywołania_narzędzia_równoległe | ParallelToolCalls | Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. | Nie. | Prawda |
format_odpowiedzi | ResponseFormatText lub ResponseFormatJsonObject lub ResponseFormatJsonSchema | Obiekt określający format, który musi zostać wygenerowany przez model. Zgodny z GPT-4o, GPT-4o mini, GPT-4 Turbo oraz wszystkimi modelami GPT-3.5 Turbo nowszymi niż gpt-3.5-turbo-1106 .Ustawienie w celu { "type": "json_schema", "json_schema": {...} } włączenia danych wyjściowych ze strukturą, które gwarantuje, że model będzie zgodny z podanym schematem JSON.Ustawienie { "type": "json_object" } włącza tryb JSON, co gwarantuje, że komunikat generowany przez model jest poprawnym kodem JSON.Ważne: w przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemowego lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length" , co oznacza, że generacja przekroczyła max_tokens lub jeśli rozmowa przekroczyła maksymalną długość kontekstu. |
Nie. | |
nasienie | liczba całkowita | Ta funkcja jest dostępna w wersji beta. Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.Determinizm nie jest gwarantowany i należy odwołać się do parametru odpowiedzi system_fingerprint w celu monitorowania zmian na serwerze. |
Nie. | |
narzędzia | macierz | Lista narzędzi, które model może wywołać. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji. |
Nie. | |
wybór narzędzia | chatCompletionToolChoiceOption | Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.
none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.
required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.
none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne.
auto jest wartością domyślną, jeśli istnieją narzędzia. |
Nie. | |
wywołanie_funkcji | ciąg lub czatCompletionFunctionCallOption | Przestarzałe na rzecz tool_choice .Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji, a zamiast tego generuje komunikat.auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji.Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.none jest wartością domyślną, gdy nie ma żadnych funkcji.
auto jest wartością domyślną, jeśli funkcje są obecne. |
Nie. | |
— funkcje | macierz | Przestarzałe na rzecz tools .Lista funkcji, dla których model może generować dane wejściowe JSON. |
Nie. |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | createChatCompletionResponse lub createChatCompletionStreamResponse |
Kod stanu: wartość domyślna
Opis: Usługa niedostępna
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | errorResponse |
Przykłady
Przykład
Tworzy uzupełnienie dla podanej podpowiedzi, parametrów i wybranego modelu.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy uzupełnienie w oparciu o dane z Azure Search oraz zarządzaną tożsamość przypisaną przez system.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy uzupełnianie na podstawie danych wektora usługi Azure Search, poprzedniego komunikatu asystenta i tożsamości zarządzanej przypisanej przez użytkownika.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy ukończenie dla podanej usługi Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkrypcje — tworzenie
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transkrybuje dźwięk w języku wejściowym.
Parametry identyfikatora URI
Nazwa | W | Wymagane | Typ | Opis |
---|---|---|---|---|
punkt końcowy | ścieżka | Tak | ciąg URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com ". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com |
identyfikator wdrożenia | ścieżka | Tak | ciąg | Identyfikator wdrożenia modelu przekształcania mowy na tekst. Aby uzyskać informacje o obsługiwanych modelach, zobacz [/azure/ai-services/openai/concepts/models#audio-models]. |
wersja API | kwerenda | Tak | ciąg | wersja API |
Nagłówek żądania
Nazwa | Wymagane | Typ | Opis |
---|---|---|---|
klucz API | Prawda | ciąg | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: dane wielu części/formularzu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
plik | ciąg | Obiekt pliku audio do transkrypcji. | Tak | |
monit | ciąg | Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Komunikat powinien być zgodny z językiem dźwięku. | Nie. | |
format_odpowiedzi | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperatura | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje logarytmu prawdopodobieństwa, aby automatycznie zwiększyć temperaturę, aż zostaną osiągnięte określone progi. | Nie. | 0 |
język | ciąg | Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. | Nie. |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | audioResponse lub audioVerboseResponse | |
tekst/zwykły | ciąg | Transkrypcja tekstu w formacie wyjściowym (kiedy response_format był jednym z tekst, vtt lub srt). |
Przykłady
Przykład
Pobiera transkrybowany tekst i powiązane metadane z dostarczonych danych dźwiękowych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Odpowiedzi: Kod stanu: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Przykład
Pobiera transkrybowany tekst i powiązane metadane z dostarczonych danych dźwiękowych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Tłumaczenia — tworzenie
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transkrybuje i tłumaczy dźwięk wejściowy na tekst w języku angielskim.
Parametry identyfikatora URI
Nazwa | W | Wymagane | Typ | Opis |
---|---|---|---|---|
punkt końcowy | ścieżka | Tak | ciąg URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com ". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com |
identyfikator wdrożenia | ścieżka | Tak | ciąg | Identyfikator wdrożenia modelu whisper, który został wdrożony. Aby uzyskać informacje o obsługiwanych modelach, zobacz [/azure/ai-services/openai/concepts/models#audio-models]. |
wersja API | kwerenda | Tak | ciąg | wersja API |
Nagłówek żądania
Nazwa | Wymagane | Typ | Opis |
---|---|---|---|
klucz API | Prawda | ciąg | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: dane wielu części/formularzu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
plik | ciąg | Plik audio do tłumaczenia. | Tak | |
monit | ciąg | Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Monit powinien być w języku angielskim. | Nie. | |
format_odpowiedzi | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperatura | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje logarytmu prawdopodobieństwa, aby automatycznie zwiększyć temperaturę, aż zostaną osiągnięte określone progi. | Nie. | 0 |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | audioResponse lub audioVerboseResponse | |
tekst/zwykły | ciąg | Transkrypcja tekstu w formacie wyjściowym (kiedy response_format był jednym z tekst, vtt lub srt). |
Przykłady
Przykład
Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Przykład
Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Generowanie obrazu
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Generuje zestaw obrazów na podstawie opisu tekstowego dla wdrożonego modelu dall-e
Parametry identyfikatora URI
Nazwa | W | Wymagane | Typ | Opis |
---|---|---|---|---|
punkt końcowy | ścieżka | Tak | ciąg URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com ". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com |
identyfikator wdrożenia | ścieżka | Tak | ciąg | Identyfikator wdrożonego modelu dall-e. |
wersja API | kwerenda | Tak | ciąg | wersja API |
Nagłówek żądania
Nazwa | Wymagane | Typ | Opis |
---|---|---|---|
klucz API | Prawda | ciąg | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: aplikacja/json
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
monit | ciąg | Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. | Tak | |
n | liczba całkowita | Liczba obrazów do wygenerowania. | Nie. | 1 |
rozmiar | imageSize | Rozmiar wygenerowanych obrazów. | Nie. | 1024x1024 |
format_odpowiedzi | imagesResponseFormat | Format, w którym są zwracane wygenerowane obrazy. | Nie. | URL |
użytkownik | ciąg | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
jakość | imageQuality | Jakość obrazu, który zostanie wygenerowany. | Nie. | standard |
styl | imageStyle | Styl wygenerowanych obrazów. | Nie. | żywy |
Odpowiedzi
Kod stanu: 200
Opis: Ok
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | generateImagesResponse |
Kod stanu: wartość domyślna
Opis: Wystąpił błąd.
Typ zawartości | Typ | Opis |
---|---|---|
aplikacja/json | dalleErrorResponse |
Przykłady
Przykład
Tworzy obrazy z monitem.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Komponenty
odpowiedź na błąd
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
błąd | błąd | Nie. |
errorBase
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
kod | ciąg | Nie. | ||
komunikat | ciąg | Nie. |
błąd
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
Param | ciąg | Nie. | ||
typ | ciąg | Nie. | ||
wewnętrzny_błąd | innerError | Wewnętrzny błąd z dodatkowymi szczegółami. | Nie. |
błąd wewnętrzny
Wewnętrzny błąd z dodatkowymi szczegółami.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
kod | innerErrorCode | Kody błędów dla obiektu błędu wewnętrznego. | Nie. | |
wyniki_filtra_treści | contentFilterPromptResults | Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator. | Nie. |
kod błędu wewnętrznego
Kody błędów dla obiektu błędu wewnętrznego.
Opis: Kody błędów dla wewnętrznego obiektu błędu.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: InnerErrorCode
Wartości enuma
Wartość | Opis |
---|---|
Naruszenie Polityki Odpowiedzialnego SI | Monit naruszył jedną z więcej reguł filtrowania zawartości. |
dalleErrorResponse
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
błąd | dalleError | Nie. |
dalleError
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
Param | ciąg | Nie. | ||
typ | ciąg | Nie. | ||
wewnętrzny_błąd | dalleInnerError | Wewnętrzny błąd z dodatkowymi szczegółami. | Nie. |
dalleInnerError
Wewnętrzny błąd z dodatkowymi szczegółami.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
kod | innerErrorCode | Kody błędów dla obiektu błędu wewnętrznego. | Nie. | |
wyniki_filtra_treści | dalleFilterResults | Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator. | Nie. | |
(revised_prompt remains unchanged, assuming it is a placeholder requiring no translation or adaptation) | ciąg | Polecenie, które zostało użyte do wygenerowania obrazu, jeśli dokonano jakiejkolwiek poprawki do podpowiedzi. | Nie. |
podstawaWynikuFiltraZawartości
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
Filtrowane | typ logiczny (boolowski) | Tak |
WynikPoziomuSurowościFiltraTreści
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
Filtrowane | typ logiczny (boolowski) | Tak | ||
dotkliwość | ciąg | Nie. |
WykrytoWynikFiltruTreści
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
Filtrowane | typ logiczny (boolowski) | Tak | ||
Wykryte | typ logiczny (boolowski) | Nie. |
Filtr treści wykryty z wynikiem cytowania
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
cytat | obiekt | Nie. |
Właściwości cytatu
adres URL
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
adres URL | ciąg |
licencja
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
licencja | ciąg |
PodstawaWynikówFiltraZawartości
Informacje o wynikach filtrowania zawartości.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
seksualny | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
przemoc | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
nienawiść | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
samookaleczenie | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
wulgaryzm | wynikWykrywaniaFiltruZawartości | Nie. | ||
błąd | errorBase | Nie. |
WynikiMonituFiltracjiTreści
Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
seksualny | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
przemoc | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
nienawiść | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
samookaleczenie | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
wulgaryzm | wynikWykrywaniaFiltruZawartości | Nie. | ||
błąd | errorBase | Nie. | ||
odblokowanie | wynikWykrywaniaFiltruZawartości | Nie. |
wynikiWyboruFiltruZawartości
Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o tekście pochodzącym od podmiotów trzecich oraz o wulgaryzmach, czy zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
seksualny | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
przemoc | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
nienawiść | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
samookaleczenie | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
wulgaryzm | wynikWykrywaniaFiltruZawartości | Nie. | ||
błąd | errorBase | Nie. | ||
chroniony_materiał_tekst | wynikWykrywaniaFiltruZawartości | Nie. | ||
kod_materiały_chronione | wykryto filtr treści z wynikiem cytowania | Nie. |
WynikFiltrowaniaPromptu
Wyniki filtrowania treści dla pojedynczego polecenia w żądaniu.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
indeks_monitu | liczba całkowita | Nie. | ||
wyniki_filtra_treści | contentFilterPromptResults | Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator. | Nie. |
pokażWynikiFiltru
Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności.
Brak zdefiniowanych właściwości dla tego składnika.
Wyniki Filtra Treści DALL-E
Informacje o wynikach filtrowania zawartości.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
seksualny | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
przemoc | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
nienawiść | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
samookaleczenie | WynikFiltrowaniaZawartościWedługNasilenia | Nie. |
wyniki filtra DALLE
Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
seksualny | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
przemoc | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
nienawiść | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
samookaleczenie | WynikFiltrowaniaZawartościWedługNasilenia | Nie. | ||
wulgaryzm | wynikWykrywaniaFiltruZawartości | Nie. | ||
odblokowanie | wynikWykrywaniaFiltruZawartości | Nie. |
ŻądanieKończeniaCzatuWspólne
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
temperatura | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Ogólnie zalecamy zmienić to lub top_p , ale nie obu jednocześnie. |
Nie. | 1 |
top_p | Liczba | Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa. Ogólnie zalecamy zmienić to lub temperature , ale nie obu jednocześnie. |
Nie. | 1 |
odtwarzać strumieniowo | typ logiczny (boolowski) | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia jednokierunkowe przesyłane do serwera w miarę ich dostępności, a strumień zostanie zakończony komunikatem data: [DONE] . |
Nie. | Nieprawda |
zatrzymaj | ciąg lub tablica | Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. | Nie. | |
maks_tokenów | liczba całkowita | Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które model może zwrócić, wynosi (4096 - tokeny podpowiedzi). Ta wartość jest teraz przestarzała na rzecz max_completion_tokens , i nie jest kompatybilna z modelami z serii o1. |
Nie. | 4096 |
max_completion_tokens (maksymalna liczba tokenów zakończenia) | liczba całkowita | Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. | Nie. | |
kara_obecności | Liczba | Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy. | Nie. | 0 |
kara za częstotliwość | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. | Nie. | 0 |
odchylenie logistyczne | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. | Nie. | |
użytkownik | ciąg | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. | Nie. |
utwórzŻądanieZakończenia
utwórzOdpowiedźNaUkończenie
Reprezentuje odpowiedź końcową z interfejsu API. Uwaga: obiekty odpowiedzi przesyłane strumieniowo i nieprzesyłane strumieniowo mają taką samą strukturę (w przeciwieństwie do punktu końcowego czatowego).
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
id | ciąg | Unikalny identyfikator ukończenia. | Tak | |
Wyborów | macierz | Lista opcji uzupełniania, które model wygenerował dla promptu wejściowego. | Tak | |
utworzone | liczba całkowita | Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia ukończenia. | Tak | |
model | ciąg | Model używany do ukończenia. | Tak | |
wyniki_filtru_poleceń | promptFilterResults | Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności. | Nie. | |
systemowy odcisk palca | ciąg | Ten odcisk palca reprezentuje zaplecze systemowe, z którym działa model. Można użyć w połączeniu z parametrem żądania seed , aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie. |
Nie. | |
obiekt | wyliczenie | Typ obiektu, który jest zawsze „ukończenie_tekstu” Możliwe wartości: text_completion |
Tak | |
użycie | completionUsage | Statystyki użycia dotyczące żądania zakończenia. | Nie. |
UtwórzŻądanieZakończeniaCzatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
temperatura | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Ogólnie zalecamy zmienić to lub top_p , ale nie obu jednocześnie. |
Nie. | 1 |
top_p | Liczba | Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa. Ogólnie zalecamy zmienić to lub temperature , ale nie obu jednocześnie. |
Nie. | 1 |
odtwarzać strumieniowo | typ logiczny (boolowski) | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane przez serwer, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . |
Nie. | Nieprawda |
zatrzymaj | ciąg lub tablica | Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. |
Nie. | |
maks_tokenów | liczba całkowita | Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu. Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu. |
Nie. | |
max_completion_tokens (maksymalna liczba tokenów zakończenia) | liczba całkowita | Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. | Nie. | |
kara_obecności | Liczba | Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy. |
Nie. | 0 |
kara za częstotliwość | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
Nie. | 0 |
odchylenie logistyczne | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. |
Nie. | Żaden |
użytkownik | ciąg | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. |
Nie. | |
wiadomości | macierz | Lista wiadomości składających się z konwersacji do tej pory. | Tak | |
źródła danych | macierz | Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają. Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI. |
Nie. | |
logprobs | typ logiczny (boolowski) | Czy zwracać logarytmiczne prawdopodobieństwa dla tokenów wyjściowych, czy nie. Jeśli true, zwraca logarytmiczne prawdopodobieństwa każdego tokenu wyjściowego zwróconego w content elementu message . |
Nie. | Nieprawda |
top_logprobs | liczba całkowita | Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo.
logprobs musi być ustawione na true , jeśli ten parametr jest używany. |
Nie. | |
n | liczba całkowita | Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n jako 1 aby zminimalizować koszty. |
Nie. | 1 |
wywołania_narzędzia_równoległe | ParallelToolCalls | Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. | Nie. | Prawda |
format_odpowiedzi | ResponseFormatText lub ResponseFormatJsonObject lub ResponseFormatJsonSchema | Obiekt określający format, który musi zostać wygenerowany przez model. Zgodny z GPT-4o, GPT-4o mini, GPT-4 Turbo oraz wszystkimi modelami GPT-3.5 Turbo nowszymi niż gpt-3.5-turbo-1106 .Ustawienie w celu { "type": "json_schema", "json_schema": {...} } włączenia danych wyjściowych ze strukturą, które gwarantuje, że model będzie zgodny z podanym schematem JSON.Ustawienie { "type": "json_object" } włącza tryb JSON, co gwarantuje, że komunikat generowany przez model jest poprawnym kodem JSON.Ważne: w przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemowego lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length" , co oznacza, że generacja przekroczyła max_tokens lub jeśli rozmowa przekroczyła maksymalną długość kontekstu. |
Nie. | |
nasienie | liczba całkowita | Ta funkcja jest dostępna w wersji beta. Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.Determinizm nie jest gwarantowany i należy odwołać się do parametru odpowiedzi system_fingerprint w celu monitorowania zmian na serwerze. |
Nie. | |
narzędzia | macierz | Lista narzędzi, które model może wywołać. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji. |
Nie. | |
wybór narzędzia | chatCompletionToolChoiceOption | Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.
none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.
required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.
none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne.
auto jest wartością domyślną, jeśli istnieją narzędzia. |
Nie. | |
wywołanie_funkcji | ciąg lub czatCompletionFunctionCallOption | Przestarzałe na rzecz tool_choice .Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji, a zamiast tego generuje komunikat.auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji.Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.none jest wartością domyślną, gdy nie ma żadnych funkcji.
auto jest wartością domyślną, jeśli funkcje są obecne. |
Nie. | |
— funkcje | macierz | Przestarzałe na rzecz tools .Lista funkcji, dla których model może generować dane wejściowe JSON. |
Nie. |
funkcjeUkończeniaChatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
opis | ciąg | Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. | Nie. | |
nazwa | ciąg | Nazwa funkcji do wywołania. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. | Tak | |
Parametry | Parametry funkcji | Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON.
Zapoznaj się z przewodnikiem w celu poznania przykładów oraz z odniesieniem do schematu JSON dla dokumentacji dotyczącej formatu. Pominięcie parameters definiuje funkcję z pustą listą parametrów. |
Nie. |
Opcja wywołania funkcji czatu zakończeniowego
Określenie określonej funkcji za pośrednictwem {"name": "my_function"}
wymusza wywołanie tej funkcji przez model.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
nazwa | ciąg | Nazwa funkcji do wywołania. | Tak |
chatCompletionRequestMessage
Ten składnik może być jednym z następujących elementów:
Wiadomość systemowa żądania ukończenia czatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
zawartość | ciąg lub tablica | Zawartość komunikatu systemowego. | Tak | |
rola | wyliczenie | Rola autora komunikatów, w tym przypadku system .Możliwe wartości: system |
Tak | |
nazwa | ciąg | Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. | Nie. |
wiadomośćUżytkownikaŻądaniaZakończeniaCzatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
zawartość | ciąg lub tablica | Zawartość wiadomości użytkownika. |
Tak | |
rola | wyliczenie | Rola autora komunikatów, w tym przypadku user .Możliwe wartości: użytkownik |
Tak | |
nazwa | ciąg | Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. | Nie. |
wiadomośćAsystentaZwiązanaZProśbąOukończenieCzatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
zawartość | ciąg lub tablica | Zawartość komunikatu asystenta. Wymagane, chyba że określono tool_calls lub function_call . |
Nie. | |
odmowa | ciąg | Wiadomość o odmowie asystenta. | Nie. | |
rola | wyliczenie | Rola autora komunikatów, w tym przypadku assistant .Możliwe wartości: asystent |
Tak | |
nazwa | ciąg | Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. | Nie. | |
wywołania_narzędzi | chatCompletionMessageToolCalls | Wywołania narzędzi generowane przez model, takie jak wywołania funkcji. | Nie. | |
wywołanie_funkcji | obiekt | Przestarzałe i zastąpione przez tool_calls . Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. |
Nie. |
Właściwości wywołania funkcji
Argumenty
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | ciąg | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
nazwa
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
nazwa | ciąg | Nazwa funkcji do wywołania. |
chatCompletionRequestToolMessage
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
rola | wyliczenie | Rola autora komunikatów, w tym przypadku tool .Możliwe wartości: narzędzie |
Tak | |
zawartość | ciąg lub tablica | Zawartość komunikatu narzędzia. | Tak | |
tool_call_id | ciąg | Wywołanie narzędzia, na które odpowiada ten komunikat. | Tak |
chatCompletionRequestFunctionMessage
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
rola | wyliczenie | Rola autora komunikatów, w tym przypadku function .Możliwe wartości: funkcja |
Tak | |
zawartość | ciąg | Zawartość komunikatu funkcji. | Tak | |
nazwa | ciąg | Nazwa funkcji do wywołania. | Tak |
Żądanie czatuUzupełnienieSystemKomunikatTreśćCzęść
Ten składnik może być jednym z następujących elementów:
częśćZawartościWiadomościUżytkownikaChatCompletionRequest
Ten składnik może być jednym z następujących elementów:
CzęśćTreściWiadomościAsystentaŻądaniaUkończeniaCzatu
Ten składnik może być jednym z następujących elementów:
TreśćWiadomościNarzędziaŻądaniaUkończeniaCzatu
Ten składnik może być jednym z następujących elementów:
zawartośćCzęściWiadomościŻądaniaUkończeniaCzatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | wyliczenie | Typ części zawartości. Możliwe wartości: tekst |
Tak | |
SMS | ciąg | Zawartość tekstowa. | Tak |
zawartośćObrazuCzęściWiadomościŻądaniaUkończeniaCzatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | wyliczenie | Typ części zawartości. Możliwe wartości: image_url |
Tak | |
image_url | obiekt | Tak |
Właściwości „image_url”
URL
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
URL | ciąg | Adres URL obrazu lub zakodowane w formacie base64 dane obrazu. |
szczegóły
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
szczegóły | ciąg | Określa poziom szczegółowości obrazu. Dowiedz się więcej w przewodniku Vision. | samochód |
OdmowaCzęściTreściWiadomościZapytańOCzat
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | wyliczenie | Typ części zawartości. Możliwe wartości: odmowa |
Tak | |
odmowa | ciąg | Komunikat o odmowie wygenerowany przez model. | Tak |
KonfiguracjaAzureChatExtension
Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń do czatu Azure OpenAI w celu poprawy zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane w czacie żądania uzupełnień, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu udoskonalenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak |
Typ rozszerzenia czatu Azure
Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń do czatu Azure OpenAI w celu poprawy zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Opis: reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń do czatu Azure OpenAI w celu poprawy zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: AzureChatExtensionType
Wartości enuma
Wartość | Opis |
---|---|
wyszukiwanie w Azure | Reprezentuje użycie usługi Azure Search jako rozszerzenia czatu usługi Azure OpenAI. |
azure_cosmos_db | Reprezentuje użycie usługi Azure Cosmos DB jako rozszerzenia czatu usługi Azure OpenAI. |
Konfiguracja rozszerzenia czatu AzureSearch (azureSearchChatExtensionConfiguration)
Konkretna reprezentacja konfigurowalnych opcji usługi Azure Search podczas korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane w czacie żądania uzupełnień, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu udoskonalenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak | |
Parametry | azureSearchChatExtensionParameters | Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI. | Nie. |
azureSearchChatExtensionParametry
Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
uwierzytelnianie | onYourDataApiKeyAuthenticationOptions lub onYourDataSystemAssignedManagedIdentityAuthenticationOptions lub onYourDataUserAssignedManagedIdentityAuthenticationOptions | Tak | ||
top_n_documents | liczba całkowita | Skonfigurowana maksymalna liczba dokumentów do wyświetlenia dla skonfigurowanego zapytania. | Nie. | |
w zakresie | typ logiczny (boolowski) | Czy zapytania powinny być ograniczone do używania indeksowanych danych. | Nie. | |
ścisłość | liczba całkowita | Skonfigurowana dokładność filtrowania istotności wyszukiwania. Im większa jest surowość, tym większa precyzja, ale niższa kompletność odpowiedzi. | Nie. | |
informacje_o_roli | ciąg | Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit 100 tokenów, a są one liczone w stosunku do ogólnego limitu tokenów. | Nie. | |
punkt końcowy | ciąg | Bezwzględna ścieżka punktu końcowego zasobu usługi Azure Search do użycia. | Tak | |
nazwa_indeksu | ciąg | Nazwa indeksu, który ma być używany jako dostępny w przywoływowanym zasobie usługi Azure Search. | Tak | |
mapowanie pól | Opcje Mapowania Pola Indeksu Wyszukiwania Azure | Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search. | Nie. | |
typ_zapytania | azureSearchQueryType | Typ zapytania wyszukiwania w usłudze Azure Search, który należy wykonać podczas korzystania z niej jako rozszerzenia czatu w usłudze Azure OpenAI. | Nie. | |
konfiguracja semantyczna | ciąg | Dodatkowa konfiguracja semantyczna zapytania. | Nie. | |
filtr | ciąg | Filtr wyszukiwania. | Nie. | |
zależność osadzenia | onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource | Nie. |
opcjeMapowaniaPólIndeksuAzureSearch
Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
pole_tytułu | ciąg | Nazwa pola indeksu, które ma być używane jako tytuł. | Nie. | |
url_field | ciąg | Nazwa pola indeksu, które ma być używane jako adres URL. | Nie. | |
pole ścieżki pliku | ciąg | Nazwa pola indeksu do użycia jako ścieżka pliku. | Nie. | |
pola_treści | macierz | Nazwy pól indeksu, które powinny być traktowane jako zawartość. | Nie. | |
separator_pól_treści | ciąg | Wzorzec separatora, którego powinny używać pola zawartości. | Nie. | |
pola wektorowe | macierz | Nazwy pól reprezentujących dane wektorowe. | Nie. |
azureSearchQueryType
Typ zapytania wyszukiwania w usłudze Azure Search, który należy wykonać podczas korzystania z niej jako rozszerzenia czatu w usłudze Azure OpenAI.
Opis: rodzaj zapytania wyszukiwania w usłudze Azure Search, które należy przeprowadzić, gdy używa się jej jako rozszerzenia czatu w usłudze Azure OpenAI.
Typ: ciąg
Domyślnie:
Nazwa typu wyliczenia: AzureSearchQueryType
Wartości enuma
Wartość | Opis |
---|---|
prosty | Reprezentuje domyślny, prosty analizator zapytań. |
semantyczny | Reprezentuje semantyczny analizator zapytań na potrzeby zaawansowanego modelowania semantycznego. |
wektor | Reprezentuje wyszukiwanie wektorów na podstawie obliczonych danych. |
vector_prosty_hybrydowy | Reprezentuje kombinację prostej strategii zapytania z danymi wektorowymi. |
wektor_semantyczny_hybryda | Reprezentuje kombinację semantycznego wyszukiwania i wykonywania zapytań dotyczących danych wektorowych. |
konfiguracjaAzureCosmosDBChatExtension
Konkretna reprezentacja konfigurowalnych opcji dla usługi Azure Cosmos DB w przypadku korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane w czacie żądania uzupełnień, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu udoskonalenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak | |
Parametry | azureCosmosDBChatExtensionParameters | Parametry do użycia podczas konfigurowania rozszerzeń czatu Azure OpenAI na Twoje dane przy użyciu usługi Azure Cosmos DB MongoDB vCore. |
Nie. |
Azure Cosmos DB Chat Extension Parameters
Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI na czacie danych podczas korzystania z usługi Azure Cosmos DB dla rdzeni wirtualnych bazy danych MongoDB.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
uwierzytelnianie | onYourDataConnectionStringOpcjeUwierzytelniania | Opcje uwierzytelniania dla Azure OpenAI na Twoich danych przy użyciu ciągu połączenia. | Tak | |
top_n_documents | liczba całkowita | Skonfigurowana maksymalna liczba dokumentów do wyświetlenia dla skonfigurowanego zapytania. | Nie. | |
w zakresie | typ logiczny (boolowski) | Czy zapytania powinny być ograniczone do używania indeksowanych danych. | Nie. | |
ścisłość | liczba całkowita | Skonfigurowana dokładność filtrowania istotności wyszukiwania. Im większa jest surowość, tym większa precyzja, ale niższa kompletność odpowiedzi. | Nie. | |
informacje_o_roli | ciąg | Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit 100 tokenów, a są one liczone w stosunku do ogólnego limitu tokenów. | Nie. | |
nazwa_bazy_danych | ciąg | Nazwa bazy danych MongoDB vCore do użycia z Azure Cosmos DB. | Tak | |
nazwa_kontenera | ciąg | Nazwa kontenera zasobów usługi Azure Cosmos DB. | Tak | |
nazwa_indeksu | ciąg | Nazwa indeksu vCore MongoDB do użycia z Azure Cosmos DB. | Tak | |
mapowanie pól | azureCosmosDBFieldMappingOptions | Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB. | Tak | |
zależność osadzenia | onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource | Tak |
azureCosmosDBOpcjeMapowaniaPól
Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
pole_tytułu | ciąg | Nazwa pola indeksu, które ma być używane jako tytuł. | Nie. | |
url_field | ciąg | Nazwa pola indeksu, które ma być używane jako adres URL. | Nie. | |
pole ścieżki pliku | ciąg | Nazwa pola indeksu do użycia jako ścieżka pliku. | Nie. | |
pola_treści | macierz | Nazwy pól indeksu, które powinny być traktowane jako zawartość. | Tak | |
separator_pól_treści | ciąg | Wzorzec separatora, którego powinny używać pola zawartości. | Nie. | |
pola wektorowe | macierz | Nazwy pól reprezentujących dane wektorowe. | Tak |
OpcjeUwierzytelnianiaTwoichDanych
Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | typUwierzytelnieniaTwoichDanych | Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. | Tak |
typUwierzytelnianiaTwoichDanych
Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych.
Opis: Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI dla danych.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: OnYourDataAuthenticationType
Wartości enuma
Wartość | Opis |
---|---|
klucz_api | Uwierzytelnianie za pośrednictwem klucza interfejsu API. |
ciąg znaków połączenia | Uwierzytelnianie za pośrednictwem parametry połączenia. |
tożsamość zarządzana przypisana przez system | Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez system. |
tożsamość zarządzana przypisana przez użytkownika | Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez użytkownika. |
OnYourDataApiKeyAuthenticationOptions
Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data przy użyciu klucza API.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | typUwierzytelnieniaTwoichDanych | Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. | Tak | |
klucz | ciąg | Klucz interfejsu API do użycia do uwierzytelniania. | Nie. |
opcjeUwierzytelnianiaTwojegoPołączeniaDanych
Opcje uwierzytelniania dla Azure OpenAI na Twoich danych przy użyciu ciągu połączenia.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | typUwierzytelnieniaTwoichDanych | Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. | Tak | |
ciąg znaków połączenia | ciąg | Parametry połączenia do użycia do uwierzytelniania. | Nie. |
opcjeUwierzytelnianiaTożsamościZarządzanejPrzydzielonejPrzezTwójSystemDanych
Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez system.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | typUwierzytelnieniaTwoichDanych | Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. | Tak |
Opcje uwierzytelniania przy użyciu przypisanej tożsamości zarządzanej dla użytkownika na platformie YourData
Opcje uwierzytelniania dla Azure OpenAI w odniesieniu do Twoich danych, korzystając z przypisanej przez użytkownika tożsamości zarządzanej.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | typUwierzytelnieniaTwoichDanych | Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. | Tak | |
Identyfikator_zasobu_zarządzanej_tożsamości | ciąg | Identyfikator zasobu tożsamości zarządzanej przypisanej przez użytkownika do użycia do uwierzytelniania. | Nie. |
ŹródłoWeWektorzeDanych
Abstrakcyjna reprezentacja źródła wektoryzacji dla usługi Azure OpenAI On Your Data z wyszukiwaniem wektorowym.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | naTwójTypŹródłaWeektoryzacjiDanych | Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może używać do konfigurowania wektoryzacji danych. wyszukiwanie wektorów. |
Tak |
Typ źródła wektoryzacji Twoich danych
Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może wykorzystać do konfigurowania wektoryzacji danych do użycia z wyszukiwaniem wektorowym.
Opis: Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może używać do konfigurowania wektoryzacji danych.
wyszukiwanie wektorów.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: OnYourDataVectorizationSourceType
Wartości enuma
Wartość | Opis |
---|---|
punkt końcowy | Reprezentuje wektoryzację wykonywaną przez wywołania usług publicznych do modelu osadzania usługi Azure OpenAI. |
nazwa wdrożenia | Reprezentuje nazwę wdrożenia modelu Ada, który ma być używany. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale Twoje dane będą wykorzystywane w tym wdrożeniu modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia operacje wektorowe. Wyszukuj nawet w sieciach prywatnych. |
onYourDataDeploymentNameWektoryzacjaŹródło
Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na wewnętrznej nazwie wdrożenia modelu osadzania w tym samym zasobie usługi Azure OpenAI.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | naTwójTypŹródłaWeektoryzacjiDanych | Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może używać do konfigurowania wektoryzacji danych. wyszukiwanie wektorów. |
Tak | |
nazwa wdrożenia | ciąg | Określa nazwę wdrożenia modelu do użycia na potrzeby wektoryzacji. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale funkcja "On Your Data" będzie korzystać z tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego zamiast publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. | Nie. |
NaTwoimŹródleWektoryzacjiDanychPunktKońcowy
Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na publicznym wywołaniu punktu końcowego usługi Azure OpenAI na potrzeby osadzania.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | naTwójTypŹródłaWeektoryzacjiDanych | Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może używać do konfigurowania wektoryzacji danych. wyszukiwanie wektorów. |
Tak | |
uwierzytelnianie | Opcje uwierzytelniania klucza API Twoje Dane | Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data przy użyciu klucza API. | Nie. | |
punkt końcowy | ciąg | Określa punkt końcowy, który ma być używany do wektoryzacji. Ten punkt końcowy musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale funkcja "On Your Data" użyje tego punktu końcowego poprzez wywołanie wewnętrzne, a nie publiczne, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. | Nie. |
kontekstWiadomościRozszerzeńAzureChat
Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy w generowanie odpowiedzi na czat są zaangażowane rozszerzenia czatu Azure OpenAI. Te informacje kontekstowe są wypełniane tylko w przypadku używania żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
Cytatów | macierz | Wynik pobierania źródła danych używany do generowania komunikatu asystenta w odpowiedzi. | Nie. | |
intencja | ciąg | Wykryta intencja z historii czatu, używana przy przejściu do następnego kroku, by przenieść kontekst. | Nie. |
cytat
informacje o cytatach dla komunikatu odpowiedzi zakończenia czatu.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
zawartość | ciąg | Zawartość cytatu. | Tak | |
tytuł | ciąg | Tytuł cytatu. | Nie. | |
URL | ciąg | Adres URL cytatu. | Nie. | |
ścieżka pliku | ciąg | Ścieżka pliku cytatu. | Nie. | |
identyfikator_kawałka | ciąg | Identyfikator fragmentu cytatu. | Nie. |
KomunikatZakończeniaRozmowyNarzędziaCall
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
id | ciąg | Identyfikator wywołania narzędzia. | Tak | |
typ | toolCallType | Typ wywołania narzędzia, w tym przypadku function . |
Tak | |
funkcja | obiekt | Funkcja, którą wywołał model. | Tak |
Właściwości funkcji
nazwa
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
nazwa | ciąg | Nazwa funkcji do wywołania. |
Argumenty
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | ciąg | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
typWywołaniaNarzędzia
Typ wywołania narzędzia, w tym przypadku function
.
Opis: typ wywołania narzędzia, w tym przypadku function
.
Typ: ciąg
Domyślnie:
Nazwa Enum: ToolCallType
Wartości enuma
Wartość | Opis |
---|---|
funkcja | Typ wywołania narzędzia to funkcja. |
Narzędzie do wysyłania wiadomości z prośbą o zakończenie czatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
tool_call_id | ciąg | Wywołanie narzędzia, na które odpowiada ten komunikat. | Nie. | |
zawartość | ciąg | Zawartość wiadomości. | Nie. |
chatCompletionRequestMessageFunction
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
rola | wyliczenie | Rola autora komunikatów, w tym przypadku function .Możliwe wartości: funkcja |
Nie. | |
nazwa | ciąg | Zawartość wiadomości. | Nie. | |
zawartość | ciąg | Zawartość wiadomości. | Nie. |
utwórzOdpowiedźNaZakończenieCzatu
Reprezentuje odpowiedź na zakończenie czatu zwróconą przez model na podstawie podanych danych wejściowych.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
id | ciąg | Unikatowy identyfikator ukończenia czatu. | Tak | |
wyniki_filtru_poleceń | promptFilterResults | Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności. | Nie. | |
Wyborów | macierz | Lista opcji ukończenia czatu. Może być więcej niż jeden, jeśli n jest większy niż 1. |
Tak | |
utworzone | liczba całkowita | Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia zakończenia czatu. | Tak | |
model | ciąg | Model używany do ukończenia czatu. | Tak | |
systemowy odcisk palca | ciąg | Ten odcisk palca reprezentuje zaplecze systemowe, z którym działa model. Można użyć w połączeniu z parametrem żądania seed , aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie. |
Nie. | |
obiekt | wyliczenie | Typ obiektu, który jest zawsze chat.completion .Możliwe wartości: chat.completion |
Tak | |
użycie | completionUsage | Statystyki użycia dotyczące żądania zakończenia. | Nie. |
utwórzOdpowiedźNaKompletacjęStrumieniaCzatu
Reprezentuje fragment strumienia odpowiedzi ukończenia czatu zwróconej przez model na podstawie podanych danych wejściowych.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
id | ciąg | Unikatowy identyfikator ukończenia czatu. Każdy fragment ma ten sam identyfikator. | Tak | |
Wyborów | macierz | Lista opcji ukończenia czatu. Może zawierać więcej niż jeden element, jeśli n jest większy niż 1. |
Tak | |
utworzone | liczba całkowita | Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia zakończenia czatu. Każdy fragment ma ten sam znacznik czasu. | Tak | |
model | ciąg | Model do generowania dokończeń. | Tak | |
systemowy odcisk palca | ciąg | Ten odcisk palca reprezentuje zaplecze systemowe, z którym działa model. Można użyć w połączeniu z parametrem żądania seed , aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie. |
Nie. | |
obiekt | wyliczenie | Typ obiektu, który jest zawsze chat.completion.chunk .Możliwe wartości: chat.completion.chunk |
Tak |
chatCompletionStreamResponseDelta
Delta ukończenia czatu wygenerowana przez przesyłane strumieniowo odpowiedzi modelu.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
zawartość | ciąg | Zawartość sekcji wiadomości. | Nie. | |
wywołanie_funkcji | obiekt | Przestarzałe i zastąpione przez tool_calls . Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. |
Nie. | |
wywołania_narzędzi | macierz | Nie. | ||
rola | wyliczenie | Rola autora tej wiadomości. Możliwe wartości: system, użytkownik, asystent, narzędzie |
Nie. | |
odmowa | ciąg | Komunikat o odmowie wygenerowany przez model. | Nie. |
Właściwości wywołania funkcji
Argumenty
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | ciąg | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
nazwa
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
nazwa | ciąg | Nazwa funkcji do wywołania. |
Segment wywołania narzędzia wiadomości chatCompletion
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
indeks | liczba całkowita | Tak | ||
id | ciąg | Identyfikator wywołania narzędzia. | Nie. | |
typ | wyliczenie | Typ narzędzia. Obecnie obsługiwany jest tylko function .Możliwe wartości: funkcja |
Nie. | |
funkcja | obiekt | Nie. |
Właściwości funkcji
nazwa
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
nazwa | ciąg | Nazwa funkcji do wywołania. |
Argumenty
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | ciąg | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
Opcje strumienia ukończenia czatu
Opcje strumieniowania odpowiedzi. Ustaw tę wartość tylko po ustawieniu stream: true
.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
zawierać_użycie | typ logiczny (boolowski) | W przypadku ustawienia przed komunikatem data: [DONE] dodatkowy fragment zostanie przesłany strumieniem. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu dla całego żądania, a choices pole zawsze będzie pustą tablicą. Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null. |
Nie. |
chatCompletionChoiceLogPrawdopodobieństwa
Informacje o logarytmicznym prawdopodobieństwie dla wybranej opcji.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
zawartość | macierz | Lista tokenów zawartości komunikatów z informacjami o prawdopodobieństwie logarytmicznym. | Tak | |
odmowa | macierz | Lista tokenów odmowy w wiadomościach z informacjami o prawdopodobieństwach logarytmicznych. | Nie. |
chatCompletionTokenLogprob
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
kod przedpłaty | ciąg | Znacznik. | Tak | |
logprob | Liczba | Logarytm prawdopodobieństwa tego tokenu. | Tak | |
B | macierz | Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może być null , jeśli token nie ma reprezentacji bajtów. |
Tak | |
top_logprobs | macierz | Lista najbardziej prawdopodobnych tokenów i ich logarytmicznych prawdopodobieństw na tej pozycji tokenu. W rzadkich przypadkach może zostać zwróconych mniej elementów top_logprobs niż liczba żądanych. |
Tak |
WiadomośćOdpowiedziNaZakończenieCzatu
Komunikat ukończenia czatu wygenerowany przez model.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
rola | chatCompletionResponseMessageRole | Rola autora komunikatu odpowiedzi. | Tak | |
odmowa | ciąg | Komunikat o odmowie wygenerowany przez model. | Tak | |
zawartość | ciąg | Zawartość wiadomości. | Tak | |
wywołania_narzędzi | macierz | Wywołania narzędzi generowane przez model, takie jak wywołania funkcji. | Nie. | |
wywołanie_funkcji | chatCompletionFunctionCall | Przestarzałe i zastąpione przez tool_calls . Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. |
Nie. | |
kontekst | azureChatExtensionsMessageContext | Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy są zaangażowane rozszerzenia czatu usługi Azure OpenAI w generowaniu odpowiedniej odpowiedzi związanej z zakończeniem czatu. Te informacje kontekstowe są wypełniane tylko wtedy, gdy przy użyciu żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia. |
Nie. |
rolaOdpowiedziChatUkończenieWiadomości
Rola autora komunikatu odpowiedzi.
Opis: rola autora komunikatu odpowiedzi.
Typ: ciąg
Domyślnie:
Wartości enuma
- asystent
Opcja wyboru narzędzia zakończenia rozmowy
Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.
none
oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat.
auto
oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.
required
oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}}
wymusza wywołanie tego narzędzia przez model.
none
jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne.
auto
jest wartością domyślną, jeśli istnieją narzędzia.
Ten składnik może być jednym z następujących elementów:
WybórNazwyNarzędziaUkończeniaCzatu
Określa narzędzie, które ma być używane przez model. Użyj, aby wymusić, że model wywoła określoną funkcję.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | wyliczenie | Typ narzędzia. Obecnie obsługiwany jest tylko function .Możliwe wartości: funkcja |
Tak | |
funkcja | obiekt | Tak |
Właściwości funkcji
nazwa
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
nazwa | ciąg | Nazwa funkcji do wywołania. |
ParallelToolCalls
Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia.
Brak zdefiniowanych właściwości dla tego składnika.
narzędziePołączeńWiadomościZakończeniaCzatu
Wywołania narzędzi generowane przez model, takie jak wywołania funkcji.
Brak zdefiniowanych właściwości dla tego składnika.
chatCompletionFunctionCall - wywołanie funkcji zakończenia czatu
Przestarzałe i zastąpione przez tool_calls
. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
nazwa | ciąg | Nazwa funkcji do wywołania. | Tak | |
Argumenty | ciąg | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. | Tak |
użycie ukończenia
Statystyki użycia dotyczące żądania zakończenia.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
tokeny_wywołania | liczba całkowita | Liczba tokenów w prompt. | Tak | |
tokeny_zakończenia | liczba całkowita | Liczba tokenów w wygenerowanym zakończeniu. | Tak | |
suma_znaczniki | liczba całkowita | Łączna liczba tokenów użytych w żądaniu (zapytanie + ukończenie). | Tak | |
szczegóły_tokenów_uzupełnienia | obiekt | Podział tokenów używanych w uzupełnieniu. | Nie. |
Właściwości szczegółów tokenów zakończenia
tokeny_rozumowania
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
tokeny_rozumowania | liczba całkowita | Tokeny generowane przez model do rozumowania. |
narzędzie do zakończenia czatu
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | wyliczenie | Typ narzędzia. Obecnie obsługiwany jest tylko function .Możliwe wartości: funkcja |
Tak | |
funkcja | FunctionObject | Tak |
Parametry funkcji
Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem w celu poznania przykładów oraz z odniesieniem do schematu JSON dla dokumentacji dotyczącej formatu.
Pominięcie parameters
definiuje funkcję z pustą listą parametrów.
Brak zdefiniowanych właściwości dla tego składnika.
FunctionObject
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
opis | ciąg | Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. | Nie. | |
nazwa | ciąg | Nazwa funkcji do wywołania. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. | Tak | |
Parametry | Parametry funkcji | Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON.
Zapoznaj się z przewodnikiem w celu poznania przykładów oraz z odniesieniem do schematu JSON dla dokumentacji dotyczącej formatu. Pominięcie parameters definiuje funkcję z pustą listą parametrów. |
Nie. | |
surowy | typ logiczny (boolowski) | Czy włączyć ścisłe przestrzeganie schematu podczas generowania wywołania funkcji. Jeśli ustawiono wartość true, model będzie postępować zgodnie z dokładnym schematem zdefiniowanym parameters w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true . |
Nie. | Nieprawda |
FormatTekstuOdpowiedzi
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | wyliczenie | Typ zdefiniowanego formatu odpowiedzi: text Możliwe wartości: tekst |
Tak |
FormatOdpowiedziJsonObiekt
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | wyliczenie | Typ zdefiniowanego formatu odpowiedzi: json_object Możliwe wartości: json_object |
Tak |
ResponseFormatJsonSchemaSchema
Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.
Brak zdefiniowanych właściwości dla tego składnika.
FormatOdpowiedziJsonSchema
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
typ | wyliczenie | Typ zdefiniowanego formatu odpowiedzi: json_schema Możliwe wartości: json_schema |
Tak | |
json_schema | obiekt | Tak |
Właściwości json_schema
opis
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
opis | ciąg | Opis celu formatu odpowiedzi, który jest używany przez model do określenia, jak odpowiedzieć w tym formacie. |
nazwa
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
nazwa | ciąg | Nazwa formatu odpowiedzi. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. |
schemat
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
schemat | ResponseFormatJsonSchemaSchema | Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON. |
surowy
Nazwa | Typ | Opis | Wartość domyślna |
---|---|---|---|
surowy | typ logiczny (boolowski) | Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych. W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego schematu zdefiniowanego schema w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true . |
Nieprawda |
Opcja ukończenia rozmowy wspólna
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
indeks | liczba całkowita | Nie. | ||
powód zakończenia | ciąg | Nie. |
utwórzŻądanieTłumaczenia
Żądanie tłumaczenia.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
plik | ciąg | Plik audio do tłumaczenia. | Tak | |
monit | ciąg | Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Monit powinien być w języku angielskim. | Nie. | |
format_odpowiedzi | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperatura | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje logarytmu prawdopodobieństwa, aby automatycznie zwiększyć temperaturę, aż zostaną osiągnięte określone progi. | Nie. | 0 |
odpowiedź dźwiękowa
Odpowiedź tłumaczenia lub transkrypcji, gdy response_format był w formacie JSON
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
SMS | ciąg | Przetłumaczony lub transkrypowany tekst. | Tak |
audioVerboseResponse
Odpowiedź tłumaczenia lub transkrypcji, gdy response_format był verbose_json
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
SMS | ciąg | Przetłumaczony lub transkrypowany tekst. | Tak | |
zadanie | ciąg | Typ zadania audio. | Nie. | |
język | ciąg | Język. | Nie. | |
czas trwania | Liczba | Czas trwania. | Nie. | |
segmenty | macierz | Nie. |
Format odpowiedzi audio
Definiuje format danych wyjściowych.
Opis: definiuje format danych wyjściowych.
Typ: ciąg
Domyślnie:
Wartości enuma
- JSON
- SMS
- srt
- verbose_json
- vtt
utwórzŻądanieTranskrypcji
Żądanie transkrypcji.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
plik | ciąg | Obiekt pliku audio do transkrypcji. | Tak | |
monit | ciąg | Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Komunikat powinien być zgodny z językiem dźwięku. | Nie. | |
format_odpowiedzi | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperatura | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje logarytmu prawdopodobieństwa, aby automatycznie zwiększyć temperaturę, aż zostaną osiągnięte określone progi. | Nie. | 0 |
język | ciąg | Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. | Nie. |
Fragment dźwiękowy
Transkrypcja lub część tłumaczenia.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
id | liczba całkowita | Identyfikator segmentu. | Nie. | |
szukać | Liczba | Przesunięcie segmentu. | Nie. | |
początek | Liczba | Przesunięcie rozpoczęcia segmentu. | Nie. | |
koniec | Liczba | Przesunięcie końcowe segmentu. | Nie. | |
SMS | ciąg | Tekst segmentu. | Nie. | |
Tokeny | macierz | Tokeny tekstu. | Nie. | |
temperatura | Liczba | Temperatura. | Nie. | |
avg_logprob | Liczba | Średnie logarytmiczne prawdopodobieństwo. | Nie. | |
współczynnik kompresji | Liczba | Współczynnik sprężania. | Nie. | |
brak_prob_rozmowy | Liczba | Prawdopodobieństwo wartości no speech . |
Nie. |
jakość obrazu
Jakość obrazu, który zostanie wygenerowany.
Opis: jakość obrazu, który zostanie wygenerowany.
Typ: ciąg
Wartość domyślna: standardowa
Nazwa wyliczenia: Jakość
Wartości enuma
Wartość | Opis |
---|---|
standard | Standardowa jakość tworzy obrazy o standardowej jakości. |
HD | Jakość hd tworzy obrazy z bardziej szczegółowymi szczegółami i większą spójnością na obrazie. |
imagesResponseFormat
Format, w którym są zwracane wygenerowane obrazy.
Opis: format, w którym są zwracane wygenerowane obrazy.
Typ: ciąg
Ustawienie domyślne: adres URL
Nazwa wyliczenia: ImagesResponseFormat
Wartości enuma
Wartość | Opis |
---|---|
URL | Adres URL, który zapewnia tymczasowy dostęp do pobierania wygenerowanych obrazów. |
b64_json | Wygenerowane obrazy są zwracane jako ciąg zakodowany w formacie base64. |
rozmiarObrazu
Rozmiar wygenerowanych obrazów.
Opis: rozmiar wygenerowanych obrazów.
Typ: ciąg
Ustawienie domyślne: 1024x1024
Enum Name: Rozmiar wyliczenia
Wartości enuma
Wartość | Opis |
---|---|
1792x1024 | Żądany rozmiar wygenerowanego obrazu to 1792 x 1024 pikseli. |
1024x1792 | Żądany rozmiar wygenerowanego obrazu to 1024 x 1792 pikseli. |
1024x1024 | Żądany rozmiar wygenerowanego obrazu to 1024 x 1024 pikseli. |
styl obrazu
Styl wygenerowanych obrazów.
Opis: styl wygenerowanych obrazów.
Typ: ciąg
Ustawienie domyślne: żywe
Nazwa wyliczenia: styl
Wartości enuma
Wartość | Opis |
---|---|
żywy | Vivid tworzy obrazy, które są hiperrealistyczne i dramatyczne. |
naturalny | Naturalne tworzy obrazy, które są bardziej naturalne i mniej hiperrealistyczne. |
żądanieGeneracjiObrazów
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
monit | ciąg | Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. | Tak | |
n | liczba całkowita | Liczba obrazów do wygenerowania. | Nie. | 1 |
rozmiar | imageSize | Rozmiar wygenerowanych obrazów. | Nie. | 1024x1024 |
format_odpowiedzi | imagesResponseFormat | Format, w którym są zwracane wygenerowane obrazy. | Nie. | URL |
użytkownik | ciąg | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
jakość | imageQuality | Jakość obrazu, który zostanie wygenerowany. | Nie. | standard |
styl | imageStyle | Styl wygenerowanych obrazów. | Nie. | żywy |
generateImagesResponse
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
utworzone | liczba całkowita | Sygnatura czasowa systemu unix podczas tworzenia operacji. | Tak | |
dane | macierz | Dane wynikowe operacji, jeśli operacja zakończyła się pomyślnie | Tak |
wynikObrazu
Adres URL obrazu lub zakodowany obraz, jeśli się powiedzie, i błąd w przeciwnym razie.
Nazwa | Typ | Opis | Wymagane | Wartość domyślna |
---|---|---|---|---|
URL | ciąg | Adres URL obrazu. | Nie. | |
b64_json | ciąg | Obraz zakodowany w formacie base64 | Nie. | |
wyniki_filtra_treści | Wyniki filtru treści DALL-E | Informacje o wynikach filtrowania zawartości. | Nie. | |
(revised_prompt remains unchanged, assuming it is a placeholder requiring no translation or adaptation) | ciąg | Polecenie, które zostało użyte do wygenerowania obrazu, jeśli dokonano jakiejkolwiek poprawki do podpowiedzi. | Nie. | |
wyniki_filtru_poleceń | dalleFilterResults | Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator. | Nie. |
Rozszerzenia uzupełniania
Rozszerzenia uzupełniania nie są częścią najnowszej ogólnie dostępnej wersji specyfikacji inferencji planu danych usługi Azure OpenAI.
Wiadomość czatu
Obiekt komunikatu czatu nie jest częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.
Tekst na mowę (Podgląd)
Obecnie nie jest częścią najnowszej wersji GA platformy Azure OpenAI w specyfikacji płaszczyzny danych wnioskowania Azure OpenAI. Zapoznaj się z najnowszą wersją zapoznawczą tej funkcji.
Dalsze kroki
Dowiedz się więcej o modelach i dostrajaniu za pomocą interfejsu API REST. Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.