Udostępnij za pośrednictwem


Dokumentacja interfejsu API REST usługi Azure OpenAI

Ten artykuł zawiera szczegółowe informacje na temat punktów końcowych interfejsu API REST wnioskowania dla usługi Azure OpenAI.

Specyfikacje interfejsu API

Zarządzanie modelami i zasobami platformy Azure OpenAI i zarządzanie nimi jest podzielone na trzy podstawowe powierzchnie interfejsu API:

  • Płaszczyzna sterowania
  • Płaszczyzna danych — tworzenie
  • Płaszczyzna danych — wnioskowanie

Każda powierzchnia/specyfikacja interfejsu API hermetyzuje inny zestaw funkcji usługi Azure OpenAI. Każdy interfejs API ma swój własny unikatowy zestaw wersji zapoznawczych i stabilne/ogólnie dostępne wersje interfejsu API. Obecnie wersje zapoznawcza mają tendencję do śledzenia miesięcznego tempa.

interfejs API Najnowsza wersja zapoznawcza Najnowsza wersja ogólnie dostępna Specyfikacje opis
Płaszczyzna sterowania 2024-04-01-preview 2023-05-01 Pliki specyfikacji Usługa Azure OpenAI udostępnia wspólną płaszczyznę sterowania wszystkim innym usługom Azure AI Services. Interfejs API płaszczyzny sterowania służy do tworzenia zasobów usługi Azure OpenAI, wdrażania modelu i innych zadań zarządzania zasobami wyższego poziomu. Płaszczyzna sterowania zarządza również możliwościami, takimi jak azure Resource Manager, Bicep, Terraform i interfejs wiersza polecenia platformy Azure.
Płaszczyzna danych — tworzenie 2024-05-01-preview 2024-06-01 Pliki specyfikacji Interfejs API tworzenia płaszczyzny danych steruje dostrajaniem, przekazywaniem plików, zadaniami pozyskiwania i niektórymi zapytaniami na poziomie modelu
Płaszczyzna danych — wnioskowanie 2024-05-01-preview 2024-06-01 Pliki specyfikacji Interfejs API wnioskowania płaszczyzny danych zapewnia możliwości wnioskowania/punktów końcowych dla funkcji, takich jak ukończenie, ukończenie czatu, osadzanie, mowę/szepta, na danych, dall-e, asystentów itp.

Uwierzytelnianie

Usługa Azure OpenAI udostępnia dwie metody uwierzytelniania. Możesz użyć kluczy interfejsu API lub identyfikatora entra firmy Microsoft.

  • Uwierzytelnianie klucza interfejsu API: w przypadku tego typu uwierzytelniania wszystkie żądania interfejsu API muszą zawierać klucz interfejsu API w nagłówku api-key HTTP. Przewodnik Szybki start zawiera wskazówki dotyczące wykonywania wywołań przy użyciu tego typu uwierzytelniania.

  • Uwierzytelnianie identyfikatora Entra firmy Microsoft: możesz uwierzytelnić wywołanie interfejsu API przy użyciu tokenu Entra firmy Microsoft. Tokeny uwierzytelniania są dołączane do żądania jako nagłówka Authorization . Podany token musi być poprzedzony elementem Bearer, na przykład Bearer YOUR_AUTH_TOKEN. Możesz przeczytać nasz przewodnik z instrukcjami dotyczącymi uwierzytelniania za pomocą identyfikatora Entra firmy Microsoft.

Przechowywanie wersji interfejsu API REST

Interfejsy API usługi są wersjonowane przy użyciu parametru api-version zapytania. Wszystkie wersje są zgodne ze strukturą dat RRRR-MM-DD. Na przykład:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-06-01

Wnioskowanie płaszczyzny danych

W pozostałej części artykułu omówiono najnowszą wersję ogólnodostępną specyfikacji wnioskowania płaszczyzny danych platformy Azure OpenAI. 2024-06-01

Jeśli szukasz dokumentacji najnowszej wersji zapoznawczej interfejsu API, zapoznaj się z najnowszym interfejsem API wnioskowania płaszczyzny danych w wersji zapoznawczej

Uzupełnienia

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu, który został wdrożony.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: application/json

Nazwisko Pisz Opis Wymagani Wartość domyślna
monit ciąg lub tablica Monity o wygenerowanie uzupełniania dla parametrów zakodowane jako ciąg lub tablica ciągów.
Należy pamiętać, że <|endoftext|> jest separatorem dokumentu, który widzi model podczas trenowania, więc jeśli monit nie zostanie określony, model zostanie wygenerowany tak, jakby od początku nowego dokumentu. Maksymalny dozwolony rozmiar listy ciągów to 2048.
Nie.
max_tokens integer Liczba tokenów monitu i max_tokens nie może przekroczyć długości kontekstu modelu. Większość modeli ma długość kontekstu 2048 tokenów (z wyjątkiem najnowszych modeli, które obsługują 4096). Ma co najmniej 0. Nie. 16
temperature Liczba Jaka temperatura próbkowania ma być używana. Wyższe wartości oznaczają, że model podejmie większe ryzyko. Wypróbuj 0.9, aby uzyskać więcej kreatywnych aplikacji, i 0 (arg maksymalne próbkowanie) dla tych z dobrze zdefiniowaną odpowiedzią.
Ogólnie zaleca się zmianę tego lub top_p, ale nie obu.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.
Ogólnie zalecamy zmianę tej wartości lub temperatury, ale nie obu.
Nie. 1
logit_bias obiekt Wartość domyślna to null. Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON, który mapuje tokeny (określone przez ich identyfikator tokenu w tokenizer GPT) na skojarzona wartość stronnicza z -100 do 100. Możesz użyć tego narzędzia tokenizatora (które działa zarówno dla GPT-2, jak i GPT-3), aby przekonwertować tekst na identyfikatory tokenów. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Na przykład możesz przekazać token {"50256":-100}, aby zapobiec wygenerowaniu tokenu <|endoftext|> . Nie.
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć Nie.
n integer Ile uzupełniania ma być generowanych dla każdego monitu. Wartość minimalna 1 i maksymalnie 128 dozwolonych.
Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy dokładnie użyć i upewnić się, że masz odpowiednie ustawienia dla max_tokens i zatrzymaj.
Nie. 1
strumień boolean Czy przesyłać strumieniowo częściowy postęp. W przypadku ustawienia tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony przez dane: [GOTOWE] komunikat. Nie. Fałsz
logprobs integer Uwzględnij prawdopodobieństwa dziennika na tokenach logprobs najprawdopodobniej, a także wybrane tokeny. Jeśli na przykład logprobs ma wartość 5, interfejs API zwróci listę 5 najbardziej prawdopodobnych tokenów. Interfejs API zawsze zwraca logprob przykładowego tokenu, więc w odpowiedzi może istnieć maksymalnie 1 element logprobs+1.
Co najmniej 0 i maksymalnie 5 dozwolonych.
Nie. Brak
przyrostek string Sufiks, który pojawia się po zakończeniu wstawionego tekstu. Nie.
echo boolean Powtórz ponownie monit oprócz ukończenia Nie. Fałsz
zatrzymać ciąg lub tablica Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania. Nie.
completion_config string Nie
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. Nie. 0
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Nie. 0
best_of integer Generuje best_of uzupełniania po stronie serwera i zwraca wartość "najlepszą" (zdefiniowaną jako z najwyższym prawdopodobieństwem dziennika na token). Nie można przesyłać strumieniowo wyników.
W przypadku użycia z n best_of kontroluje liczbę ukończonych kandydatów i n określa, ile ma zostać zwróconych — best_of musi być większa niż n.
Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy dokładnie użyć i upewnić się, że masz odpowiednie ustawienia dla max_tokens i zatrzymaj. Ma maksymalną wartość 128.
Nie.

Odpowiedzi

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator string Tak
obiekt string Tak
utworzono integer Tak
model string Tak
prompt_filter_results promptFilterResults Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach. Nie.
Wyborów tablica Tak
użycie obiekt Nie.

Właściwości użycia

completion_tokens

Nazwisko Pisz Opis Wartość domyślna
completion_tokens Liczba
prompt_tokens Liczba
total_tokens Liczba

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json obiekt

Kod stanu: wartość domyślna

Opis: Usługa niedostępna

Typ zawartości Type Opis
application/json errorResponse

Przykłady

Przykład

Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Osadzanie

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

Uzyskaj wektorową reprezentację danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego.

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: application/json

Nazwisko Pisz Opis Wymagani Wartość domyślna
input ciąg lub tablica Tekst wejściowy do pobrania osadzania dla elementu zakodowany jako ciąg. Aby uzyskać osadzanie dla wielu danych wejściowych w jednym żądaniu, przekaż tablicę ciągów. Każde dane wejściowe nie może przekraczać 2048 tokenów długości.
Jeśli nie osadzasz kodu, sugerujemy zastąpienie nowych linii (\n) w danych wejściowych pojedynczym miejscem, ponieważ zaobserwowaliśmy gorsze wyniki w przypadku obecności nowych linii.
Tak
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
input_type string typ danych wejściowych wyszukiwania osadzania do użycia Nie.
encoding_format string Format umożliwiający zwrócenie osadzania. Może to być wartość float lub base64. Wartość domyślna to float. Nie.
wymiary integer Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. Nie.

Odpowiedzi

Nazwisko Pisz Opis Wymagani Wartość domyślna
obiekt string Tak
model string Tak
dane tablica Tak
użycie obiekt Tak

Właściwości użycia

prompt_tokens

Nazwisko Pisz Opis Wartość domyślna
prompt_tokens integer

total_tokens

Nazwisko Pisz Opis Wartość domyślna
total_tokens integer

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json obiekt

Przykłady

Przykład

Zwróć osadzanie dla danego monitu.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

{
 "input": [
  "this is a test"
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Ukończenie czatu

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

Tworzy ukończenie wiadomości na czacie

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu, który został wdrożony.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: application/json

Nazwisko Pisz Opis Wymagani Wartość domyślna
temperature Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.
Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
strumień boolean W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . Nie. Fałsz
zatrzymać ciąg lub tablica Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Nie.
max_tokens integer Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które może zwrócić model, to (4096 — tokeny monitu). Nie. 4096
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. Nie. 0
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Nie. 0
logit_bias obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Nie.
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
wiadomości tablica Lista wiadomości składających się z konwersacji do tej pory. Przykładowy kod języka Python. Nie.
data_sources tablica Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają.
Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI.
Nie.
n integer Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Nie. 1
nasienie integer Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik. Determinizm jest niegwajny i należy odwołać się do parametru system_fingerprint odpowiedzi, aby monitorować zmiany w zapleczu. Nie. 0
logprobs boolean Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true, zwraca prawdopodobieństwo dziennika każdego tokenu wyjściowego zwróconego w elemecie content message. Ta opcja jest obecnie niedostępna gpt-4-vision-preview w modelu. Nie. Fałsz
top_logprobs integer Liczba całkowita z zakresu od 0 do 5 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawiona na true wartość , jeśli ten parametr jest używany. Nie.
response_format obiekt Obiekt określający format, który musi zostać wygenerowany przez model. Służy do włączania trybu JSON. Nie.
tools tablica Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Nie.
tool_choice chatCompletionToolChoiceOption Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tej funkcji przez model. Nie.
— funkcje tablica Przestarzałe na rzecz .tools Lista funkcji, dla których model może generować dane wejściowe JSON. Nie.
function_call ciąg lub obiekt Przestarzałe na rzecz .tool_choice Określa sposób, w jaki model reaguje na wywołania funkcji. "none" oznacza, że model nie wywołuje funkcji i odpowiada użytkownikowi końcowemu. "auto" oznacza, że model może wybrać między użytkownikiem końcowym lub wywołaniem funkcji. Określenie określonej funkcji za pośrednictwem {"name":\ "my_function"} wymusza wywołanie tej funkcji przez model. Wartość domyślna "none" jest domyślna, gdy nie ma żadnych funkcji. "auto" jest wartością domyślną, jeśli funkcje są obecne. Nie.

Właściwości response_format

Type

Nazwisko Pisz Opis Wartość domyślna
type chatCompletionResponseFormat Ustawienie w celu json_object włączenia trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON. text

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json createChatCompletionResponse

Kod stanu: wartość domyślna

Opis: Usługa niedostępna

Typ zawartości Type Opis
application/json errorResponse

Przykłady

Przykład

Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "system",
   "content": "you're a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy uzupełnianie na podstawie danych usługi Azure Search i przypisanej przez system tożsamości zarządzanej.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy uzupełnianie na podstawie danych wektora usługi Azure Search, poprzedniego komunikatu asystenta i tożsamości zarządzanej przypisanej przez użytkownika.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "you're an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy ukończenie dla podanej usługi Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkrypcje

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Transkrybuje dźwięk w języku wejściowym.

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu szeptu.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: multipart/form-data

Nazwisko Pisz Opis Wymagani Wartość domyślna
plik string Obiekt pliku audio do transkrypcji. Tak
monit string Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być zgodny z językiem dźwięku. Nie.
response_format audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperature Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. Nie. 0
język string Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. Nie.

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json audioResponse lub audioVerboseResponse
text/plain string Transkrypcja tekstu w formacie wyjściowym (gdy response_format był jednym z tekstu, vtt lub srt).

Przykłady

Przykład

Pobiera transkrypcja tekstu i skojarzonych metadanych z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Przykład

Pobiera transkrypcja tekstu i skojarzonych metadanych z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Tłumaczenia

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

Transkrybuje i tłumaczy dźwięk wejściowy na tekst w języku angielskim.

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu szeptu, który został wdrożony.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: multipart/form-data

Nazwisko Pisz Opis Wymagani Wartość domyślna
plik string Plik audio do tłumaczenia. Tak
monit string Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być w języku angielskim. Nie.
response_format audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperature Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. Nie. 0

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json audioResponse lub audioVerboseResponse
text/plain string Transkrypcja tekstu w formacie wyjściowym (gdy response_format był jednym z tekstu, vtt lub srt).

Przykłady

Przykład

Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Przykład

Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Generowanie obrazu

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

Generuje partię obrazów na podstawie podpisu tekstowego dla danego wdrożenia modelu DALLE

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator dall-e wdrożenia modelu, który został wdrożony.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: application/json

Nazwisko Pisz Opis Wymagani Wartość domyślna
monit string Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. Tak
n integer Liczba obrazów do wygenerowania. Nie. 1
size imageSize Rozmiar wygenerowanych obrazów. Nie. 1024x1024
response_format imagesResponseFormat Format, w którym są zwracane wygenerowane obrazy. Nie. Adres URL
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
jakość imageQuality Jakość obrazu, który zostanie wygenerowany. Nie. standardowa
— styl imageStyle Styl wygenerowanych obrazów. Nie. żywy

Odpowiedzi

Kod stanu: 200

Opis: Ok

Typ zawartości Type Opis
application/json generateImagesResponse

Kod stanu: wartość domyślna

Opis: Wystąpił błąd.

Typ zawartości Type Opis
application/json dalleErrorResponse

Przykłady

Przykład

Tworzy obrazy z monitem.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Składniki

errorResponse

Nazwisko Pisz Opis Wymagani Wartość domyślna
error błąd Nie.

errorBase

Nazwisko Pisz Opis Wymagani Wartość domyślna
code string Nie
wiadomość string Nie

Błąd

Nazwisko Pisz Opis Wymagani Wartość domyślna
Param string Nie
type string Nie
inner_error innerError Wewnętrzny błąd z dodatkowymi szczegółami. Nie.

innerError

Wewnętrzny błąd z dodatkowymi szczegółami.

Nazwisko Pisz Opis Wymagani Wartość domyślna
code innerErrorCode Kody błędów dla obiektu błędu wewnętrznego. Nie.
content_filter_results contentFilterPromptResults Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. Nie.

innerErrorCode

Kody błędów dla obiektu błędu wewnętrznego.

Opis: Kody błędów dla wewnętrznego obiektu błędu.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: InnerErrorCode

Wartości wyliczenia:

Wartość Opis
ResponsibleAIPolicyViolation Monit naruszył jedną z więcej reguł filtrowania zawartości.

dalleErrorResponse

Nazwisko Pisz Opis Wymagani Wartość domyślna
error dalleError Nie.

dalleError

Nazwisko Pisz Opis Wymagani Wartość domyślna
Param string Nie
type string Nie
inner_error dalleInnerError Wewnętrzny błąd z dodatkowymi szczegółami. Nie.

dalleInnerError

Wewnętrzny błąd z dodatkowymi szczegółami.

Nazwisko Pisz Opis Wymagani Wartość domyślna
code innerErrorCode Kody błędów dla obiektu błędu wewnętrznego. Nie.
content_filter_results dalleFilterResults Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. Nie.
revised_prompt string Monit, który został użyty do wygenerowania obrazu, jeśli wystąpiła jakakolwiek poprawka do monitu. Nie.

contentFilterResultBase

Nazwisko Pisz Opis Wymagani Wartość domyślna
Filtrowane boolean Tak

contentFilterSeverityResult

Nazwisko Pisz Opis Wymagani Wartość domyślna
Filtrowane boolean Tak
ważność string Nie

contentFilterDetectedResult

Nazwisko Pisz Opis Wymagani Wartość domyślna
Filtrowane boolean Tak
Wykryte boolean Nie.

contentFilterDetectedWithCitationResult

Nazwisko Pisz Opis Wymagani Wartość domyślna
cytat obiekt Nie.

Właściwości cytatu

URL

Nazwisko Pisz Opis Wartość domyślna
URL string

Licencja

Nazwisko Pisz Opis Wartość domyślna
license (licencja) string

contentFilterResultsBase

Informacje o wynikach filtrowania zawartości.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.
przekleństwo contentFilterDetectedResult Nie.
error errorBase Nie.

contentFilterPromptResults

Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.
przekleństwo contentFilterDetectedResult Nie.
error errorBase Nie.
Jailbreak contentFilterDetectedResult Nie.

contentFilterChoiceResults

Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o tekście i wulgaryzmach innych firm, jeśli zostały wykryte, i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.
przekleństwo contentFilterDetectedResult Nie.
error errorBase Nie.
protected_material_text contentFilterDetectedResult Nie.
protected_material_code contentFilterDetectedWithCitationResult Nie.

promptFilterResult

Wyniki filtrowania zawartości dla pojedynczego monitu w żądaniu.

Nazwisko Pisz Opis Wymagani Wartość domyślna
prompt_index integer Nie.
content_filter_results contentFilterPromptResults Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. Nie.

promptFilterResults

Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach.

dalleContentFilterResults

Informacje o wynikach filtrowania zawartości.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.

dalleFilterResults

Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.
przekleństwo contentFilterDetectedResult Nie.
Jailbreak contentFilterDetectedResult Nie.

chatCompletionsRequestCommon

Nazwisko Pisz Opis Wymagani Wartość domyślna
temperature Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.
Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
strumień boolean W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . Nie. Fałsz
zatrzymać ciąg lub tablica Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Nie.
max_tokens integer Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które może zwrócić model, to (4096 — tokeny monitu). Nie. 4096
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. Nie. 0
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Nie. 0
logit_bias obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Nie.
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

createChatCompletionRequest

Nazwisko Pisz Opis Wymagani Wartość domyślna
temperature Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.
Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
strumień boolean W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . Nie. Fałsz
zatrzymać ciąg lub tablica Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Nie.
max_tokens integer Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które może zwrócić model, to (4096 — tokeny monitu). Nie. 4096
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. Nie. 0
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Nie. 0
logit_bias obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Nie.
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
wiadomości tablica Lista wiadomości składających się z konwersacji do tej pory. Przykładowy kod języka Python. Nie.
data_sources tablica Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają.
Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI.
Nie.
n integer Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Nie. 1
nasienie integer Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik. Determinizm jest niegwajny i należy odwołać się do parametru system_fingerprint odpowiedzi, aby monitorować zmiany w zapleczu. Nie. 0
logprobs boolean Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true, zwraca prawdopodobieństwo dziennika każdego tokenu wyjściowego zwróconego w elemecie content message. Ta opcja jest obecnie niedostępna gpt-4-vision-preview w modelu. Nie. Fałsz
top_logprobs integer Liczba całkowita z zakresu od 0 do 5 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawiona na true wartość , jeśli ten parametr jest używany. Nie.
response_format obiekt Obiekt określający format, który musi zostać wygenerowany przez model. Służy do włączania trybu JSON. Nie.
tools tablica Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Nie.
tool_choice chatCompletionToolChoiceOption Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tej funkcji przez model. Nie.
— funkcje tablica Przestarzałe na rzecz .tools Lista funkcji, dla których model może generować dane wejściowe JSON. Nie.
function_call ciąg lub obiekt Przestarzałe na rzecz .tool_choice Określa sposób, w jaki model reaguje na wywołania funkcji. "none" oznacza, że model nie wywołuje funkcji i odpowiada użytkownikowi końcowemu. "auto" oznacza, że model może wybrać między użytkownikiem końcowym lub wywołaniem funkcji. Określenie określonej funkcji za pośrednictwem {"name":\ "my_function"} wymusza wywołanie tej funkcji przez model. Wartość domyślna "none" jest domyślna, gdy nie ma żadnych funkcji. "auto" jest wartością domyślną, jeśli funkcje są obecne. Nie.

Właściwości response_format

Type

Nazwisko Pisz Opis Wartość domyślna
type chatCompletionResponseFormat Ustawienie w celu json_object włączenia trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON. text

chatCompletionResponseFormat

Ustawienie w celu json_object włączenia trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON.

Opis: Ustawienie umożliwiające json_object włączenie trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON.

Typ: ciąg

Ustawienie domyślne: tekst

Nazwa wyliczenia: ChatCompletionResponseFormat

Wartości wyliczenia:

Wartość Opis
text Format odpowiedzi to zwykły ciąg tekstowy.
json_object Format odpowiedzi to obiekt JSON.

chatCompletionFunction

Nazwisko Pisz Opis Wymagani Wartość domyślna
nazwa string Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. Tak
opis string Opis działania funkcji. Nie.
parameters chatCompletionFunctionParameters Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z dokumentacją dotyczącą formatu schematu JSON. Nie.

chatCompletionFunctionParameters

Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z dokumentacją dotyczącą formatu schematu JSON.

chatCompletionRequestMessage

Nazwisko Pisz Opis Wymagani Wartość domyślna
role chatCompletionRequestMessageRole Rola autora wiadomości. Tak

chatCompletionRequestMessageRole

Rola autora wiadomości.

Opis: Rola autora komunikatów.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: ChatCompletionRequestMessageRole

Wartości wyliczenia:

Wartość Opis
sterowana Rola autora komunikatów jest systemowa.
Użytkownik Rola autora wiadomości jest użytkownikiem.
asystent Rola autora wiadomości jest asystentem.
narzędzie Rola autora wiadomości jest narzędziem.
function Przestarzałe. Rola autora wiadomości jest funkcją.

chatCompletionRequestMessageSystem

Nazwisko Pisz Opis Wymagani Wartość domyślna
role chatCompletionRequestMessageRole Rola autora wiadomości. Tak
content string Zawartość wiadomości. Nie.

chatCompletionRequestMessageUser

Nazwisko Pisz Opis Wymagani Wartość domyślna
role chatCompletionRequestMessageRole Rola autora wiadomości. Tak
content ciąg lub tablica Nie.

chatCompletionRequestMessageContentPart

Nazwisko Pisz Opis Wymagani Wartość domyślna
type chatCompletionRequestMessageContentPartType Typ części zawartości. Tak

chatCompletionRequestMessageContentPartType

Typ części zawartości.

Opis: typ części zawartości.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: ChatCompletionRequestMessageContentPartType

Wartości wyliczenia:

Wartość Opis
text Typ części zawartości to tekst.
image_url Typ części zawartości jest image_url.

chatCompletionRequestMessageContentPartText

Nazwisko Pisz Opis Wymagani Wartość domyślna
type chatCompletionRequestMessageContentPartType Typ części zawartości. Tak
text string Zawartość tekstowa. Nie.

chatCompletionRequestMessageContentPartImage

Nazwisko Pisz Opis Wymagani Wartość domyślna
type chatCompletionRequestMessageContentPartType Typ części zawartości. Tak
Adres URL string Adres URL obrazu lub zakodowane w formacie base64 dane obrazu. Nie.
szczegóły imageDetailLevel Określa poziom szczegółowości obrazu. Nie. auto

imageDetailLevel

Określa poziom szczegółowości obrazu.

Opis: określa poziom szczegółowości obrazu.

Typ: ciąg

Ustawienie domyślne: auto

Nazwa wyliczenia: ImageDetailLevel

Wartości wyliczenia:

Wartość Opis
auto Poziom szczegółów obrazu jest automatyczny.
 Niski Poziom szczegółów obrazu jest niski.
wysoki Poziom szczegółów obrazu jest wysoki.

chatCompletionRequestMessageAssistant

Nazwisko Pisz Opis Wymagani Wartość domyślna
role chatCompletionRequestMessageRole Rola autora wiadomości. Tak
content string Zawartość wiadomości. Nie.
tool_calls tablica Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. Nie.
kontekst azureChatExtensionsMessageContext Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy są zaangażowane rozszerzenia czatu usługi Azure OpenAI
w generacji odpowiadającej odpowiedzi na ukończenie czatu. Te informacje kontekstowe są wypełniane tylko wtedy, gdy
przy użyciu żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.
Nie.

azureChatExtensionConfiguration

Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat
uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak

azureChatExtensionType

Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Opis: reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat
Żądania ukończenia, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: AzureChatExtensionType

Wartości wyliczenia:

Wartość Opis
azure_search Reprezentuje użycie usługi Azure Search jako rozszerzenia czatu usługi Azure OpenAI.
azure_cosmos_db Reprezentuje użycie usługi Azure Cosmos DB jako rozszerzenia czatu usługi Azure OpenAI.

azureSearchChatExtensionConfiguration

Konkretna reprezentacja konfigurowalnych opcji usługi Azure Search podczas korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat
uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak
parameters azureSearchChatExtensionParameters Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI. Nie.

azureSearchChatExtensionParameters

Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
uwierzytelnianie onYourDataApiKeyAuthenticationOptions lub onYourDataSystemAssignedManagedIdentityAuthenticationOptions lub onYourDataUserAssignedManagedIdentityAuthenticationOptions Tak
top_n_documents integer Skonfigurowano maksymalną liczbę dokumentów do funkcji dla skonfigurowanego zapytania. Nie.
in_scope boolean Czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
ścisłość integer Skonfigurowana ścisłość filtrowania istotności wyszukiwania. Im większa surowość, większa precyzja, ale niższa kompletność odpowiedzi. Nie.
role_information string Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit tokenu 100 i jest liczone względem ogólnego limitu tokenów. Nie.
endpoint string Bezwzględna ścieżka punktu końcowego zasobu usługi Azure Search do użycia. Tak
index_name string Nazwa indeksu, który ma być używany jako dostępny w przywoływowanym zasobie usługi Azure Search. Tak
fields_mapping azureSearchIndexFieldMappingOptions Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search. Nie.
query_type azureSearchQueryType Typ zapytania pobierania usługi Azure Search, który należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI. Nie.
semantic_configuration string Dodatkowa konfiguracja semantyczna zapytania. Nie.
filtr string Filtr wyszukiwania. Nie.
embedding_dependency onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource Nie.

azureSearchIndexFieldMappingOptions

Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search.

Nazwisko Pisz Opis Wymagani Wartość domyślna
title_field string Nazwa pola indeksu, które ma być używane jako tytuł. Nie.
url_field string Nazwa pola indeksu, które ma być używane jako adres URL. Nie.
filepath_field string Nazwa pola indeksu do użycia jako ścieżka pliku. Nie.
content_fields tablica Nazwy pól indeksu, które powinny być traktowane jako zawartość. Nie.
content_fields_separator string Wzorzec separatora, którego powinny używać pola zawartości. Nie.
vector_fields tablica Nazwy pól reprezentujących dane wektorowe. Nie.

azureSearchQueryType

Typ zapytania pobierania usługi Azure Search, który należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI.

Opis: typ zapytania pobierania usługi Azure Search, które należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: azureSearchQueryType

Wartości wyliczenia:

Wartość Opis
prosty Reprezentuje domyślny, prosty analizator zapytań.
semantyczne Reprezentuje semantyczny analizator zapytań na potrzeby zaawansowanego modelowania semantycznego.
wektor Reprezentuje wyszukiwanie wektorów na podstawie obliczonych danych.
vector_simple_hybrid Reprezentuje kombinację prostej strategii zapytania z danymi wektorowymi.
vector_semantic_hybrid Reprezentuje kombinację semantycznego wyszukiwania i wykonywania zapytań dotyczących danych wektorowych.

azureCosmosDBChatExtensionConfiguration

Konkretna reprezentacja konfigurowalnych opcji dla usługi Azure Cosmos DB w przypadku korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat
uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak
parameters azureCosmosDBChatExtensionParameters Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI w czacie danych podczas korzystania z usługi Azure Cosmos DB dla
Rdzenie wirtualne bazy danych MongoDB.
Nie.

azureCosmosDBChatExtensionParameters

Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI na czacie danych podczas korzystania z usługi Azure Cosmos DB dla rdzeni wirtualnych bazy danych MongoDB.

Nazwisko Pisz Opis Wymagani Wartość domyślna
uwierzytelnianie onYourDataConnectionStringAuthenticationOptions Opcje uwierzytelniania dla usługi Azure OpenAI Na danych podczas korzystania z parametry połączenia. Tak
top_n_documents integer Skonfigurowano maksymalną liczbę dokumentów do funkcji dla skonfigurowanego zapytania. Nie.
in_scope boolean Czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
ścisłość integer Skonfigurowana ścisłość filtrowania istotności wyszukiwania. Im większa surowość, większa precyzja, ale niższa kompletność odpowiedzi. Nie.
role_information string Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit tokenu 100 i jest liczone względem ogólnego limitu tokenów. Nie.
database_name string Nazwa bazy danych mongoDB z rdzeniami wirtualnymi do użycia z usługą Azure Cosmos DB. Tak
container_name string Nazwa kontenera zasobów usługi Azure Cosmos DB. Tak
index_name string Nazwa indeksu rdzeni wirtualnych bazy danych MongoDB do użycia z usługą Azure Cosmos DB. Tak
fields_mapping azureCosmosDBFieldMappingOptions Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB. Tak
embedding_dependency onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource Tak

azureCosmosDBFieldMappingOptions

Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB.

Nazwisko Pisz Opis Wymagani Wartość domyślna
title_field string Nazwa pola indeksu, które ma być używane jako tytuł. Nie.
url_field string Nazwa pola indeksu, które ma być używane jako adres URL. Nie.
filepath_field string Nazwa pola indeksu do użycia jako ścieżka pliku. Nie.
content_fields tablica Nazwy pól indeksu, które powinny być traktowane jako zawartość. Tak
content_fields_separator string Wzorzec separatora, którego powinny używać pola zawartości. Nie.
vector_fields tablica Nazwy pól reprezentujących dane wektorowe. Tak

onYourDataAuthenticationOptions

Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak

onYourDataAuthenticationType

Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych.

Opis: Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: OnYourDataAuthenticationType

Wartości wyliczenia:

Wartość Opis
api_key Uwierzytelnianie za pośrednictwem klucza interfejsu API.
connection_string Uwierzytelnianie za pośrednictwem parametry połączenia.
system_assigned_managed_identity Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez system.
user_assigned_managed_identity Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez użytkownika.

onYourDataApiKeyAuthenticationOptions

Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z klucza interfejsu API.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak
klucz string Klucz interfejsu API do użycia do uwierzytelniania. Nie.

onYourDataConnectionStringAuthenticationOptions

Opcje uwierzytelniania dla usługi Azure OpenAI Na danych podczas korzystania z parametry połączenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak
connection_string string Parametry połączenia do użycia do uwierzytelniania. Nie.

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez system.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez użytkownika.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak
managed_identity_resource_id string Identyfikator zasobu tożsamości zarządzanej przypisanej przez użytkownika do użycia do uwierzytelniania. Nie.

onYourDataVectorizationSource

Abstrakcyjna reprezentacja źródła wektoryzacji dla usługi Azure OpenAI On Your Data z wyszukiwaniem wektorowym.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataVectorizationSourceType Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
wyszukiwanie wektorów.
Tak

onYourDataVectorizationSourceType

Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data może służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwaniem wektorowym.

Opis: Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
Wyszukiwanie wektorowe.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: OnYourDataVectorizationSourceType

Wartości wyliczenia:

Wartość Opis
endpoint Reprezentuje wektoryzację wykonywaną przez wywołania usług publicznych do modelu osadzania usługi Azure OpenAI.
deployment_name Reprezentuje nazwę wdrożenia modelu Ada do użycia. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale
Funkcja na danych będzie używać tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wektor
wyszukiwanie nawet w sieciach prywatnych.

onYourDataDeploymentNameVectorizationSource

Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na wewnętrznej nazwie wdrożenia modelu osadzania w tym samym zasobie usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataVectorizationSourceType Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
wyszukiwanie wektorów.
Tak
deployment_name string Określa nazwę wdrożenia modelu do użycia na potrzeby wektoryzacji. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale w danych będzie używać tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. Nie.

onYourDataEndpointVectorizationSource

Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na publicznym punkcie końcowym osadzania dla usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataVectorizationSourceType Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
wyszukiwanie wektorów.
Tak
uwierzytelnianie onYourDataApiKeyAuthenticationOptions Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z klucza interfejsu API. Nie.
endpoint string Określa punkt końcowy, który ma być używany do wektoryzacji. Ten punkt końcowy musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale w danych użyje tego punktu końcowego za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. Nie.

azureChatExtensionsMessageContext

Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy rozszerzenia czatu usługi Azure OpenAI są zaangażowane w generowanie odpowiedniej odpowiedzi na czat. Te informacje kontekstowe są wypełniane tylko w przypadku używania żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
Cytatów tablica Wynik pobierania źródła danych używany do generowania komunikatu asystenta w odpowiedzi. Nie.
Intencja string Wykryta intencja z historii czatu użyta do przekazania do następnego kroku w celu przeniesienia kontekstu. Nie.

Odsyłacz bibliograficzny

Informacje cytatu dotyczące komunikatu odpowiedzi na zakończenie czatu.

Nazwisko Pisz Opis Wymagani Wartość domyślna
content string Zawartość cytatu. Tak
title string Tytuł cytatu. Nie.
Adres URL string Adres URL cytatu. Nie.
ścieżka pliku string Ścieżka pliku cytatu. Nie.
chunk_id string Identyfikator fragmentu cytatu. Nie.

chatCompletionMessageToolCall

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator string Identyfikator wywołania narzędzia. Tak
type toolCallType W tym przypadku functiontyp wywołania narzędzia . Tak
function obiekt Funkcja wywoływana przez model. Tak

Właściwości funkcji

Nazwisko

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa funkcji do wywołania.

Argumenty

Nazwisko Pisz Opis Wartość domyślna
Argumenty string Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może utworzyć sieć szkieletową parametrów, które nie są zdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

toolCallType

W tym przypadku functiontyp wywołania narzędzia .

Opis: typ wywołania narzędzia, w tym przypadku function.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: ToolCallType

Wartości wyliczenia:

Wartość Opis
function Typ wywołania narzędzia to funkcja.

chatCompletionRequestMessageTool

Nazwisko Pisz Opis Wymagani Wartość domyślna
role chatCompletionRequestMessageRole Rola autora wiadomości. Tak
tool_call_id string Wywołanie narzędzia, na które odpowiada ten komunikat. Nie.
content string Zawartość wiadomości. Nie.

chatCompletionRequestMessageFunction

Nazwisko Pisz Opis Wymagani Wartość domyślna
role wyliczenie Rola autora komunikatów, w tym przypadku function.
Możliwe wartości: funkcja
Tak
nazwa string Zawartość wiadomości. Nie.
content string Zawartość wiadomości. Nie.

createChatCompletionResponse

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator string Unikatowy identyfikator ukończenia czatu. Tak
obiekt chatCompletionResponseObject Typ obiektu. Tak
utworzono integer Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. Tak
model string Model używany do ukończenia czatu. Tak
użycie completionUsage Statystyki użycia dla żądania ukończenia. Nie.
system_fingerprint string Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm. Nie.
prompt_filter_results promptFilterResults Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach. Nie.
Wyborów tablica Nie.

chatCompletionChoiceLogProbs

Informacje o prawdopodobieństwie rejestrowania dla wybranego elementu.

Nazwisko Pisz Opis Wymagani Wartość domyślna
content tablica Lista tokenów zawartości komunikatów z informacjami o prawdopodobieństwa dziennika. Tak

chatCompletionTokenLogprob

Nazwisko Pisz Opis Wymagani Wartość domyślna
token string Token. Tak
logprob Liczba Prawdopodobieństwo dziennika tego tokenu. Tak
B tablica Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może to być null , jeśli nie ma reprezentacji bajtów dla tokenu. Tak
top_logprobs tablica Lista najbardziej prawdopodobnych tokenów i ich prawdopodobieństwa dziennika na tej pozycji tokenu. W rzadkich przypadkach może być mniej niż liczba zwróconych żądań top_logprobs . Tak

chatCompletionResponseMessage

Komunikat ukończenia czatu wygenerowany przez model.

Nazwisko Pisz Opis Wymagani Wartość domyślna
role chatCompletionResponseMessageRole Rola autora komunikatu odpowiedzi. Nie.
content string Zawartość wiadomości. Nie.
tool_calls tablica Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. Nie.
function_call chatCompletionFunctionCall Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
kontekst azureChatExtensionsMessageContext Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy są zaangażowane rozszerzenia czatu usługi Azure OpenAI
w generacji odpowiadającej odpowiedzi na ukończenie czatu. Te informacje kontekstowe są wypełniane tylko wtedy, gdy
przy użyciu żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.
Nie.

chatCompletionResponseMessageRole

Rola autora komunikatu odpowiedzi.

Opis: rola autora komunikatu odpowiedzi.

Typ: ciąg

Domyślnie:

Wartości wyliczenia:

  • asystent

chatCompletionToolChoiceOption

Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tej funkcji przez model.

Ten składnik może być jednym z następujących elementów:

chatCompletionNamedToolChoice

Określa narzędzie, które ma być używane przez model. Użyj polecenia , aby wymusić wywołanie określonej funkcji przez model.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.
Możliwe wartości: funkcja
Nie.
function obiekt Nie.

Właściwości funkcji

Nazwisko

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa funkcji do wywołania.

chatCompletionFunctionCall

Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.

Nazwisko Pisz Opis Wymagani Wartość domyślna
nazwa string Nazwa funkcji do wywołania. Tak
Argumenty string Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może utworzyć sieć szkieletową parametrów, które nie są zdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. Tak

chatCompletionsResponseCommon

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator string Unikatowy identyfikator ukończenia czatu. Tak
obiekt chatCompletionResponseObject Typ obiektu. Tak
utworzono integer Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. Tak
model string Model używany do ukończenia czatu. Tak
użycie completionUsage Statystyki użycia dla żądania ukończenia. Nie.
system_fingerprint string Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm. Nie.

chatCompletionResponseObject

Typ obiektu.

Opis: typ obiektu.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: ChatCompletionResponseObject

Wartości wyliczenia:

Wartość Opis
chat.completion Typ obiektu to uzupełnianie czatu.

completionUsage

Statystyki użycia dla żądania ukończenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
prompt_tokens integer Liczba tokenów w wierszu polecenia. Tak
completion_tokens integer Liczba tokenów w wygenerowanych ukończeniu. Tak
total_tokens integer Łączna liczba tokenów używanych w żądaniu (monit + ukończenie). Tak

chatCompletionTool

Nazwisko Pisz Opis Wymagani Wartość domyślna
type chatCompletionToolType Typ narzędzia. Obecnie obsługiwane są tylko function te elementy. Tak
function obiekt Tak

Właściwości funkcji

opis

Nazwa/nazwisko Pisz Opis Domyślny
opis string Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję.

Nazwisko

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64.

Parametry

Nazwisko Pisz Opis Wartość domyślna
parameters chatCompletionFunctionParameters Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z dokumentacją dotyczącą formatu schematu JSON.

chatCompletionToolType

Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.

Opis: typ narzędzia. Obecnie obsługiwane są tylko function te elementy.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: ChatCompletionToolType

Wartości wyliczenia:

Wartość Opis
function Typ narzędzia to funkcja.

chatCompletionChoiceCommon

Nazwisko Pisz Opis Wymagani Wartość domyślna
index integer Nie.
finish_reason string Nie

createTranslationRequest

Żądanie tłumaczenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
plik string Plik audio do tłumaczenia. Tak
monit string Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być w języku angielskim. Nie.
response_format audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperature Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. Nie. 0

audioResponse

Odpowiedź tłumaczenia lub transkrypcji, gdy response_format był w formacie JSON

Nazwisko Pisz Opis Wymagani Wartość domyślna
text string Przetłumaczony lub transkrypowany tekst. Tak

audioVerboseResponse

Odpowiedź tłumaczenia lub transkrypcji, gdy response_format była verbose_json

Nazwisko Pisz Opis Wymagani Wartość domyślna
text string Przetłumaczony lub transkrypowany tekst. Tak
task string Typ zadania audio. Nie.
język string Język. Nie.
czas trwania Liczba Czas trwania. Nie.
segmenty tablica Nie.

audioResponseFormat

Definiuje format danych wyjściowych.

Opis: definiuje format danych wyjściowych.

Typ: ciąg

Domyślnie:

Wartości wyliczenia:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Żądanie transkrypcji.

Nazwisko Pisz Opis Wymagani Wartość domyślna
plik string Obiekt pliku audio do transkrypcji. Tak
monit string Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być zgodny z językiem dźwięku. Nie.
response_format audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperature Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. Nie. 0
język string Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. Nie.

audioSegment

Transkrypcja lub segment tłumaczenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator integer Identyfikator segmentu. Nie.
szukać Liczba Przesunięcie segmentu. Nie.
start Liczba Przesunięcie rozpoczęcia segmentu. Nie.
end Liczba Przesunięcie końcowe segmentu. Nie.
text string Tekst segmentu. Nie.
Tokeny tablica Tokeny tekstu. Nie.
temperature Liczba Temperatura. Nie.
avg_logprob Liczba Średnie prawdopodobieństwo dziennika. Nie.
compression_ratio Liczba Sprężania. Nie.
no_speech_prob Liczba Prawdopodobieństwo braku mowy. Nie.

imageQuality

Jakość obrazu, który zostanie wygenerowany.

Opis: jakość obrazu, który zostanie wygenerowany.

Typ: ciąg

Wartość domyślna: standardowa

Nazwa wyliczenia: Jakość

Wartości wyliczenia:

Wartość Opis
standardowa Standardowa jakość tworzy obrazy o standardowej jakości.
Hd Jakość hd tworzy obrazy z bardziej szczegółowymi szczegółami i większą spójnością na obrazie.

imagesResponseFormat

Format, w którym są zwracane wygenerowane obrazy.

Opis: format, w którym są zwracane wygenerowane obrazy.

Typ: ciąg

Ustawienie domyślne: adres URL

Nazwa wyliczenia: ImagesResponseFormat

Wartości wyliczenia:

Wartość Opis
Adres URL Adres URL, który zapewnia tymczasowy dostęp do pobierania wygenerowanych obrazów.
b64_json Wygenerowane obrazy są zwracane jako ciąg zakodowany w formacie base64.

imageSize

Rozmiar wygenerowanych obrazów.

Opis: rozmiar wygenerowanych obrazów.

Typ: ciąg

Ustawienie domyślne: 1024x1024

Nazwa wyliczenia: rozmiar

Wartości wyliczenia:

Wartość Opis
1792x1024 Żądany rozmiar wygenerowanego obrazu to 1792 x 1024 pikseli.
1024x1792 Żądany rozmiar wygenerowanego obrazu to 1024 x 1792 pikseli.
1024x1024 Żądany rozmiar wygenerowanego obrazu to 1024 x 1024 pikseli.

imageStyle

Styl wygenerowanych obrazów.

Opis: styl wygenerowanych obrazów.

Typ: ciąg

Ustawienie domyślne: żywe

Nazwa wyliczenia: styl

Wartości wyliczenia:

Wartość Opis
żywy Vivid tworzy obrazy, które są hiperrealistyczne i dramatyczne.
naturalny Naturalne tworzy obrazy, które są bardziej naturalne i mniej hiperrealistyczne.

imageGenerationsRequest

Nazwisko Pisz Opis Wymagani Wartość domyślna
monit string Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. Tak
n integer Liczba obrazów do wygenerowania. Nie. 1
size imageSize Rozmiar wygenerowanych obrazów. Nie. 1024x1024
response_format imagesResponseFormat Format, w którym są zwracane wygenerowane obrazy. Nie. Adres URL
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
jakość imageQuality Jakość obrazu, który zostanie wygenerowany. Nie. standardowa
— styl imageStyle Styl wygenerowanych obrazów. Nie. żywy

generateImagesResponse

Nazwisko Pisz Opis Wymagani Wartość domyślna
utworzono integer Sygnatura czasowa systemu unix podczas tworzenia operacji. Tak
dane tablica Dane wynikowe operacji, jeśli operacja zakończyła się pomyślnie Tak

imageResult

Adres URL obrazu lub zakodowany obraz, jeśli się powiedzie, i błąd w przeciwnym razie.

Nazwisko Pisz Opis Wymagani Wartość domyślna
Adres URL string Adres URL obrazu. Nie.
b64_json string Obraz zakodowany w formacie base64 Nie.
content_filter_results dalleContentFilterResults Informacje o wynikach filtrowania zawartości. Nie.
revised_prompt string Monit, który został użyty do wygenerowania obrazu, jeśli wystąpiła jakakolwiek poprawka do monitu. Nie.
prompt_filter_results dalleFilterResults Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. Nie.

Rozszerzenia uzupełniania

Rozszerzenia uzupełniania nie są częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.

Czatmessage

Obiekt komunikatu czatu nie jest częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.

Zamiana tekstu na mowę

Obecnie nie jest częścią najnowszej wersji ogólnodostępnej platformy Azure OpenAI w specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI. Zapoznaj się z najnowszą wersją zapoznawcza tej funkcji.

Następne kroki

Dowiedz się więcej o modelach i dostrajaniu za pomocą interfejsu API REST. Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.