Udostępnij za pośrednictwem


Dokumentacja interfejsu API REST modeli Azure OpenAI w Azure AI Foundry Models

Ten artykuł zawiera szczegółowe informacje na temat punktów końcowych interfejsu API REST wnioskowania dla usługi Azure OpenAI.

Specyfikacje interfejsu API

Zarządzanie modelami i zasobami Azure OpenAI oraz interakcja z nimi są podzielone na trzy podstawowe elementy interfejsu API.

  • Płaszczyzna sterowania
  • Płaszczyzna danych — tworzenie
  • Płaszczyzna danych — wnioskowanie

Każda powierzchnia/specyfikacja interfejsu API hermetyzuje inny zestaw funkcji usługi Azure OpenAI. Każdy interfejs API ma swój własny unikatowy zestaw wersji zapoznawczych i stabilne/ogólnie dostępne wersje interfejsu API. Obecnie wersje zapoznawcze zwykle podążają za miesięcznym harmonogramem.

Ważne

Teraz dostępny jest nowy interfejs API do wnioskowania w wersji zapoznawczej. Dowiedz się więcej w naszym przewodniku cyklu życia interfejsu API.

API Najnowsza wersja zapoznawcza Najnowsza wersja ogólnie dostępna Specyfikacje Opis
Płaszczyzna sterowania 2024-06-01-preview 2024-10-01 Pliki specyfikacji Usługa Azure OpenAI dzieli wspólną płaszczyznę zarządzania ze wszystkimi innymi usługami. Interfejs API płaszczyzny sterowania służy do tworzenia zasobów usługi Azure OpenAI, wdrażania modelu i innych zadań zarządzania zasobami wyższego poziomu. Płaszczyzna sterowania decyduje również o możliwościach wykorzystania takich narzędzi, jak Azure Resource Manager, Bicep, Terraform i Azure CLI.
Płaszczyzna danych — tworzenie 2025-04-01-preview 2024-10-21 Pliki specyfikacji Interfejs API tworzenia płaszczyzny danych steruje dostrajaniem, przesyłaniem plików, przetwarzaniem danych, procesami wsadowymi i określonymi zapytaniami na poziomie modelu.
Płaszczyzna danych — wnioskowanie 2025-04-01-preview 2024-10-21 Pliki specyfikacji Interfejs API wnioskowania w płaszczyźnie danych zapewnia możliwości wnioskowania oraz punkty końcowe dla funkcji takich jak kompletności, ukończenie czatu, osadzanie, dźwięk, Twoje dane, DALL-E, asystenci itp.

Uwierzytelnianie

Usługa Azure OpenAI udostępnia dwie metody uwierzytelniania. Możesz użyć kluczy interfejsu API lub Microsoft Entra ID.

  • Uwierzytelnianie klucza interfejsu API: w przypadku tego typu uwierzytelniania wszystkie żądania interfejsu API muszą zawierać klucz interfejsu API w nagłówku api-key HTTP. Przewodnik Szybki start zawiera wskazówki dotyczące wykonywania wywołań przy użyciu tego typu uwierzytelniania.

  • Uwierzytelnianie identyfikatora Entra firmy Microsoft: możesz uwierzytelnić wywołanie interfejsu API przy użyciu tokenu Entra firmy Microsoft. Tokeny uwierzytelniania są dołączane do żądania jako nagłówka Authorization . Podany token musi być poprzedzony elementem Bearer, na przykład Bearer YOUR_AUTH_TOKEN. Możesz przeczytać nasz przewodnik z instrukcjami dotyczącymi uwierzytelniania za pomocą identyfikatora Entra firmy Microsoft.

Przechowywanie wersji interfejsu API REST

Interfejsy API usługi są wersjonowane za pomocą parametru api-version zapytania. Wszystkie wersje są zgodne ze strukturą dat RRRR-MM-DD. Przykład:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Wnioskowanie płaszczyzny danych

W pozostałej części artykułu omówiono najnowszą wersję ogólnodostępną specyfikacji wnioskowania płaszczyzny danych platformy Azure OpenAI. 2024-10-21

Jeśli szukasz dokumentacji najnowszej wersji zapoznawczej interfejsu API, zapoznaj się z najnowszym interfejsem API wnioskowania płaszczyzny danych w wersji zapoznawczej

Uzupełnienia

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Tworzy uzupełnienie dla podanej podpowiedzi, parametrów i wybranego modelu.

Parametry identyfikatora URI

Nazwa W Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
identyfikator wdrożenia ścieżka Tak ciąg Identyfikator wdrożenia modelu, który został wdrożony.
wersja API kwerenda Tak ciąg wersja API

Nagłówek żądania

Nazwa Wymagane Typ Opis
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
monit ciąg lub tablica Monity do generowania uzupełnień, zakodowane jako ciąg znaków, tablica ciągów znaków, tablica tokenów lub tablica tablic tokenów.

Należy pamiętać, że <|endoftext|> jest separatorem dokumentu, który widzi model podczas trenowania, więc jeśli monit nie zostanie określony, model zostanie wygenerowany tak, jakby od początku nowego dokumentu.
Tak
najlepsze z liczba całkowita Generuje uzupełnienia best_of po stronie serwera i zwraca najlepszą (tę z najwyższym logarytmicznym prawdopodobieństwem na token). Nie można przesyłać strumieniowo wyników.

W przypadku użycia z n, best_of kontroluje liczbę propozycji uzupełnienia, a n określa, ile należy zwrócić – best_of musi być większe niż n.

Uwaga: ponieważ ten parametr generuje wiele uzupełnień, może szybko wyczerpać przydział tokenów. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop.
Nie. 1
echo typ logiczny (boolowski) Powtórz ponownie monit oprócz ukończenia
Nie. Nieprawda
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.
Nie. 0
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON, który mapuje tokeny (określone przez ich identyfikator tokenu w tokenizatorze GPT) do odpowiadającej wartości uprzedzenia od -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.

Na przykład możesz przekazać polecenie {"50256": -100} , aby zapobiec wygenerowaniu tokenu <|endoftext|> .
Nie. Żaden
logprobs liczba całkowita Uwzględnij logarytmiczne prawdopodobieństwa dla logprobs najbardziej prawdopodobnych tokenów wyjściowych oraz wybranych tokenów. Jeśli na przykład logprobs ma wartość 5, interfejs API zwróci listę pięciu najbardziej prawdopodobnych tokenów. Interfejs API zawsze zwraca logprob próbkowanego tokenu, więc w odpowiedzi może być maksymalnie logprobs+1 elementów.

Maksymalna wartość parametru logprobs to 5.
Nie. Żaden
maks_tokenów liczba całkowita Maksymalna liczba tokenów, które można wygenerować w zakończeniu.

Liczba tokenów zapytania plus max_tokens nie może przekraczać długości kontekstu modelu.
Nie. 16
n liczba całkowita Ile uzupełnień ma zostać wygenerowanych dla każdego polecenia.

Uwaga: ponieważ ten parametr generuje wiele uzupełnień, może szybko wyczerpać przydział tokenów. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop.
Nie. 1
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy.
Nie. 0
nasienie liczba całkowita Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.

Determinizm nie jest gwarantowany i należy odwołać się do parametru odpowiedzi system_fingerprint w celu monitorowania zmian na serwerze.
Nie.
zatrzymaj ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.
Nie.
odtwarzać strumieniowo typ logiczny (boolowski) Czy należy przesyłać strumieniowo częściowy postęp. W przypadku ustawienia tokeny będą wysyłane jako zdarzenia wysyłane tylko Nie. Nieprawda
przyrostek ciąg Sufiks, który pojawia się po zakończeniu wstawionego tekstu.

Ten parametr jest obsługiwany tylko dla programu gpt-3.5-turbo-instruct.
Nie. Żaden
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.

Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć.
Nie.

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Typ Opis
aplikacja/json createCompletionResponse Reprezentuje odpowiedź końcową z interfejsu API. Uwaga: obiekty odpowiedzi przesyłane strumieniowo i nieprzesyłane strumieniowo mają taką samą strukturę (w przeciwieństwie do punktu końcowego czatowego).

Kod stanu: wartość domyślna

Opis: Usługa niedostępna

Typ zawartości Typ Opis
aplikacja/json errorResponse

Przykłady

Przykład

Tworzy uzupełnienie dla podanej podpowiedzi, parametrów i wybranego modelu.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Osadzanie

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Uzyskaj wektorową reprezentację danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego.

Parametry identyfikatora URI

Nazwa W Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
identyfikator wdrożenia ścieżka Tak ciąg
wersja API kwerenda Tak ciąg wersja API

Nagłówek żądania

Nazwa Wymagane Typ Opis
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe ciąg lub tablica Tekst wejściowy do osadzenia, zakodowany jako ciąg lub tablica tokenów. Aby osadzić wiele danych wejściowych w jednym żądaniu, przekaż tablicę ciągów lub tablicę tablic tokenów. Dane wejściowe nie mogą przekraczać maksymalnych tokenów wejściowych dla modelu (8192 tokenów dla text-embedding-ada-002), nie mogą być pustymi ciągami, a każda tablica musi mieć 2048 wymiarów lub mniej. Tak
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
typ_wprowadzenia ciąg typ wyszukiwania osadzania, którego chcesz użyć Nie.
format_kodowania ciąg Format, w jakim można zwrócić osadzenia. Może to być wartość float lub base64. Wartość domyślna to float. Nie.
wymiary liczba całkowita Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. Nie.

Odpowiedzi

Nazwa Typ Opis Wymagane Wartość domyślna
obiekt ciąg Tak
model ciąg Tak
dane macierz Tak
użycie obiekt Tak

Właściwości użycia

tokeny_wywołania

Nazwa Typ Opis Wartość domyślna
tokeny_wywołania liczba całkowita

suma_znaczniki

Nazwa Typ Opis Wartość domyślna
suma_znaczniki liczba całkowita

Kod stanu: 200

Opis: OK

Typ zawartości Typ Opis
aplikacja/json obiekt

Przykłady

Przykład

Zwróć wektory osadzeń dla danego zapytania.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Ukończenie czatu

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Tworzy uzupełnienie wiadomości na czacie

Parametry identyfikatora URI

Nazwa W Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
identyfikator wdrożenia ścieżka Tak ciąg Identyfikator wdrożenia modelu, który został wdrożony.
wersja API kwerenda Tak ciąg wersja API

Nagłówek żądania

Nazwa Wymagane Typ Opis
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.

Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane przez serwer, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE]. Nie. Nieprawda
zatrzymaj ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny.
Nie.
maks_tokenów liczba całkowita Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.

Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu.
Nie.
max_completion_tokens (maksymalna liczba tokenów zakończenia) liczba całkowita Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy.
Nie. 0
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.
Nie. 0
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.
Nie. Żaden
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć.
Nie.
wiadomości macierz Lista wiadomości składających się z konwersacji do tej pory. Tak
źródła danych macierz Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają.
Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI.
Nie.
logprobs typ logiczny (boolowski) Czy zwracać logarytmiczne prawdopodobieństwa dla tokenów wyjściowych, czy nie. Jeśli true, zwraca logarytmiczne prawdopodobieństwa każdego tokenu wyjściowego zwróconego w content elementu message. Nie. Nieprawda
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. logprobs musi być ustawione na true, jeśli ten parametr jest używany. Nie.
n liczba całkowita Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n jako 1 aby zminimalizować koszty. Nie. 1
wywołania_narzędzia_równoległe ParallelToolCalls Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. Nie. Prawda
format_odpowiedzi ResponseFormatText lub ResponseFormatJsonObject lub ResponseFormatJsonSchema Obiekt określający format, który musi zostać wygenerowany przez model. Zgodny z GPT-4o, GPT-4o mini, GPT-4 Turbo oraz wszystkimi modelami GPT-3.5 Turbo nowszymi niż gpt-3.5-turbo-1106.

Ustawienie w celu { "type": "json_schema", "json_schema": {...} } włączenia danych wyjściowych ze strukturą, które gwarantuje, że model będzie zgodny z podanym schematem JSON.

Ustawienie { "type": "json_object" } włącza tryb JSON, co gwarantuje, że komunikat generowany przez model jest poprawnym kodem JSON.

Ważne: w przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemowego lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length", co oznacza, że generacja przekroczyła max_tokens lub jeśli rozmowa przekroczyła maksymalną długość kontekstu.
Nie.
nasienie liczba całkowita Ta funkcja jest dostępna w wersji beta.
Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.
Determinizm nie jest gwarantowany i należy odwołać się do parametru odpowiedzi system_fingerprint w celu monitorowania zmian na serwerze.
Nie.
narzędzia macierz Lista narzędzi, które model może wywołać. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji.
Nie.
wybór narzędzia chatCompletionToolChoiceOption Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model. none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia. Nie.
wywołanie_funkcji ciąg lub czatCompletionFunctionCallOption Przestarzałe na rzecz tool_choice.

Określa, która (jeśli istnieje) funkcja jest wywoływana przez model.
none oznacza, że model nie wywoła funkcji, a zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji.
Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.

none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne.
Nie.
— funkcje macierz Przestarzałe na rzecz tools.

Lista funkcji, dla których model może generować dane wejściowe JSON.
Nie.

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Typ Opis
aplikacja/json createChatCompletionResponse lub createChatCompletionStreamResponse

Kod stanu: wartość domyślna

Opis: Usługa niedostępna

Typ zawartości Typ Opis
aplikacja/json errorResponse

Przykłady

Przykład

Tworzy uzupełnienie dla podanej podpowiedzi, parametrów i wybranego modelu.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy uzupełnienie w oparciu o dane z Azure Search oraz zarządzaną tożsamość przypisaną przez system.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy uzupełnianie na podstawie danych wektora usługi Azure Search, poprzedniego komunikatu asystenta i tożsamości zarządzanej przypisanej przez użytkownika.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy ukończenie dla podanej usługi Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkrypcje — tworzenie

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transkrybuje dźwięk w języku wejściowym.

Parametry identyfikatora URI

Nazwa W Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
identyfikator wdrożenia ścieżka Tak ciąg Identyfikator wdrożenia modelu przekształcania mowy na tekst.

Aby uzyskać informacje o obsługiwanych modelach, zobacz [/azure/ai-services/openai/concepts/models#audio-models].
wersja API kwerenda Tak ciąg wersja API

Nagłówek żądania

Nazwa Wymagane Typ Opis
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: dane wielu części/formularzu

Nazwa Typ Opis Wymagane Wartość domyślna
plik ciąg Obiekt pliku audio do transkrypcji. Tak
monit ciąg Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Komunikat powinien być zgodny z językiem dźwięku. Nie.
format_odpowiedzi audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperatura Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje logarytmu prawdopodobieństwa, aby automatycznie zwiększyć temperaturę, aż zostaną osiągnięte określone progi. Nie. 0
język ciąg Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. Nie.

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Typ Opis
aplikacja/json audioResponse lub audioVerboseResponse
tekst/zwykły ciąg Transkrypcja tekstu w formacie wyjściowym (kiedy response_format był jednym z tekst, vtt lub srt).

Przykłady

Przykład

Pobiera transkrybowany tekst i powiązane metadane z dostarczonych danych dźwiękowych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Przykład

Pobiera transkrybowany tekst i powiązane metadane z dostarczonych danych dźwiękowych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Tłumaczenia — tworzenie

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transkrybuje i tłumaczy dźwięk wejściowy na tekst w języku angielskim.

Parametry identyfikatora URI

Nazwa W Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
identyfikator wdrożenia ścieżka Tak ciąg Identyfikator wdrożenia modelu whisper, który został wdrożony.

Aby uzyskać informacje o obsługiwanych modelach, zobacz [/azure/ai-services/openai/concepts/models#audio-models].
wersja API kwerenda Tak ciąg wersja API

Nagłówek żądania

Nazwa Wymagane Typ Opis
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: dane wielu części/formularzu

Nazwa Typ Opis Wymagane Wartość domyślna
plik ciąg Plik audio do tłumaczenia. Tak
monit ciąg Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Monit powinien być w języku angielskim. Nie.
format_odpowiedzi audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperatura Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje logarytmu prawdopodobieństwa, aby automatycznie zwiększyć temperaturę, aż zostaną osiągnięte określone progi. Nie. 0

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Typ Opis
aplikacja/json audioResponse lub audioVerboseResponse
tekst/zwykły ciąg Transkrypcja tekstu w formacie wyjściowym (kiedy response_format był jednym z tekst, vtt lub srt).

Przykłady

Przykład

Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Przykład

Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Generowanie obrazu

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Generuje zestaw obrazów na podstawie opisu tekstowego dla wdrożonego modelu dall-e

Parametry identyfikatora URI

Nazwa W Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
identyfikator wdrożenia ścieżka Tak ciąg Identyfikator wdrożonego modelu dall-e.
wersja API kwerenda Tak ciąg wersja API

Nagłówek żądania

Nazwa Wymagane Typ Opis
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
monit ciąg Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. Tak
n liczba całkowita Liczba obrazów do wygenerowania. Nie. 1
rozmiar imageSize Rozmiar wygenerowanych obrazów. Nie. 1024x1024
format_odpowiedzi imagesResponseFormat Format, w którym są zwracane wygenerowane obrazy. Nie. URL
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
jakość imageQuality Jakość obrazu, który zostanie wygenerowany. Nie. standard
styl imageStyle Styl wygenerowanych obrazów. Nie. żywy

Odpowiedzi

Kod stanu: 200

Opis: Ok

Typ zawartości Typ Opis
aplikacja/json generateImagesResponse

Kod stanu: wartość domyślna

Opis: Wystąpił błąd.

Typ zawartości Typ Opis
aplikacja/json dalleErrorResponse

Przykłady

Przykład

Tworzy obrazy z monitem.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Komponenty

odpowiedź na błąd

Nazwa Typ Opis Wymagane Wartość domyślna
błąd błąd Nie.

errorBase

Nazwa Typ Opis Wymagane Wartość domyślna
kod ciąg Nie.
komunikat ciąg Nie.

błąd

Nazwa Typ Opis Wymagane Wartość domyślna
Param ciąg Nie.
typ ciąg Nie.
wewnętrzny_błąd innerError Wewnętrzny błąd z dodatkowymi szczegółami. Nie.

błąd wewnętrzny

Wewnętrzny błąd z dodatkowymi szczegółami.

Nazwa Typ Opis Wymagane Wartość domyślna
kod innerErrorCode Kody błędów dla obiektu błędu wewnętrznego. Nie.
wyniki_filtra_treści contentFilterPromptResults Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator. Nie.

kod błędu wewnętrznego

Kody błędów dla obiektu błędu wewnętrznego.

Opis: Kody błędów dla wewnętrznego obiektu błędu.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: InnerErrorCode

Wartości enuma

Wartość Opis
Naruszenie Polityki Odpowiedzialnego SI Monit naruszył jedną z więcej reguł filtrowania zawartości.

dalleErrorResponse

Nazwa Typ Opis Wymagane Wartość domyślna
błąd dalleError Nie.

dalleError

Nazwa Typ Opis Wymagane Wartość domyślna
Param ciąg Nie.
typ ciąg Nie.
wewnętrzny_błąd dalleInnerError Wewnętrzny błąd z dodatkowymi szczegółami. Nie.

dalleInnerError

Wewnętrzny błąd z dodatkowymi szczegółami.

Nazwa Typ Opis Wymagane Wartość domyślna
kod innerErrorCode Kody błędów dla obiektu błędu wewnętrznego. Nie.
wyniki_filtra_treści dalleFilterResults Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator. Nie.
(revised_prompt remains unchanged, assuming it is a placeholder requiring no translation or adaptation) ciąg Polecenie, które zostało użyte do wygenerowania obrazu, jeśli dokonano jakiejkolwiek poprawki do podpowiedzi. Nie.

podstawaWynikuFiltraZawartości

Nazwa Typ Opis Wymagane Wartość domyślna
Filtrowane typ logiczny (boolowski) Tak

WynikPoziomuSurowościFiltraTreści

Nazwa Typ Opis Wymagane Wartość domyślna
Filtrowane typ logiczny (boolowski) Tak
dotkliwość ciąg Nie.

WykrytoWynikFiltruTreści

Nazwa Typ Opis Wymagane Wartość domyślna
Filtrowane typ logiczny (boolowski) Tak
Wykryte typ logiczny (boolowski) Nie.

Filtr treści wykryty z wynikiem cytowania

Nazwa Typ Opis Wymagane Wartość domyślna
cytat obiekt Nie.

Właściwości cytatu

adres URL

Nazwa Typ Opis Wartość domyślna
adres URL ciąg

licencja

Nazwa Typ Opis Wartość domyślna
licencja ciąg

PodstawaWynikówFiltraZawartości

Informacje o wynikach filtrowania zawartości.

Nazwa Typ Opis Wymagane Wartość domyślna
seksualny WynikFiltrowaniaZawartościWedługNasilenia Nie.
przemoc WynikFiltrowaniaZawartościWedługNasilenia Nie.
nienawiść WynikFiltrowaniaZawartościWedługNasilenia Nie.
samookaleczenie WynikFiltrowaniaZawartościWedługNasilenia Nie.
wulgaryzm wynikWykrywaniaFiltruZawartości Nie.
błąd errorBase Nie.

WynikiMonituFiltracjiTreści

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator.

Nazwa Typ Opis Wymagane Wartość domyślna
seksualny WynikFiltrowaniaZawartościWedługNasilenia Nie.
przemoc WynikFiltrowaniaZawartościWedługNasilenia Nie.
nienawiść WynikFiltrowaniaZawartościWedługNasilenia Nie.
samookaleczenie WynikFiltrowaniaZawartościWedługNasilenia Nie.
wulgaryzm wynikWykrywaniaFiltruZawartości Nie.
błąd errorBase Nie.
odblokowanie wynikWykrywaniaFiltruZawartości Nie.

wynikiWyboruFiltruZawartości

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o tekście pochodzącym od podmiotów trzecich oraz o wulgaryzmach, czy zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator.

Nazwa Typ Opis Wymagane Wartość domyślna
seksualny WynikFiltrowaniaZawartościWedługNasilenia Nie.
przemoc WynikFiltrowaniaZawartościWedługNasilenia Nie.
nienawiść WynikFiltrowaniaZawartościWedługNasilenia Nie.
samookaleczenie WynikFiltrowaniaZawartościWedługNasilenia Nie.
wulgaryzm wynikWykrywaniaFiltruZawartości Nie.
błąd errorBase Nie.
chroniony_materiał_tekst wynikWykrywaniaFiltruZawartości Nie.
kod_materiały_chronione wykryto filtr treści z wynikiem cytowania Nie.

WynikFiltrowaniaPromptu

Wyniki filtrowania treści dla pojedynczego polecenia w żądaniu.

Nazwa Typ Opis Wymagane Wartość domyślna
indeks_monitu liczba całkowita Nie.
wyniki_filtra_treści contentFilterPromptResults Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator. Nie.

pokażWynikiFiltru

Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności.

Brak zdefiniowanych właściwości dla tego składnika.

Wyniki Filtra Treści DALL-E

Informacje o wynikach filtrowania zawartości.

Nazwa Typ Opis Wymagane Wartość domyślna
seksualny WynikFiltrowaniaZawartościWedługNasilenia Nie.
przemoc WynikFiltrowaniaZawartościWedługNasilenia Nie.
nienawiść WynikFiltrowaniaZawartościWedługNasilenia Nie.
samookaleczenie WynikFiltrowaniaZawartościWedługNasilenia Nie.

wyniki filtra DALLE

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator.

Nazwa Typ Opis Wymagane Wartość domyślna
seksualny WynikFiltrowaniaZawartościWedługNasilenia Nie.
przemoc WynikFiltrowaniaZawartościWedługNasilenia Nie.
nienawiść WynikFiltrowaniaZawartościWedługNasilenia Nie.
samookaleczenie WynikFiltrowaniaZawartościWedługNasilenia Nie.
wulgaryzm wynikWykrywaniaFiltruZawartości Nie.
odblokowanie wynikWykrywaniaFiltruZawartości Nie.

ŻądanieKończeniaCzatuWspólne

Nazwa Typ Opis Wymagane Wartość domyślna
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.
Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia jednokierunkowe przesyłane do serwera w miarę ich dostępności, a strumień zostanie zakończony komunikatem data: [DONE]. Nie. Nieprawda
zatrzymaj ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. Nie.
maks_tokenów liczba całkowita Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które model może zwrócić, wynosi (4096 - tokeny podpowiedzi). Ta wartość jest teraz przestarzała na rzecz max_completion_tokens, i nie jest kompatybilna z modelami z serii o1. Nie. 4096
max_completion_tokens (maksymalna liczba tokenów zakończenia) liczba całkowita Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy. Nie. 0
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Nie. 0
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

utwórzŻądanieZakończenia

Nazwa Typ Opis Wymagane Wartość domyślna
monit ciąg lub tablica Monity do generowania uzupełnień, zakodowane jako ciąg znaków, tablica ciągów znaków, tablica tokenów lub tablica tablic tokenów.

Należy pamiętać, że <|endoftext|> jest separatorem dokumentu, który widzi model podczas trenowania, więc jeśli monit nie zostanie określony, model zostanie wygenerowany tak, jakby od początku nowego dokumentu.
Tak
najlepsze z liczba całkowita Generuje uzupełnienia best_of po stronie serwera i zwraca najlepszą (tę z najwyższym logarytmicznym prawdopodobieństwem na token). Nie można przesyłać strumieniowo wyników.

W przypadku użycia z n, best_of kontroluje liczbę propozycji uzupełnienia, a n określa, ile należy zwrócić – best_of musi być większe niż n.

Uwaga: ponieważ ten parametr generuje wiele uzupełnień, może szybko wyczerpać przydział tokenów. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop.
Nie. 1
echo typ logiczny (boolowski) Powtórz ponownie monit oprócz ukończenia
Nie. Nieprawda
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.
Nie. 0
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON, który mapuje tokeny (określone przez ich identyfikator tokenu w tokenizatorze GPT) do odpowiadającej wartości uprzedzenia od -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.

Na przykład możesz przekazać polecenie {"50256": -100} , aby zapobiec wygenerowaniu tokenu <|endoftext|> .
Nie. Żaden
logprobs liczba całkowita Uwzględnij logarytmiczne prawdopodobieństwa dla logprobs najbardziej prawdopodobnych tokenów wyjściowych oraz wybranych tokenów. Jeśli na przykład logprobs ma wartość 5, interfejs API zwróci listę pięciu najbardziej prawdopodobnych tokenów. Interfejs API zawsze zwraca logprob próbkowanego tokenu, więc w odpowiedzi może być maksymalnie logprobs+1 elementów.

Maksymalna wartość parametru logprobs to 5.
Nie. Żaden
maks_tokenów liczba całkowita Maksymalna liczba tokenów, które można wygenerować w zakończeniu.

Liczba tokenów zapytania plus max_tokens nie może przekraczać długości kontekstu modelu.
Nie. 16
n liczba całkowita Ile uzupełnień ma zostać wygenerowanych dla każdego polecenia.

Uwaga: ponieważ ten parametr generuje wiele uzupełnień, może szybko wyczerpać przydział tokenów. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop.
Nie. 1
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy.
Nie. 0
nasienie liczba całkowita Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.

Determinizm nie jest gwarantowany i należy odwołać się do parametru odpowiedzi system_fingerprint w celu monitorowania zmian na serwerze.
Nie.
zatrzymaj ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.
Nie.
odtwarzać strumieniowo typ logiczny (boolowski) Czy należy przesyłać strumieniowo częściowy postęp. W przypadku ustawienia tokeny będą wysyłane jako zdarzenia wysyłane tylko Nie. Nieprawda
przyrostek ciąg Sufiks, który pojawia się po zakończeniu wstawionego tekstu.

Ten parametr jest obsługiwany tylko dla programu gpt-3.5-turbo-instruct.
Nie. Żaden
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.

Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć.
Nie.

utwórzOdpowiedźNaUkończenie

Reprezentuje odpowiedź końcową z interfejsu API. Uwaga: obiekty odpowiedzi przesyłane strumieniowo i nieprzesyłane strumieniowo mają taką samą strukturę (w przeciwieństwie do punktu końcowego czatowego).

Nazwa Typ Opis Wymagane Wartość domyślna
id ciąg Unikalny identyfikator ukończenia. Tak
Wyborów macierz Lista opcji uzupełniania, które model wygenerował dla promptu wejściowego. Tak
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia ukończenia. Tak
model ciąg Model używany do ukończenia. Tak
wyniki_filtru_poleceń promptFilterResults Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności. Nie.
systemowy odcisk palca ciąg Ten odcisk palca reprezentuje zaplecze systemowe, z którym działa model.

Można użyć w połączeniu z parametrem żądania seed, aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie.
Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze „ukończenie_tekstu”
Możliwe wartości: text_completion
Tak
użycie completionUsage Statystyki użycia dotyczące żądania zakończenia. Nie.

UtwórzŻądanieZakończeniaCzatu

Nazwa Typ Opis Wymagane Wartość domyślna
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.

Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.
Nie. 1
top_p Liczba Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.
Nie. 1
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane przez serwer, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE]. Nie. Nieprawda
zatrzymaj ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny.
Nie.
maks_tokenów liczba całkowita Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.

Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu.
Nie.
max_completion_tokens (maksymalna liczba tokenów zakończenia) liczba całkowita Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy.
Nie. 0
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.
Nie. 0
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.
Nie. Żaden
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć.
Nie.
wiadomości macierz Lista wiadomości składających się z konwersacji do tej pory. Tak
źródła danych macierz Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają.
Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI.
Nie.
logprobs typ logiczny (boolowski) Czy zwracać logarytmiczne prawdopodobieństwa dla tokenów wyjściowych, czy nie. Jeśli true, zwraca logarytmiczne prawdopodobieństwa każdego tokenu wyjściowego zwróconego w content elementu message. Nie. Nieprawda
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji, z których każdy ma skojarzone logarytmiczne prawdopodobieństwo. logprobs musi być ustawione na true, jeśli ten parametr jest używany. Nie.
n liczba całkowita Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n jako 1 aby zminimalizować koszty. Nie. 1
wywołania_narzędzia_równoległe ParallelToolCalls Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. Nie. Prawda
format_odpowiedzi ResponseFormatText lub ResponseFormatJsonObject lub ResponseFormatJsonSchema Obiekt określający format, który musi zostać wygenerowany przez model. Zgodny z GPT-4o, GPT-4o mini, GPT-4 Turbo oraz wszystkimi modelami GPT-3.5 Turbo nowszymi niż gpt-3.5-turbo-1106.

Ustawienie w celu { "type": "json_schema", "json_schema": {...} } włączenia danych wyjściowych ze strukturą, które gwarantuje, że model będzie zgodny z podanym schematem JSON.

Ustawienie { "type": "json_object" } włącza tryb JSON, co gwarantuje, że komunikat generowany przez model jest poprawnym kodem JSON.

Ważne: w przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemowego lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length", co oznacza, że generacja przekroczyła max_tokens lub jeśli rozmowa przekroczyła maksymalną długość kontekstu.
Nie.
nasienie liczba całkowita Ta funkcja jest dostępna w wersji beta.
Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.
Determinizm nie jest gwarantowany i należy odwołać się do parametru odpowiedzi system_fingerprint w celu monitorowania zmian na serwerze.
Nie.
narzędzia macierz Lista narzędzi, które model może wywołać. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji.
Nie.
wybór narzędzia chatCompletionToolChoiceOption Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model. none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia. Nie.
wywołanie_funkcji ciąg lub czatCompletionFunctionCallOption Przestarzałe na rzecz tool_choice.

Określa, która (jeśli istnieje) funkcja jest wywoływana przez model.
none oznacza, że model nie wywoła funkcji, a zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji.
Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.

none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne.
Nie.
— funkcje macierz Przestarzałe na rzecz tools.

Lista funkcji, dla których model może generować dane wejściowe JSON.
Nie.

funkcjeUkończeniaChatu

Nazwa Typ Opis Wymagane Wartość domyślna
opis ciąg Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. Nie.
nazwa ciąg Nazwa funkcji do wywołania. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. Tak
Parametry Parametry funkcji Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem w celu poznania przykładów oraz z odniesieniem do schematu JSON dla dokumentacji dotyczącej formatu.

Pominięcie parameters definiuje funkcję z pustą listą parametrów.
Nie.

Opcja wywołania funkcji czatu zakończeniowego

Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.

Nazwa Typ Opis Wymagane Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania. Tak

chatCompletionRequestMessage

Ten składnik może być jednym z następujących elementów:

Wiadomość systemowa żądania ukończenia czatu

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Zawartość komunikatu systemowego. Tak
rola wyliczenie Rola autora komunikatów, w tym przypadku system.
Możliwe wartości: system
Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.

wiadomośćUżytkownikaŻądaniaZakończeniaCzatu

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Zawartość wiadomości użytkownika.
Tak
rola wyliczenie Rola autora komunikatów, w tym przypadku user.
Możliwe wartości: użytkownik
Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.

wiadomośćAsystentaZwiązanaZProśbąOukończenieCzatu

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Zawartość komunikatu asystenta. Wymagane, chyba że określono tool_calls lub function_call.
Nie.
odmowa ciąg Wiadomość o odmowie asystenta. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku assistant.
Możliwe wartości: asystent
Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
wywołania_narzędzi chatCompletionMessageToolCalls Wywołania narzędzi generowane przez model, takie jak wywołania funkcji. Nie.
wywołanie_funkcji obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.

Właściwości wywołania funkcji

Argumenty

Nazwa Typ Opis Wartość domyślna
Argumenty ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

nazwa

Nazwa Typ Opis Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania.

chatCompletionRequestToolMessage

Nazwa Typ Opis Wymagane Wartość domyślna
rola wyliczenie Rola autora komunikatów, w tym przypadku tool.
Możliwe wartości: narzędzie
Tak
zawartość ciąg lub tablica Zawartość komunikatu narzędzia. Tak
tool_call_id ciąg Wywołanie narzędzia, na które odpowiada ten komunikat. Tak

chatCompletionRequestFunctionMessage

Nazwa Typ Opis Wymagane Wartość domyślna
rola wyliczenie Rola autora komunikatów, w tym przypadku function.
Możliwe wartości: funkcja
Tak
zawartość ciąg Zawartość komunikatu funkcji. Tak
nazwa ciąg Nazwa funkcji do wywołania. Tak

Żądanie czatuUzupełnienieSystemKomunikatTreśćCzęść

Ten składnik może być jednym z następujących elementów:

częśćZawartościWiadomościUżytkownikaChatCompletionRequest

Ten składnik może być jednym z następujących elementów:

CzęśćTreściWiadomościAsystentaŻądaniaUkończeniaCzatu

Ten składnik może być jednym z następujących elementów:

TreśćWiadomościNarzędziaŻądaniaUkończeniaCzatu

Ten składnik może być jednym z następujących elementów:

zawartośćCzęściWiadomościŻądaniaUkończeniaCzatu

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ części zawartości.
Możliwe wartości: tekst
Tak
SMS ciąg Zawartość tekstowa. Tak

zawartośćObrazuCzęściWiadomościŻądaniaUkończeniaCzatu

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ części zawartości.
Możliwe wartości: image_url
Tak
image_url obiekt Tak

Właściwości „image_url”

URL

Nazwa Typ Opis Wartość domyślna
URL ciąg Adres URL obrazu lub zakodowane w formacie base64 dane obrazu.

szczegóły

Nazwa Typ Opis Wartość domyślna
szczegóły ciąg Określa poziom szczegółowości obrazu. Dowiedz się więcej w przewodniku Vision. samochód

OdmowaCzęściTreściWiadomościZapytańOCzat

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ części zawartości.
Możliwe wartości: odmowa
Tak
odmowa ciąg Komunikat o odmowie wygenerowany przez model. Tak

KonfiguracjaAzureChatExtension

Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń do czatu Azure OpenAI w celu poprawy zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
typ azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane w czacie
żądania uzupełnień, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu udoskonalenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak

Typ rozszerzenia czatu Azure

Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń do czatu Azure OpenAI w celu poprawy zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Opis: reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń do czatu Azure OpenAI w celu poprawy zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: AzureChatExtensionType

Wartości enuma

Wartość Opis
wyszukiwanie w Azure Reprezentuje użycie usługi Azure Search jako rozszerzenia czatu usługi Azure OpenAI.
azure_cosmos_db Reprezentuje użycie usługi Azure Cosmos DB jako rozszerzenia czatu usługi Azure OpenAI.

Konfiguracja rozszerzenia czatu AzureSearch (azureSearchChatExtensionConfiguration)

Konkretna reprezentacja konfigurowalnych opcji usługi Azure Search podczas korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
typ azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane w czacie
żądania uzupełnień, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu udoskonalenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak
Parametry azureSearchChatExtensionParameters Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI. Nie.

azureSearchChatExtensionParametry

Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
uwierzytelnianie onYourDataApiKeyAuthenticationOptions lub onYourDataSystemAssignedManagedIdentityAuthenticationOptions lub onYourDataUserAssignedManagedIdentityAuthenticationOptions Tak
top_n_documents liczba całkowita Skonfigurowana maksymalna liczba dokumentów do wyświetlenia dla skonfigurowanego zapytania. Nie.
w zakresie typ logiczny (boolowski) Czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
ścisłość liczba całkowita Skonfigurowana dokładność filtrowania istotności wyszukiwania. Im większa jest surowość, tym większa precyzja, ale niższa kompletność odpowiedzi. Nie.
informacje_o_roli ciąg Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit 100 tokenów, a są one liczone w stosunku do ogólnego limitu tokenów. Nie.
punkt końcowy ciąg Bezwzględna ścieżka punktu końcowego zasobu usługi Azure Search do użycia. Tak
nazwa_indeksu ciąg Nazwa indeksu, który ma być używany jako dostępny w przywoływowanym zasobie usługi Azure Search. Tak
mapowanie pól Opcje Mapowania Pola Indeksu Wyszukiwania Azure Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search. Nie.
typ_zapytania azureSearchQueryType Typ zapytania wyszukiwania w usłudze Azure Search, który należy wykonać podczas korzystania z niej jako rozszerzenia czatu w usłudze Azure OpenAI. Nie.
konfiguracja semantyczna ciąg Dodatkowa konfiguracja semantyczna zapytania. Nie.
filtr ciąg Filtr wyszukiwania. Nie.
zależność osadzenia onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource Nie.

opcjeMapowaniaPólIndeksuAzureSearch

Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search.

Nazwa Typ Opis Wymagane Wartość domyślna
pole_tytułu ciąg Nazwa pola indeksu, które ma być używane jako tytuł. Nie.
url_field ciąg Nazwa pola indeksu, które ma być używane jako adres URL. Nie.
pole ścieżki pliku ciąg Nazwa pola indeksu do użycia jako ścieżka pliku. Nie.
pola_treści macierz Nazwy pól indeksu, które powinny być traktowane jako zawartość. Nie.
separator_pól_treści ciąg Wzorzec separatora, którego powinny używać pola zawartości. Nie.
pola wektorowe macierz Nazwy pól reprezentujących dane wektorowe. Nie.

azureSearchQueryType

Typ zapytania wyszukiwania w usłudze Azure Search, który należy wykonać podczas korzystania z niej jako rozszerzenia czatu w usłudze Azure OpenAI.

Opis: rodzaj zapytania wyszukiwania w usłudze Azure Search, które należy przeprowadzić, gdy używa się jej jako rozszerzenia czatu w usłudze Azure OpenAI.

Typ: ciąg

Domyślnie:

Nazwa typu wyliczenia: AzureSearchQueryType

Wartości enuma

Wartość Opis
prosty Reprezentuje domyślny, prosty analizator zapytań.
semantyczny Reprezentuje semantyczny analizator zapytań na potrzeby zaawansowanego modelowania semantycznego.
wektor Reprezentuje wyszukiwanie wektorów na podstawie obliczonych danych.
vector_prosty_hybrydowy Reprezentuje kombinację prostej strategii zapytania z danymi wektorowymi.
wektor_semantyczny_hybryda Reprezentuje kombinację semantycznego wyszukiwania i wykonywania zapytań dotyczących danych wektorowych.

konfiguracjaAzureCosmosDBChatExtension

Konkretna reprezentacja konfigurowalnych opcji dla usługi Azure Cosmos DB w przypadku korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
typ azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane w czacie
żądania uzupełnień, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu udoskonalenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak
Parametry azureCosmosDBChatExtensionParameters Parametry do użycia podczas konfigurowania rozszerzeń czatu Azure OpenAI na Twoje dane przy użyciu usługi Azure Cosmos DB
MongoDB vCore.
Nie.

Azure Cosmos DB Chat Extension Parameters

Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI na czacie danych podczas korzystania z usługi Azure Cosmos DB dla rdzeni wirtualnych bazy danych MongoDB.

Nazwa Typ Opis Wymagane Wartość domyślna
uwierzytelnianie onYourDataConnectionStringOpcjeUwierzytelniania Opcje uwierzytelniania dla Azure OpenAI na Twoich danych przy użyciu ciągu połączenia. Tak
top_n_documents liczba całkowita Skonfigurowana maksymalna liczba dokumentów do wyświetlenia dla skonfigurowanego zapytania. Nie.
w zakresie typ logiczny (boolowski) Czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
ścisłość liczba całkowita Skonfigurowana dokładność filtrowania istotności wyszukiwania. Im większa jest surowość, tym większa precyzja, ale niższa kompletność odpowiedzi. Nie.
informacje_o_roli ciąg Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit 100 tokenów, a są one liczone w stosunku do ogólnego limitu tokenów. Nie.
nazwa_bazy_danych ciąg Nazwa bazy danych MongoDB vCore do użycia z Azure Cosmos DB. Tak
nazwa_kontenera ciąg Nazwa kontenera zasobów usługi Azure Cosmos DB. Tak
nazwa_indeksu ciąg Nazwa indeksu vCore MongoDB do użycia z Azure Cosmos DB. Tak
mapowanie pól azureCosmosDBFieldMappingOptions Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB. Tak
zależność osadzenia onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource Tak

azureCosmosDBOpcjeMapowaniaPól

Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB.

Nazwa Typ Opis Wymagane Wartość domyślna
pole_tytułu ciąg Nazwa pola indeksu, które ma być używane jako tytuł. Nie.
url_field ciąg Nazwa pola indeksu, które ma być używane jako adres URL. Nie.
pole ścieżki pliku ciąg Nazwa pola indeksu do użycia jako ścieżka pliku. Nie.
pola_treści macierz Nazwy pól indeksu, które powinny być traktowane jako zawartość. Tak
separator_pól_treści ciąg Wzorzec separatora, którego powinny używać pola zawartości. Nie.
pola wektorowe macierz Nazwy pól reprezentujących dane wektorowe. Tak

OpcjeUwierzytelnianiaTwoichDanych

Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data.

Nazwa Typ Opis Wymagane Wartość domyślna
typ typUwierzytelnieniaTwoichDanych Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. Tak

typUwierzytelnianiaTwoichDanych

Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych.

Opis: Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI dla danych.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: OnYourDataAuthenticationType

Wartości enuma

Wartość Opis
klucz_api Uwierzytelnianie za pośrednictwem klucza interfejsu API.
ciąg znaków połączenia Uwierzytelnianie za pośrednictwem parametry połączenia.
tożsamość zarządzana przypisana przez system Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez system.
tożsamość zarządzana przypisana przez użytkownika Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez użytkownika.

OnYourDataApiKeyAuthenticationOptions

Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data przy użyciu klucza API.

Nazwa Typ Opis Wymagane Wartość domyślna
typ typUwierzytelnieniaTwoichDanych Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. Tak
klucz ciąg Klucz interfejsu API do użycia do uwierzytelniania. Nie.

opcjeUwierzytelnianiaTwojegoPołączeniaDanych

Opcje uwierzytelniania dla Azure OpenAI na Twoich danych przy użyciu ciągu połączenia.

Nazwa Typ Opis Wymagane Wartość domyślna
typ typUwierzytelnieniaTwoichDanych Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. Tak
ciąg znaków połączenia ciąg Parametry połączenia do użycia do uwierzytelniania. Nie.

opcjeUwierzytelnianiaTożsamościZarządzanejPrzydzielonejPrzezTwójSystemDanych

Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez system.

Nazwa Typ Opis Wymagane Wartość domyślna
typ typUwierzytelnieniaTwoichDanych Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. Tak

Opcje uwierzytelniania przy użyciu przypisanej tożsamości zarządzanej dla użytkownika na platformie YourData

Opcje uwierzytelniania dla Azure OpenAI w odniesieniu do Twoich danych, korzystając z przypisanej przez użytkownika tożsamości zarządzanej.

Nazwa Typ Opis Wymagane Wartość domyślna
typ typUwierzytelnieniaTwoichDanych Typy uwierzytelniania obsługiwane przez Azure OpenAI z użyciem Twoich danych. Tak
Identyfikator_zasobu_zarządzanej_tożsamości ciąg Identyfikator zasobu tożsamości zarządzanej przypisanej przez użytkownika do użycia do uwierzytelniania. Nie.

ŹródłoWeWektorzeDanych

Abstrakcyjna reprezentacja źródła wektoryzacji dla usługi Azure OpenAI On Your Data z wyszukiwaniem wektorowym.

Nazwa Typ Opis Wymagane Wartość domyślna
typ naTwójTypŹródłaWeektoryzacjiDanych Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może używać do konfigurowania wektoryzacji danych.
wyszukiwanie wektorów.
Tak

Typ źródła wektoryzacji Twoich danych

Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może wykorzystać do konfigurowania wektoryzacji danych do użycia z wyszukiwaniem wektorowym.

Opis: Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może używać do konfigurowania wektoryzacji danych.
wyszukiwanie wektorów.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: OnYourDataVectorizationSourceType

Wartości enuma

Wartość Opis
punkt końcowy Reprezentuje wektoryzację wykonywaną przez wywołania usług publicznych do modelu osadzania usługi Azure OpenAI.
nazwa wdrożenia Reprezentuje nazwę wdrożenia modelu Ada, który ma być używany. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale
Twoje dane będą wykorzystywane w tym wdrożeniu modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia operacje wektorowe.
Wyszukuj nawet w sieciach prywatnych.

onYourDataDeploymentNameWektoryzacjaŹródło

Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na wewnętrznej nazwie wdrożenia modelu osadzania w tym samym zasobie usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
typ naTwójTypŹródłaWeektoryzacjiDanych Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może używać do konfigurowania wektoryzacji danych.
wyszukiwanie wektorów.
Tak
nazwa wdrożenia ciąg Określa nazwę wdrożenia modelu do użycia na potrzeby wektoryzacji. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale funkcja "On Your Data" będzie korzystać z tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego zamiast publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. Nie.

NaTwoimŹródleWektoryzacjiDanychPunktKońcowy

Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na publicznym wywołaniu punktu końcowego usługi Azure OpenAI na potrzeby osadzania.

Nazwa Typ Opis Wymagane Wartość domyślna
typ naTwójTypŹródłaWeektoryzacjiDanych Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może używać do konfigurowania wektoryzacji danych.
wyszukiwanie wektorów.
Tak
uwierzytelnianie Opcje uwierzytelniania klucza API Twoje Dane Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data przy użyciu klucza API. Nie.
punkt końcowy ciąg Określa punkt końcowy, który ma być używany do wektoryzacji. Ten punkt końcowy musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale funkcja "On Your Data" użyje tego punktu końcowego poprzez wywołanie wewnętrzne, a nie publiczne, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. Nie.

kontekstWiadomościRozszerzeńAzureChat

Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy w generowanie odpowiedzi na czat są zaangażowane rozszerzenia czatu Azure OpenAI. Te informacje kontekstowe są wypełniane tylko w przypadku używania żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.

Nazwa Typ Opis Wymagane Wartość domyślna
Cytatów macierz Wynik pobierania źródła danych używany do generowania komunikatu asystenta w odpowiedzi. Nie.
intencja ciąg Wykryta intencja z historii czatu, używana przy przejściu do następnego kroku, by przenieść kontekst. Nie.

cytat

informacje o cytatach dla komunikatu odpowiedzi zakończenia czatu.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg Zawartość cytatu. Tak
tytuł ciąg Tytuł cytatu. Nie.
URL ciąg Adres URL cytatu. Nie.
ścieżka pliku ciąg Ścieżka pliku cytatu. Nie.
identyfikator_kawałka ciąg Identyfikator fragmentu cytatu. Nie.

KomunikatZakończeniaRozmowyNarzędziaCall

Nazwa Typ Opis Wymagane Wartość domyślna
id ciąg Identyfikator wywołania narzędzia. Tak
typ toolCallType Typ wywołania narzędzia, w tym przypadku function. Tak
funkcja obiekt Funkcja, którą wywołał model. Tak

Właściwości funkcji

nazwa

Nazwa Typ Opis Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania.

Argumenty

Nazwa Typ Opis Wartość domyślna
Argumenty ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

typWywołaniaNarzędzia

Typ wywołania narzędzia, w tym przypadku function.

Opis: typ wywołania narzędzia, w tym przypadku function.

Typ: ciąg

Domyślnie:

Nazwa Enum: ToolCallType

Wartości enuma

Wartość Opis
funkcja Typ wywołania narzędzia to funkcja.

Narzędzie do wysyłania wiadomości z prośbą o zakończenie czatu

Nazwa Typ Opis Wymagane Wartość domyślna
tool_call_id ciąg Wywołanie narzędzia, na które odpowiada ten komunikat. Nie.
zawartość ciąg Zawartość wiadomości. Nie.

chatCompletionRequestMessageFunction

Nazwa Typ Opis Wymagane Wartość domyślna
rola wyliczenie Rola autora komunikatów, w tym przypadku function.
Możliwe wartości: funkcja
Nie.
nazwa ciąg Zawartość wiadomości. Nie.
zawartość ciąg Zawartość wiadomości. Nie.

utwórzOdpowiedźNaZakończenieCzatu

Reprezentuje odpowiedź na zakończenie czatu zwróconą przez model na podstawie podanych danych wejściowych.

Nazwa Typ Opis Wymagane Wartość domyślna
id ciąg Unikatowy identyfikator ukończenia czatu. Tak
wyniki_filtru_poleceń promptFilterResults Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności. Nie.
Wyborów macierz Lista opcji ukończenia czatu. Może być więcej niż jeden, jeśli n jest większy niż 1. Tak
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia zakończenia czatu. Tak
model ciąg Model używany do ukończenia czatu. Tak
systemowy odcisk palca ciąg Ten odcisk palca reprezentuje zaplecze systemowe, z którym działa model.

Można użyć w połączeniu z parametrem żądania seed, aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie.
Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze chat.completion.
Możliwe wartości: chat.completion
Tak
użycie completionUsage Statystyki użycia dotyczące żądania zakończenia. Nie.

utwórzOdpowiedźNaKompletacjęStrumieniaCzatu

Reprezentuje fragment strumienia odpowiedzi ukończenia czatu zwróconej przez model na podstawie podanych danych wejściowych.

Nazwa Typ Opis Wymagane Wartość domyślna
id ciąg Unikatowy identyfikator ukończenia czatu. Każdy fragment ma ten sam identyfikator. Tak
Wyborów macierz Lista opcji ukończenia czatu. Może zawierać więcej niż jeden element, jeśli n jest większy niż 1.
Tak
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia zakończenia czatu. Każdy fragment ma ten sam znacznik czasu. Tak
model ciąg Model do generowania dokończeń. Tak
systemowy odcisk palca ciąg Ten odcisk palca reprezentuje zaplecze systemowe, z którym działa model.
Można użyć w połączeniu z parametrem żądania seed, aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie.
Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze chat.completion.chunk.
Możliwe wartości: chat.completion.chunk
Tak

chatCompletionStreamResponseDelta

Delta ukończenia czatu wygenerowana przez przesyłane strumieniowo odpowiedzi modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg Zawartość sekcji wiadomości. Nie.
wywołanie_funkcji obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
wywołania_narzędzi macierz Nie.
rola wyliczenie Rola autora tej wiadomości.
Możliwe wartości: system, użytkownik, asystent, narzędzie
Nie.
odmowa ciąg Komunikat o odmowie wygenerowany przez model. Nie.

Właściwości wywołania funkcji

Argumenty

Nazwa Typ Opis Wartość domyślna
Argumenty ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

nazwa

Nazwa Typ Opis Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania.

Segment wywołania narzędzia wiadomości chatCompletion

Nazwa Typ Opis Wymagane Wartość domyślna
indeks liczba całkowita Tak
id ciąg Identyfikator wywołania narzędzia. Nie.
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: funkcja
Nie.
funkcja obiekt Nie.

Właściwości funkcji

nazwa

Nazwa Typ Opis Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania.

Argumenty

Nazwa Typ Opis Wartość domyślna
Argumenty ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

Opcje strumienia ukończenia czatu

Opcje strumieniowania odpowiedzi. Ustaw tę wartość tylko po ustawieniu stream: true.

Nazwa Typ Opis Wymagane Wartość domyślna
zawierać_użycie typ logiczny (boolowski) W przypadku ustawienia przed komunikatem data: [DONE] dodatkowy fragment zostanie przesłany strumieniem. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu dla całego żądania, a choices pole zawsze będzie pustą tablicą. Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null.
Nie.

chatCompletionChoiceLogPrawdopodobieństwa

Informacje o logarytmicznym prawdopodobieństwie dla wybranej opcji.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Lista tokenów zawartości komunikatów z informacjami o prawdopodobieństwie logarytmicznym. Tak
odmowa macierz Lista tokenów odmowy w wiadomościach z informacjami o prawdopodobieństwach logarytmicznych. Nie.

chatCompletionTokenLogprob

Nazwa Typ Opis Wymagane Wartość domyślna
kod przedpłaty ciąg Znacznik. Tak
logprob Liczba Logarytm prawdopodobieństwa tego tokenu. Tak
B macierz Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może być null, jeśli token nie ma reprezentacji bajtów. Tak
top_logprobs macierz Lista najbardziej prawdopodobnych tokenów i ich logarytmicznych prawdopodobieństw na tej pozycji tokenu. W rzadkich przypadkach może zostać zwróconych mniej elementów top_logprobs niż liczba żądanych. Tak

WiadomośćOdpowiedziNaZakończenieCzatu

Komunikat ukończenia czatu wygenerowany przez model.

Nazwa Typ Opis Wymagane Wartość domyślna
rola chatCompletionResponseMessageRole Rola autora komunikatu odpowiedzi. Tak
odmowa ciąg Komunikat o odmowie wygenerowany przez model. Tak
zawartość ciąg Zawartość wiadomości. Tak
wywołania_narzędzi macierz Wywołania narzędzi generowane przez model, takie jak wywołania funkcji. Nie.
wywołanie_funkcji chatCompletionFunctionCall Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
kontekst azureChatExtensionsMessageContext Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy są zaangażowane rozszerzenia czatu usługi Azure OpenAI
w generowaniu odpowiedniej odpowiedzi związanej z zakończeniem czatu. Te informacje kontekstowe są wypełniane tylko wtedy, gdy
przy użyciu żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.
Nie.

rolaOdpowiedziChatUkończenieWiadomości

Rola autora komunikatu odpowiedzi.

Opis: rola autora komunikatu odpowiedzi.

Typ: ciąg

Domyślnie:

Wartości enuma

  • asystent

Opcja wyboru narzędzia zakończenia rozmowy

Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model. none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia.

Ten składnik może być jednym z następujących elementów:

WybórNazwyNarzędziaUkończeniaCzatu

Określa narzędzie, które ma być używane przez model. Użyj, aby wymusić, że model wywoła określoną funkcję.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: funkcja
Tak
funkcja obiekt Tak

Właściwości funkcji

nazwa

Nazwa Typ Opis Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania.

ParallelToolCalls

Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia.

Brak zdefiniowanych właściwości dla tego składnika.

narzędziePołączeńWiadomościZakończeniaCzatu

Wywołania narzędzi generowane przez model, takie jak wywołania funkcji.

Brak zdefiniowanych właściwości dla tego składnika.

chatCompletionFunctionCall - wywołanie funkcji zakończenia czatu

Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.

Nazwa Typ Opis Wymagane Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania. Tak
Argumenty ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. Tak

użycie ukończenia

Statystyki użycia dotyczące żądania zakończenia.

Nazwa Typ Opis Wymagane Wartość domyślna
tokeny_wywołania liczba całkowita Liczba tokenów w prompt. Tak
tokeny_zakończenia liczba całkowita Liczba tokenów w wygenerowanym zakończeniu. Tak
suma_znaczniki liczba całkowita Łączna liczba tokenów użytych w żądaniu (zapytanie + ukończenie). Tak
szczegóły_tokenów_uzupełnienia obiekt Podział tokenów używanych w uzupełnieniu. Nie.

Właściwości szczegółów tokenów zakończenia

tokeny_rozumowania

Nazwa Typ Opis Wartość domyślna
tokeny_rozumowania liczba całkowita Tokeny generowane przez model do rozumowania.

narzędzie do zakończenia czatu

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: funkcja
Tak
funkcja FunctionObject Tak

Parametry funkcji

Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem w celu poznania przykładów oraz z odniesieniem do schematu JSON dla dokumentacji dotyczącej formatu.

Pominięcie parameters definiuje funkcję z pustą listą parametrów.

Brak zdefiniowanych właściwości dla tego składnika.

FunctionObject

Nazwa Typ Opis Wymagane Wartość domyślna
opis ciąg Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. Nie.
nazwa ciąg Nazwa funkcji do wywołania. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. Tak
Parametry Parametry funkcji Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem w celu poznania przykładów oraz z odniesieniem do schematu JSON dla dokumentacji dotyczącej formatu.

Pominięcie parameters definiuje funkcję z pustą listą parametrów.
Nie.
surowy typ logiczny (boolowski) Czy włączyć ścisłe przestrzeganie schematu podczas generowania wywołania funkcji. Jeśli ustawiono wartość true, model będzie postępować zgodnie z dokładnym schematem zdefiniowanym parameters w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true. Nie. Nieprawda

FormatTekstuOdpowiedzi

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi: text
Możliwe wartości: tekst
Tak

FormatOdpowiedziJsonObiekt

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi: json_object
Możliwe wartości: json_object
Tak

ResponseFormatJsonSchemaSchema

Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.

Brak zdefiniowanych właściwości dla tego składnika.

FormatOdpowiedziJsonSchema

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi: json_schema
Możliwe wartości: json_schema
Tak
json_schema obiekt Tak

Właściwości json_schema

opis

Nazwa Typ Opis Wartość domyślna
opis ciąg Opis celu formatu odpowiedzi, który jest używany przez model do określenia, jak odpowiedzieć w tym formacie.

nazwa

Nazwa Typ Opis Wartość domyślna
nazwa ciąg Nazwa formatu odpowiedzi. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków.

schemat

Nazwa Typ Opis Wartość domyślna
schemat ResponseFormatJsonSchemaSchema Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.

surowy

Nazwa Typ Opis Wartość domyślna
surowy typ logiczny (boolowski) Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych. W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego schematu zdefiniowanego schema w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true. Nieprawda

Opcja ukończenia rozmowy wspólna

Nazwa Typ Opis Wymagane Wartość domyślna
indeks liczba całkowita Nie.
powód zakończenia ciąg Nie.

utwórzŻądanieTłumaczenia

Żądanie tłumaczenia.

Nazwa Typ Opis Wymagane Wartość domyślna
plik ciąg Plik audio do tłumaczenia. Tak
monit ciąg Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Monit powinien być w języku angielskim. Nie.
format_odpowiedzi audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperatura Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje logarytmu prawdopodobieństwa, aby automatycznie zwiększyć temperaturę, aż zostaną osiągnięte określone progi. Nie. 0

odpowiedź dźwiękowa

Odpowiedź tłumaczenia lub transkrypcji, gdy response_format był w formacie JSON

Nazwa Typ Opis Wymagane Wartość domyślna
SMS ciąg Przetłumaczony lub transkrypowany tekst. Tak

audioVerboseResponse

Odpowiedź tłumaczenia lub transkrypcji, gdy response_format był verbose_json

Nazwa Typ Opis Wymagane Wartość domyślna
SMS ciąg Przetłumaczony lub transkrypowany tekst. Tak
zadanie ciąg Typ zadania audio. Nie.
język ciąg Język. Nie.
czas trwania Liczba Czas trwania. Nie.
segmenty macierz Nie.

Format odpowiedzi audio

Definiuje format danych wyjściowych.

Opis: definiuje format danych wyjściowych.

Typ: ciąg

Domyślnie:

Wartości enuma

  • JSON
  • SMS
  • srt
  • verbose_json
  • vtt

utwórzŻądanieTranskrypcji

Żądanie transkrypcji.

Nazwa Typ Opis Wymagane Wartość domyślna
plik ciąg Obiekt pliku audio do transkrypcji. Tak
monit ciąg Opcjonalny tekst wskazujący styl modelu lub jako kontynuacja poprzedniego segmentu audio. Komunikat powinien być zgodny z językiem dźwięku. Nie.
format_odpowiedzi audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperatura Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Jeśli ustawiono wartość 0, model użyje logarytmu prawdopodobieństwa, aby automatycznie zwiększyć temperaturę, aż zostaną osiągnięte określone progi. Nie. 0
język ciąg Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. Nie.

Fragment dźwiękowy

Transkrypcja lub część tłumaczenia.

Nazwa Typ Opis Wymagane Wartość domyślna
id liczba całkowita Identyfikator segmentu. Nie.
szukać Liczba Przesunięcie segmentu. Nie.
początek Liczba Przesunięcie rozpoczęcia segmentu. Nie.
koniec Liczba Przesunięcie końcowe segmentu. Nie.
SMS ciąg Tekst segmentu. Nie.
Tokeny macierz Tokeny tekstu. Nie.
temperatura Liczba Temperatura. Nie.
avg_logprob Liczba Średnie logarytmiczne prawdopodobieństwo. Nie.
współczynnik kompresji Liczba Współczynnik sprężania. Nie.
brak_prob_rozmowy Liczba Prawdopodobieństwo wartości no speech. Nie.

jakość obrazu

Jakość obrazu, który zostanie wygenerowany.

Opis: jakość obrazu, który zostanie wygenerowany.

Typ: ciąg

Wartość domyślna: standardowa

Nazwa wyliczenia: Jakość

Wartości enuma

Wartość Opis
standard Standardowa jakość tworzy obrazy o standardowej jakości.
HD Jakość hd tworzy obrazy z bardziej szczegółowymi szczegółami i większą spójnością na obrazie.

imagesResponseFormat

Format, w którym są zwracane wygenerowane obrazy.

Opis: format, w którym są zwracane wygenerowane obrazy.

Typ: ciąg

Ustawienie domyślne: adres URL

Nazwa wyliczenia: ImagesResponseFormat

Wartości enuma

Wartość Opis
URL Adres URL, który zapewnia tymczasowy dostęp do pobierania wygenerowanych obrazów.
b64_json Wygenerowane obrazy są zwracane jako ciąg zakodowany w formacie base64.

rozmiarObrazu

Rozmiar wygenerowanych obrazów.

Opis: rozmiar wygenerowanych obrazów.

Typ: ciąg

Ustawienie domyślne: 1024x1024

Enum Name: Rozmiar wyliczenia

Wartości enuma

Wartość Opis
1792x1024 Żądany rozmiar wygenerowanego obrazu to 1792 x 1024 pikseli.
1024x1792 Żądany rozmiar wygenerowanego obrazu to 1024 x 1792 pikseli.
1024x1024 Żądany rozmiar wygenerowanego obrazu to 1024 x 1024 pikseli.

styl obrazu

Styl wygenerowanych obrazów.

Opis: styl wygenerowanych obrazów.

Typ: ciąg

Ustawienie domyślne: żywe

Nazwa wyliczenia: styl

Wartości enuma

Wartość Opis
żywy Vivid tworzy obrazy, które są hiperrealistyczne i dramatyczne.
naturalny Naturalne tworzy obrazy, które są bardziej naturalne i mniej hiperrealistyczne.

żądanieGeneracjiObrazów

Nazwa Typ Opis Wymagane Wartość domyślna
monit ciąg Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. Tak
n liczba całkowita Liczba obrazów do wygenerowania. Nie. 1
rozmiar imageSize Rozmiar wygenerowanych obrazów. Nie. 1024x1024
format_odpowiedzi imagesResponseFormat Format, w którym są zwracane wygenerowane obrazy. Nie. URL
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
jakość imageQuality Jakość obrazu, który zostanie wygenerowany. Nie. standard
styl imageStyle Styl wygenerowanych obrazów. Nie. żywy

generateImagesResponse

Nazwa Typ Opis Wymagane Wartość domyślna
utworzone liczba całkowita Sygnatura czasowa systemu unix podczas tworzenia operacji. Tak
dane macierz Dane wynikowe operacji, jeśli operacja zakończyła się pomyślnie Tak

wynikObrazu

Adres URL obrazu lub zakodowany obraz, jeśli się powiedzie, i błąd w przeciwnym razie.

Nazwa Typ Opis Wymagane Wartość domyślna
URL ciąg Adres URL obrazu. Nie.
b64_json ciąg Obraz zakodowany w formacie base64 Nie.
wyniki_filtra_treści Wyniki filtru treści DALL-E Informacje o wynikach filtrowania zawartości. Nie.
(revised_prompt remains unchanged, assuming it is a placeholder requiring no translation or adaptation) ciąg Polecenie, które zostało użyte do wygenerowania obrazu, jeśli dokonano jakiejkolwiek poprawki do podpowiedzi. Nie.
wyniki_filtru_poleceń dalleFilterResults Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli została odfiltrowana i jej identyfikator. Nie.

Rozszerzenia uzupełniania

Rozszerzenia uzupełniania nie są częścią najnowszej ogólnie dostępnej wersji specyfikacji inferencji planu danych usługi Azure OpenAI.

Wiadomość czatu

Obiekt komunikatu czatu nie jest częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.

Tekst na mowę (Podgląd)

Obecnie nie jest częścią najnowszej wersji GA platformy Azure OpenAI w specyfikacji płaszczyzny danych wnioskowania Azure OpenAI. Zapoznaj się z najnowszą wersją zapoznawczą tej funkcji.

Dalsze kroki

Dowiedz się więcej o modelach i dostrajaniu za pomocą interfejsu API REST. Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.