Udostępnij przez


Azure OpenAI (wersja zapoznawcza)

Łatwe integrowanie najnowszych możliwości sztucznej inteligencji usługi Azure OpenAI z przepływami pracy

Ten łącznik jest dostępny w następujących produktach i regionach:

Usługa Class Regions
Copilot Studio Premium Wszystkie regiony usługi Power Automate z wyjątkiem następujących:
     - Rząd USA (GCC)
     - Rząd USA (GCC High)
     - China Cloud obsługiwane przez firmę 21Vianet
     - Departament Obrony USA (DoD)
Logic Apps Standard Wszystkie regiony usługi Logic Apps z wyjątkiem następujących:
     — Regiony platformy Azure Government
     — Regiony platformy Azure (Chiny)
     - Departament Obrony USA (DoD)
Power Apps Premium Wszystkie regiony usługi Power Apps z wyjątkiem następujących:
     - Rząd USA (GCC)
     - Rząd USA (GCC High)
     - China Cloud obsługiwane przez firmę 21Vianet
     - Departament Obrony USA (DoD)
Power Automate Premium Wszystkie regiony usługi Power Automate z wyjątkiem następujących:
     - Rząd USA (GCC)
     - Rząd USA (GCC High)
     - China Cloud obsługiwane przez firmę 21Vianet
     - Departament Obrony USA (DoD)
Kontakt
Name Microsoft
adres URL https://support.microsoft.com
Metadane łącznika
Publisher Microsoft
Witryna internetowa https://azure.microsoft.com/en-us/products/cognitive-services/openai-service
Zasady ochrony prywatności https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
Kategorie AI; Analiza biznesowa

Tworzenie połączenia

Łącznik obsługuje następujące typy uwierzytelniania:

Klucz API Podaj nazwę zasobu usługi Azure OpenAI i klucz interfejsu API, aby uzyskać dostęp do usługi Azure OpenAI, która hostuje model AI. Wszystkie regiony Udostępnialne
Tożsamość zarządzana usługi Logic Apps Tworzenie połączenia przy użyciu tożsamości zarządzanej usługi LogicApps Tylko USŁUGA LOGICAPPS Udostępnialne
Domyślne [PRZESTARZAŁE] Ta opcja dotyczy tylko starszych połączeń bez jawnego typu uwierzytelniania i jest dostępna tylko w celu zapewnienia zgodności z poprzednimi wersjami. Wszystkie regiony Nie można udostępniać

Klucz interfejsu API

Identyfikator uwierzytelniania: keyBasedAuth

Dotyczy: wszystkie regiony

Podaj nazwę zasobu usługi Azure OpenAI i klucz interfejsu API, aby uzyskać dostęp do usługi Azure OpenAI, która hostuje model AI.

Jest to możliwe do udostępnienia połączenie. Jeśli aplikacja power jest udostępniana innemu użytkownikowi, połączenie jest również udostępniane. Aby uzyskać więcej informacji, zobacz Omówienie łączników dla aplikacji kanwy — Power Apps | Microsoft Docs

Name Typ Description Wymagane
Nazwa zasobu usługi Azure OpenAI ciąg Nazwa zasobu usługi Azure OpenAI, który hostuje model AI Prawda
Klucz interfejsu API platformy Azure OpenAI securestring Klucz interfejsu API umożliwiający dostęp do zasobu usługi Azure OpenAI, który hostuje model AI Prawda
Adres URL punktu końcowego usługi Azure Cognitive Search ciąg Adres URL punktu końcowego usługi Azure Cognitive Search indeksujący dane
Klucz interfejsu API usługi Azure Cognitive Search securestring Klucz interfejsu API umożliwiający dostęp do punktu końcowego usługi Azure Cognitive Search indeksowania danych

Tożsamość zarządzana usługi Logic Apps

Identyfikator uwierzytelniania: managedIdentityAuth

Dotyczy: tylko USŁUGA LOGICAPPS

Tworzenie połączenia przy użyciu tożsamości zarządzanej usługi LogicApps

Jest to możliwe do udostępnienia połączenie. Jeśli aplikacja power jest udostępniana innemu użytkownikowi, połączenie jest również udostępniane. Aby uzyskać więcej informacji, zobacz Omówienie łączników dla aplikacji kanwy — Power Apps | Microsoft Docs

Name Typ Description Wymagane
Tożsamość zarządzana usługi LogicApps managedIdentity Logowanie się przy użyciu tożsamości zarządzanej usługi Logic Apps Prawda
Nazwa zasobu usługi Azure OpenAI ciąg Nazwa zasobu usługi Azure OpenAI, który hostuje model AI Prawda

Domyślne [PRZESTARZAŁE]

Dotyczy: wszystkie regiony

Ta opcja dotyczy tylko starszych połączeń bez jawnego typu uwierzytelniania i jest dostępna tylko w celu zapewnienia zgodności z poprzednimi wersjami.

Nie jest to możliwe do udostępnienia połączenie. Jeśli aplikacja power zostanie udostępniona innemu użytkownikowi, zostanie wyświetlony monit o jawne utworzenie nowego połączenia.

Name Typ Description Wymagane
Nazwa zasobu usługi Azure OpenAI ciąg Nazwa zasobu usługi Azure OpenAI, który hostuje model AI Prawda
Klucz interfejsu API platformy Azure OpenAI securestring Klucz interfejsu API umożliwiający dostęp do zasobu usługi Azure OpenAI, który hostuje model AI Prawda
Adres URL punktu końcowego usługi Azure Cognitive Search ciąg Adres URL punktu końcowego usługi Azure Cognitive Search indeksujący dane
Klucz interfejsu API usługi Azure Cognitive Search securestring Klucz interfejsu API umożliwiający dostęp do punktu końcowego usługi Azure Cognitive Search indeksowania danych

Limity ograniczania

Nazwa Wywołania Okres odnowienia
Wywołania interfejsu API na połączenie 1000 60 sekund

Akcje

Pobieranie osadzania

Uzyskiwanie wektorowej reprezentacji danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego

Pobieranie wielu osadzania

Uzyskiwanie reprezentacji wektorów dla danej tablicy danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego

Tworzenie uzupełniania wiadomości czatu przy użyciu rozszerzeń

Tworzenie uzupełniania wiadomości czatu przy użyciu rozszerzeń

Tworzy uzupełnienie wiadomości na czacie

Tworzy uzupełnienie wiadomości na czacie

Pobieranie osadzania

Uzyskiwanie wektorowej reprezentacji danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego

Parametry

Nazwa Klucz Wymagane Typ Opis
Identyfikator wdrożenia wdrożonego modelu
deployment-id True string

Identyfikator wdrożenia wdrożonego modelu

wersja API
api-version True string

wersja API

dane wejściowe
input True string

Tekst wejściowy do pobrania osadzania dla elementu zakodowany jako ciąg. Ciąg wejściowy nie może przekraczać 2048 tokenów długości

użytkownik
user string

Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć.

typ_wprowadzenia
input_type string

Typ danych wejściowych wyszukiwania osadzania do użycia.

Zwraca

Pobieranie wielu osadzania

Uzyskiwanie reprezentacji wektorów dla danej tablicy danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego

Parametry

Nazwa Klucz Wymagane Typ Opis
Identyfikator wdrożenia wdrożonego modelu
deployment-id True string

Identyfikator wdrożenia wdrożonego modelu

wersja API
api-version True string

wersja API

dane wejściowe
input True array of string

Tablica tekstów wejściowych, dla których mają być osadzane, zakodowane jako ciąg. Każdy ciąg wejściowy nie może przekraczać 2048 tokenów długości

użytkownik
user string

Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć.

typ_wprowadzenia
input_type string

Typ danych wejściowych wyszukiwania osadzania do użycia.

Zwraca

Tworzenie uzupełniania wiadomości czatu przy użyciu rozszerzeń

Tworzenie uzupełniania wiadomości czatu przy użyciu rozszerzeń

Parametry

Nazwa Klucz Wymagane Typ Opis
Identyfikator wdrożenia wdrożonego modelu
deployment-id True string

Identyfikator wdrożenia wdrożonego modelu

Potwierdzanie identyfikatora wdrożenia wdrożonego modelu
deploymentId True string

Potwierdzanie identyfikatora wdrożenia wdrożonego modelu

wersja API
api-version True string

wersja API

indeks
index integer

Indeks wiadomości w konwersacji.

rola
role True string

Rola autora tej wiadomości.

adresat
recipient string

Adresat wiadomości w formacie <przestrzeni nazw>.<operacja>. Prezentuj, jeśli i tylko wtedy, gdy adresat jest narzędziem.

zawartość
content True string

Zawartość wiadomości

end_turn
end_turn boolean

Czy komunikat kończy się kolei.

typ
type True string

Typ źródła danych.

parameters
parameters object

Parametry, które mają być używane dla źródła danych w środowisku uruchomieniowym.

temperatura
temperature number

Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.

top_p
top_p number

Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa. Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.

odtwarzać strumieniowo
stream boolean

W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia jednokierunkowe przesyłane do serwera w miarę ich dostępności, a strumień zostanie zakończony komunikatem data: [DONE].

stop
stop array of string

Minimalny rozmiar tablicy 1 i maksymalnie 4

maks_tokenów
max_tokens integer

Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które model może zwrócić, wynosi (4096 - tokeny podpowiedzi).

kara_obecności
presence_penalty number

Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy.

kara za częstotliwość
frequency_penalty number

Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.

odchylenie logistyczne
logit_bias object

Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.

użytkownik
user string

Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć.

Zwraca

Odpowiedź na zakończenia czatu rozszerzeń.

Tworzy uzupełnienie wiadomości na czacie

Tworzy uzupełnienie wiadomości na czacie

Parametry

Nazwa Klucz Wymagane Typ Opis
Identyfikator wdrożenia wdrożonego modelu
deployment-id True string

Identyfikator wdrożenia wdrożonego modelu

wersja API
api-version True string

wersja API

temperatura
temperature number

Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne. Ogólnie zalecamy zmienić to lub top_p, ale nie obu jednocześnie.

top_p
top_p number

Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa. Ogólnie zalecamy zmienić to lub temperature, ale nie obu jednocześnie.

odtwarzać strumieniowo
stream boolean

W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia jednokierunkowe przesyłane do serwera w miarę ich dostępności, a strumień zostanie zakończony komunikatem data: [DONE].

stop
stop array of string

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.

maks_tokenów
max_tokens integer

Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które model może zwrócić, wynosi (4096 - tokeny podpowiedzi).

kara_obecności
presence_penalty number

Liczba z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy.

kara za częstotliwość
frequency_penalty number

Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.

odchylenie logistyczne
logit_bias object

Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie, przesunięcie jest dodawane do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.

użytkownik
user string

Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć.

rola
role True string

Rola autora wiadomości.

zawartość
content True string

Tablica części zawartości o zdefiniowanym typie może być typu text.

typ
type True string

Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń do czatu Azure OpenAI w celu poprawy zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

top_n_documents
top_n_documents integer

Skonfigurowana maksymalna liczba dokumentów do wyświetlenia dla skonfigurowanego zapytania.

w zakresie
in_scope boolean

Czy zapytania powinny być ograniczone do używania indeksowanych danych.

ścisłość
strictness integer

Skonfigurowana dokładność filtrowania istotności wyszukiwania. Im większa jest surowość, tym większa precyzja, ale niższa kompletność odpowiedzi.

informacje_o_roli
role_information string

Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit 100 tokenów, a są one liczone w stosunku do ogólnego limitu tokenów.

nazwa_indeksu
index_name True string

Nazwa indeksu, który ma być używany jako dostępny w przywoływowanym zasobie usługi Azure Search.

pole_tytułu
title_field string

Nazwa pola indeksu, które ma być używane jako tytuł.

url_field
url_field string

Nazwa pola indeksu, które ma być używane jako adres URL.

pole ścieżki pliku
filepath_field string

Nazwa pola indeksu do użycia jako ścieżka pliku.

pola_treści
content_fields array of string

Nazwy pól indeksu, które powinny być traktowane jako zawartość.

separator_pól_treści
content_fields_separator string

Wzorzec separatora, którego powinny używać pola zawartości.

pola wektorowe
vector_fields array of string

Nazwy pól reprezentujących dane wektorowe.

typ_zapytania
query_type string

Typ zapytania wyszukiwania w usłudze Azure Search, który należy wykonać podczas korzystania z niej jako rozszerzenia czatu w usłudze Azure OpenAI.

konfiguracja semantyczna
semantic_configuration string

Dodatkowa konfiguracja semantyczna zapytania.

filtr
filter string

Filtr wyszukiwania.

typ
type string

Reprezentuje dostępne źródła, które usługa Azure OpenAI On Your Data może wykorzystać do konfigurowania wektoryzacji danych do użycia z wyszukiwaniem wektorowym.

nazwa wdrożenia
deployment_name True string

Określa nazwę wdrożenia modelu do użycia na potrzeby wektoryzacji. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale funkcja "On Your Data" będzie korzystać z tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego zamiast publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych.

n
n integer

Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej.

seed
seed integer

Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik. Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.

logprobs
logprobs boolean

Czy zwracać logarytmiczne prawdopodobieństwa dla tokenów wyjściowych, czy nie. Jeśli true, zwraca logarytmiczne prawdopodobieństwa każdego tokenu wyjściowego zwróconego w content elementu message. Ta opcja jest obecnie niedostępna gpt-4-vision-preview w modelu.

top_logprobs
top_logprobs integer

Liczba całkowita z zakresu od 0 do 5 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawione na true, jeśli ten parametr jest używany.

typ
type string

Ustawienie w celu json_object włączenia trybu JSON. Gwarantuje to, że komunikat generowany przez model jest prawidłowym kodem JSON.

Zwraca

Definicje

Message

Wiadomość czatu.

Nazwa Ścieżka Typ Opis
indeks
index integer

Indeks wiadomości w konwersacji.

rola
role string

Rola autora tej wiadomości.

adresat
recipient string

Adresat wiadomości w formacie <przestrzeni nazw>.<operacja>. Prezentuj, jeśli i tylko wtedy, gdy adresat jest narzędziem.

zawartość
content string

Zawartość wiadomości

end_turn
end_turn boolean

Czy komunikat kończy się kolei.

ExtensionsChatCompletionsResponse

Odpowiedź na zakończenia czatu rozszerzeń.

Nazwa Ścieżka Typ Opis
id
id string
obiekt
object string
utworzone
created integer
model
model string
prompt_filter_results
prompt_filter_results promptFilterResults

Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności.

prompt_tokens
usage.prompt_tokens integer
completion_tokens
usage.completion_tokens integer
total_tokens
usage.total_tokens integer
choices
choices array of ExtensionsChatCompletionChoice

ExtensionsChatCompletionChoice

Nazwa Ścieżka Typ Opis
indeks
index integer
powód zakończenia
finish_reason string
content_filter_results
content_filter_results contentFilterResults

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie.

messages
messages array of Message

Lista komunikatów zwracanych przez usługę.

contentFilterResult

Nazwa Ścieżka Typ Opis
severity
severity string
filtered
filtered boolean

contentFilterResults

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie.

Nazwa Ścieżka Typ Opis
sexual
sexual contentFilterResult
violence
violence contentFilterResult
hate
hate contentFilterResult
self_harm
self_harm contentFilterResult
błąd
error errorBase

WynikFiltrowaniaPromptu

Wyniki filtrowania treści dla pojedynczego polecenia w żądaniu.

Nazwa Ścieżka Typ Opis
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterResults

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie.

pokażWynikiFiltru

Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności.

Nazwa Ścieżka Typ Opis
Przedmioty
promptFilterResult

Wyniki filtrowania treści dla pojedynczego polecenia w żądaniu.

errorBase

Nazwa Ścieżka Typ Opis
kod
code string
komunikat
message string

errorBase_2024Feb15Preview

Nazwa Ścieżka Typ Opis
kod
code string
komunikat
message string

contentFilterSeverityResult_2024Feb15Preview

Nazwa Ścieżka Typ Opis
filtered
filtered boolean
severity
severity string

contentFilterDetectedResult_2024Feb15Preview

Nazwa Ścieżka Typ Opis
filtered
filtered boolean
detected
detected boolean

contentFilterDetectedWithCitationResult_2024Feb15Preview

Nazwa Ścieżka Typ Opis
filtered
filtered boolean
detected
detected boolean
adres URL
citation.URL string
licencja
citation.license string

contentFilterIdResult_2024Feb15Preview

Nazwa Ścieżka Typ Opis
id
id string
filtered
filtered boolean

contentFilterPromptResults_2024Feb15Preview

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

Nazwa Ścieżka Typ Opis
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
błąd
error errorBase_2024Feb15Preview
jailbreak
jailbreak contentFilterDetectedResult_2024Feb15Preview

contentFilterChoiceResults_2024Feb15Preview

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o tekście pochodzącym od podmiotów trzecich oraz o wulgaryzmach, czy zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

Nazwa Ścieżka Typ Opis
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
błąd
error errorBase_2024Feb15Preview
protected_material_text
protected_material_text contentFilterDetectedResult_2024Feb15Preview
protected_material_code
protected_material_code contentFilterDetectedWithCitationResult_2024Feb15Preview

promptFilterResult_2024Feb15Preview

Wyniki filtrowania treści dla pojedynczego polecenia w żądaniu.

Nazwa Ścieżka Typ Opis
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterPromptResults_2024Feb15Preview

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

promptFilterResults_2024Feb15Preview

Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności.

Nazwa Ścieżka Typ Opis
Przedmioty
promptFilterResult_2024Feb15Preview

Wyniki filtrowania treści dla pojedynczego polecenia w żądaniu.

azureChatExtensionsMessageContext_2024Feb15Preview

Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy w generowanie odpowiedzi na czat są zaangażowane rozszerzenia czatu Azure OpenAI. Te informacje kontekstowe są wypełniane tylko w przypadku używania żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.

Nazwa Ścieżka Typ Opis
citations
citations array of citation_2024Feb15Preview

Wynik pobierania źródła danych używany do generowania komunikatu asystenta w odpowiedzi.

intencja
intent string

Wykryta intencja z historii czatu, używana przy przejściu do następnego kroku, by przenieść kontekst.

citation_2024Feb15Preview

informacje o cytatach dla komunikatu odpowiedzi zakończenia czatu.

Nazwa Ścieżka Typ Opis
zawartość
content string

Zawartość cytatu.

title
title string

Tytuł cytatu.

URL
url string

Adres URL cytatu.

ścieżka pliku
filepath string

Ścieżka pliku cytatu.

identyfikator_kawałka
chunk_id string

Identyfikator fragmentu cytatu.

createChatCompletionResponse_2024Feb15Preview

Nazwa Ścieżka Typ Opis
id
id string

Unikatowy identyfikator ukończenia czatu.

obiekt
object chatCompletionResponseObject_2024Feb15Preview

Typ obiektu.

utworzone
created integer

Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia zakończenia czatu.

model
model string

Model używany do ukończenia czatu.

użycie
usage completionUsage_2024Feb15Preview

Statystyki użycia dotyczące żądania zakończenia.

system_fingerprint
system_fingerprint string

Można użyć w połączeniu z parametrem żądania seed, aby zrozumieć, kiedy wprowadzono zmiany w back-endzie, które mogą wpływać na deterministyczne działanie.

prompt_filter_results
prompt_filter_results promptFilterResults_2024Feb15Preview

Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych poleceń mogą pojawiać się o różnych porach lub w różnej kolejności.

choices
choices array of object
indeks
choices.index integer
powód zakończenia
choices.finish_reason string
komunikat
choices.message chatCompletionResponseMessage_2024Feb15Preview

Komunikat ukończenia czatu wygenerowany przez model.

content_filter_results
choices.content_filter_results contentFilterChoiceResults_2024Feb15Preview

Informacje o kategorii filtrowania treści (nienawiść, treści seksualne, przemoc, samookaleczenia), jeśli zostały wykryte, a także o poziomie ważności (bardzo niski, niski, średni, wysoki, które określają intensywność i poziom ryzyka szkodliwej zawartości) oraz czy zostały przefiltrowane, czy nie. Informacje o tekście pochodzącym od podmiotów trzecich oraz o wulgaryzmach, czy zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

logprobs
choices.logprobs chatCompletionChoiceLogProbs_2024Feb15Preview

Informacje o logarytmicznym prawdopodobieństwie dla wybranej opcji.

chatCompletionChoiceLogProbs_2024Feb15Preview

Informacje o logarytmicznym prawdopodobieństwie dla wybranej opcji.

Nazwa Ścieżka Typ Opis
zawartość
content array of chatCompletionTokenLogprob_2024Feb15Preview

Lista tokenów zawartości komunikatów z informacjami o prawdopodobieństwie logarytmicznym.

chatCompletionTokenLogprob_2024Feb15Preview

Nazwa Ścieżka Typ Opis
kod przedpłaty
token string

Znacznik.

logprob
logprob number

Logarytm prawdopodobieństwa tego tokenu.

bytes
bytes array of integer

Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może to być null , jeśli nie ma reprezentacji bajtów dla tokenu.

top_logprobs
top_logprobs array of object

Lista najbardziej prawdopodobnych tokenów i ich logarytmicznych prawdopodobieństw na tej pozycji tokenu. W rzadkich przypadkach może zostać zwróconych mniej elementów top_logprobs niż liczba żądanych.

kod przedpłaty
top_logprobs.token string

Znacznik.

logprob
top_logprobs.logprob number

Logarytm prawdopodobieństwa tego tokenu.

bytes
top_logprobs.bytes array of integer

Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może to być null , jeśli nie ma reprezentacji bajtów dla tokenu.

chatCompletionResponseMessage_2024Feb15Preview

Komunikat ukończenia czatu wygenerowany przez model.

Nazwa Ścieżka Typ Opis
rola
role chatCompletionResponseMessageRole_2024Feb15Preview

Rola autora komunikatu odpowiedzi.

zawartość
content string

Zawartość wiadomości.

kontekst
context azureChatExtensionsMessageContext_2024Feb15Preview

Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy w generowanie odpowiedzi na czat są zaangażowane rozszerzenia czatu Azure OpenAI. Te informacje kontekstowe są wypełniane tylko w przypadku używania żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.

chatCompletionResponseMessageRole_2024Feb15Preview

Rola autora komunikatu odpowiedzi.

Rola autora komunikatu odpowiedzi.

chatCompletionResponseObject_2024Feb15Preview

Typ obiektu.

Typ obiektu.

completionUsage_2024Feb15Preview

Statystyki użycia dotyczące żądania zakończenia.

Nazwa Ścieżka Typ Opis
prompt_tokens
prompt_tokens integer

Liczba tokenów w prompt.

completion_tokens
completion_tokens integer

Liczba tokenów w wygenerowanym zakończeniu.

total_tokens
total_tokens integer

Łączna liczba tokenów użytych w żądaniu (zapytanie + ukończenie).

getSingleEmbeddingsResponse_2024Feb15Preview

Nazwa Ścieżka Typ Opis
obiekt
object string

Szczegóły typu obiektu odpowiedzi

model
model string

Nazwa modelu

embedding
embedding array of number

Tablica zmiennoprzecinkowych reprezentujących obliczone osadzanie dla danych wejściowych

prompt_tokens
usage.prompt_tokens integer

Liczba tokenów używanych w danych wejściowych

total_tokens
usage.total_tokens integer

Łączna liczba użytych tokenów

getMultipleEmbeddingsResponse_2024Feb15Preview

Nazwa Ścieżka Typ Opis
obiekt
object string

Szczegóły typu obiektu odpowiedzi

model
model string

Nazwa modelu

embeddings
embeddings array of array

Tablica z tablicami zmiennoprzecinkowych reprezentującymi obliczone osadzanie kolekcji ciągów wejściowych

items
embeddings array of number
prompt_tokens
usage.prompt_tokens integer

Liczba tokenów używanych w danych wejściowych

total_tokens
usage.total_tokens integer

Łączna liczba użytych tokenów