Azure OpenAI (préversion)
Intégrer facilement Azure fonctionnalités d'intelligence artificielle de pointe d'OpenAI dans vos flux de travail
Ce connecteur est disponible dans les produits et régions suivants :
| Service | classe | Régions |
|---|---|---|
| Copilot Studio | Premium | Toutes les régions Power Automate à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Applications logiques | Norme | Toutes les régions Logic Apps , à l’exception des suivantes : - régions Azure Government - régions de chine Azure - Us Department of Defense (DoD) |
| Power Apps | Premium | Toutes les régions Power Apps à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Power Automate | Premium | Toutes les régions Power Automate à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Contact | |
|---|---|
| Nom | Microsoft |
| URL | https://support.microsoft.com |
| Métadonnées du connecteur | |
|---|---|
| Publisher | Microsoft |
| Site internet | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Politique de confidentialité | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Catégories | IA; Informatique décisionnelle |
Azure OpenAI On Your Data vous permet d’exécuter des modèles IA avancés tels que GPT-35-Turbo et GPT-4 sur vos propres données d’entreprise sans avoir à entraîner ou affiner les modèles. Vous pouvez discuter et analyser vos données avec une plus grande précision. Vous pouvez également spécifier des sources pour prendre en charge les réponses du modèle en fonction des informations les plus récentes disponibles dans vos sources de données désignées, ou omettre la source de données pour appeler votre modèle OpenAI Azure sans mettre de base sur les données.
Prerequisites
- abonnement Azure - Create one gratuitement.
- Apply pour accéder à Azure OpenAI. Azure OpenAI nécessite une inscription et est actuellement disponible uniquement pour les clients et partenaires d’entreprise approuvés. Consultez Accès limité à Azure OpenAI Service pour plus d’informations.
-
Créer une ressource OpenAI Azure dans le portail Azure. Veillez à créer votre ressource dans une région prise en charge avec un modèle pris en charge.
- Assurez-vous que vous êtes affecté au moins au rôle contributeur Cognitive Services pour la ressource OpenAI Azure.
- Créer une ressource Recherche Azure AI dans le portail Azure et suivre les pratiques best pour préparer des données dans votre instance de Recherche Azure AI à utiliser avec l’Azure OpenAI On Your Data Service.
Conseil / Astuce
Si c'est la première fois que vous utilisez Azure OpenAI sur vos données, essayez le quickstart pour commencer à utiliser le service.
Obtenir vos informations d’identification
Pour authentifier vos demandes d’API, vous aurez besoin de la clé et du point de terminaison de votre Azure Des ressources OpenAI et Recherche Azure AI.
Pour votre ressource OpenAI Azure :
- Accédez à votre ressource dans le portail Azure.
- Dans la page de votre ressource, sélectionnez Clés et point de terminaison dans le menu de navigation de gauche. Notez vos informations d’identification. Vous utiliserez l’une de vos clés et de votre point de terminaison.
Pour votre ressource Recherche Azure AI :
- Accédez à votre ressource dans le portail Azure.
- Dans la page Vue d’ensemble de votre ressource, notez l’URL.
- Sélectionnez Clés dans le menu de navigation de gauche. Vous utiliserez l’une de vos clés d’administration.
Problèmes connus et limitations
- Seul Recherche Azure AI est pris en charge comme source de données pour utiliser Azure OpenAI sur vos données avec ce connecteur Power Platform.
- L’appel de fonction n’est pas pris en charge.
- Les images ne sont pas prises en charge dans le contenu du message.
Création d’une connexion
Le connecteur prend en charge les types d’authentification suivants :
| Clé API | Fournissez Azure nom de ressource OpenAI et clé API pour accéder à votre Azure OpenAI qui héberge le modèle IA. | Toutes les régions | Partageable |
| Identités managées par applications logiques | Créer une connexion à l’aide d’une identité managée LogicApps | LOGICAPPS uniquement | Partageable |
| Valeur par défaut [DÉCONSEILLÉE] | Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante. | Toutes les régions | Non partageable |
Clé d’API
ID d’authentification : keyBasedAuth
Applicable : Toutes les régions
Fournissez Azure nom de ressource OpenAI et clé API pour accéder à votre Azure OpenAI qui héberge le modèle IA.
Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble Connectors pour les applications de canevas - Power Apps | Microsoft Docs
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| nom de ressource OpenAI Azure | ficelle | Nom de la ressource OpenAI Azure qui héberge le modèle IA | Vrai |
| clé API OpenAI Azure | securestring | Clé API permettant d’accéder à la ressource OpenAI Azure qui héberge le modèle IA | Vrai |
| URL du point de terminaison Recherche cognitive Azure | ficelle | URL du point de terminaison Recherche cognitive Azure indexant vos données | |
| clé API Recherche cognitive Azure | securestring | Clé API permettant d’accéder au point de terminaison Recherche cognitive Azure indexer vos données |
Identité managée Logic Apps
ID d’authentification : managedIdentityAuth
Applicable : LOGICAPPS uniquement
Créer une connexion à l’aide d’une identité managée LogicApps
Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble Connectors pour les applications de canevas - Power Apps | Microsoft Docs
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| Identité managée LogicApps | managedIdentity | Se connecter avec une identité managée Logic Apps | Vrai |
| nom de ressource OpenAI Azure | ficelle | Nom de la ressource OpenAI Azure qui héberge le modèle IA | Vrai |
Valeur par défaut [DÉCONSEILLÉE]
Applicable : Toutes les régions
Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante.
Cette connexion n’est pas partageable. Si l’application power est partagée avec un autre utilisateur, un autre utilisateur est invité à créer une connexion explicitement.
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| nom de ressource OpenAI Azure | ficelle | Nom de la ressource OpenAI Azure qui héberge le modèle IA | Vrai |
| clé API OpenAI Azure | securestring | Clé API permettant d’accéder à la ressource OpenAI Azure qui héberge le modèle IA | Vrai |
| URL du point de terminaison Recherche cognitive Azure | ficelle | URL du point de terminaison Recherche cognitive Azure indexant vos données | |
| clé API Recherche cognitive Azure | securestring | Clé API permettant d’accéder au point de terminaison Recherche cognitive Azure indexer vos données |
Limitations
| Nom | Appels | Période de renouvellement |
|---|---|---|
| Appels d’API par connexion | 1000 | 60 secondes |
Actions
| Crée un achèvement pour le message de conversation |
Crée un achèvement pour le message de conversation |
| Obtenir plusieurs incorporations |
Obtenir des représentations vectorielles d’un tableau d’entrées donné qui peuvent être facilement consommées par les modèles et algorithmes Machine Learning |
| Obtenir une incorporation |
Obtenir une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par les modèles et algorithmes Machine Learning |
| Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation |
Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation |
Crée un achèvement pour le message de conversation
Crée un achèvement pour le message de conversation
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de déploiement du modèle déployé
|
deployment-id | True | string |
ID de déploiement du modèle déployé |
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
température
|
temperature | number |
Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou |
|
|
top_p
|
top_p | number |
Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier cela ou |
|
|
ruisseau
|
stream | boolean |
Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message |
|
|
stop
|
stop | array of string |
Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. |
|
|
nombre_maximal_de_tokens
|
max_tokens | integer |
Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). |
|
|
pénalité_de_presence
|
presence_penalty | number |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
|
|
frequency_penalty
|
frequency_penalty | number |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
|
|
logit_bias
|
logit_bias | object |
Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
|
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI pour surveiller et détecter les abus. |
|
|
role
|
role | True | string |
Rôle de l’auteur des messages. |
|
contenu
|
content | True | string |
Tableau de parties de contenu avec un type défini, chacun peut être de type |
|
type
|
type | True | string |
Représentation des données de configuration pour une seule extension de conversation OpenAI Azure. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser Azure extensions de conversation OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
|
top_n_documents
|
top_n_documents | integer |
Nombre maximal configuré de documents à présenter pour la requête configurée. |
|
|
in_scope
|
in_scope | boolean |
Indique si les requêtes doivent être limitées à l’utilisation de données indexées. |
|
|
strictness
|
strictness | integer |
La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. |
|
|
informations_sur_le_rôle
|
role_information | string |
Fournissez au modèle des instructions sur son comportement et sur tout contexte qu’il doit référencer en générant une réponse. Vous pouvez décrire la personnalité de l’assistant, lui dire ce qu’il doit et ne doit pas répondre, et lui indiquer comment formater les réponses. Il existe une limite de 100 jetons pour celle-ci, et elle compte pour la limite globale des jetons. |
|
|
nom_de_l'index
|
index_name | True | string |
Nom de l’index à utiliser comme disponible dans la ressource de recherche Azure référencée. |
|
champ_titre
|
title_field | string |
Nom du champ d’index à utiliser comme titre. |
|
|
url_field
|
url_field | string |
Nom du champ d’index à utiliser comme URL. |
|
|
filepath_field
|
filepath_field | string |
Nom du champ d’index à utiliser comme chemin d’accès au fichier. |
|
|
champs_de_contenu
|
content_fields | array of string |
Nom des champs d’index qui doivent être traités comme du contenu. |
|
|
séparateur_de_champs_de_contenu
|
content_fields_separator | string |
Modèle de séparation que les champs de contenu doivent utiliser. |
|
|
champs vectoriels
|
vector_fields | array of string |
Noms de champs qui représentent des données vectorielles. |
|
|
type_de_requête
|
query_type | string |
Type de requête de récupération de recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation OpenAI Azure. |
|
|
configuration_sémantique
|
semantic_configuration | string |
La configuration sémantique supplémentaire pour la requête. |
|
|
Filter
|
filter | string |
Filtre de recherche. |
|
|
type
|
type | string |
Représente les sources disponibles Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
|
|
nom_de_déploiement
|
deployment_name | True | string |
Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même Azure ressource OpenAI, mais sur vos données utilise ce déploiement de modèle via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. |
|
n
|
n | integer |
Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. |
|
|
seed
|
seed | integer |
S’il est spécifié, notre système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes |
|
|
logprobs
|
logprobs | boolean |
Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le |
|
|
top_logprobs
|
top_logprobs | integer |
Entier compris entre 0 et 5 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée.
|
|
|
type
|
type | string |
Paramètre pour |
Retours
Obtenir plusieurs incorporations
Obtenir des représentations vectorielles d’un tableau d’entrées donné qui peuvent être facilement consommées par les modèles et algorithmes Machine Learning
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de déploiement du modèle déployé
|
deployment-id | True | string |
ID de déploiement du modèle déployé |
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
saisie
|
input | True | array of string |
Tableau de textes d’entrée pour obtenir des incorporations pour, encodées sous forme de chaîne. Chaque chaîne d’entrée ne doit pas dépasser 2048 jetons de longueur |
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI pour surveiller et détecter les abus. |
|
|
input_type
|
input_type | string |
Type d’entrée de la recherche d’incorporation à utiliser. |
Retours
Obtenir une incorporation
Obtenir une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par les modèles et algorithmes Machine Learning
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de déploiement du modèle déployé
|
deployment-id | True | string |
ID de déploiement du modèle déployé |
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
saisie
|
input | True | string |
Texte d’entrée pour obtenir des incorporations pour, encodées sous forme de chaîne. La chaîne d’entrée ne doit pas dépasser 2048 jetons de longueur |
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI pour surveiller et détecter les abus. |
|
|
input_type
|
input_type | string |
Type d’entrée de la recherche d’incorporation à utiliser. |
Retours
Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation
Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de déploiement du modèle déployé
|
deployment-id | True | string |
ID de déploiement du modèle déployé |
|
Confirmer l’ID de déploiement du modèle déployé
|
deploymentId | True | string |
Confirmer l’ID de déploiement du modèle déployé |
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
index
|
index | integer |
Index du message dans la conversation. |
|
|
role
|
role | True | string |
Rôle de l’auteur de ce message. |
|
destinataire
|
recipient | string |
Destinataire du message au format de l’espace de <noms>.<opération>. Présentez si et uniquement si le destinataire est un outil. |
|
|
contenu
|
content | True | string |
Contenu du message |
|
end_turn
|
end_turn | boolean |
Indique si le message termine le tour. |
|
|
type
|
type | True | string |
Type de source de données. |
|
parameters
|
parameters | object |
Paramètres à utiliser pour la source de données au moment de l’exécution. |
|
|
température
|
temperature | number |
Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou |
|
|
top_p
|
top_p | number |
Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier cela ou |
|
|
ruisseau
|
stream | boolean |
Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message |
|
|
stop
|
stop | array of string |
Taille minimale du tableau de 1 et maximale de 4 |
|
|
nombre_maximal_de_tokens
|
max_tokens | integer |
Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). |
|
|
pénalité_de_presence
|
presence_penalty | number |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
|
|
frequency_penalty
|
frequency_penalty | number |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
|
|
logit_bias
|
logit_bias | object |
Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
|
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI pour surveiller et détecter les abus. |
Retours
Réponse des achèvements de conversation des extensions.
Définitions
Message
Message de conversation.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
index
|
index | integer |
Index du message dans la conversation. |
|
role
|
role | string |
Rôle de l’auteur de ce message. |
|
destinataire
|
recipient | string |
Destinataire du message au format de l’espace de <noms>.<opération>. Présentez si et uniquement si le destinataire est un outil. |
|
contenu
|
content | string |
Contenu du message |
|
end_turn
|
end_turn | boolean |
Indique si le message termine le tour. |
ExtensionsChatCompletionsResponse
Réponse des achèvements de conversation des extensions.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string | |
|
objet
|
object | string | |
|
créé
|
created | integer | |
|
model
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
total_tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
index
|
index | integer | |
|
finish_reason
|
finish_reason | string | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. |
|
messages
|
messages | array of Message |
Liste des messages retournés par le service. |
contentFilterResult
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
severity
|
severity | string | |
|
filtered
|
filtered | boolean |
contentFilterResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
violence
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
self_harm
|
self_harm | contentFilterResult | |
|
erreur
|
error | errorBase |
promptFilterResult
Résultats du filtrage de contenu pour un seul prompt dans la requête.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. |
promptFilterResults
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
Objets
|
promptFilterResult |
Résultats du filtrage de contenu pour un seul prompt dans la requête. |
errorBase
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
code
|
code | string | |
|
Message
|
message | string |
errorBase_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
code
|
code | string | |
|
Message
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
severity
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
license
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string | |
|
filtered
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
erreur
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
erreur
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Résultats du filtrage de contenu pour un seul prompt dans la requête.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. |
promptFilterResults_2024Feb15Preview
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
Objets
|
promptFilterResult_2024Feb15Preview |
Résultats du filtrage de contenu pour un seul prompt dans la requête. |
azureChatExtensionsMessageContext_2024Feb15Preview
Représentation des informations de contexte supplémentaires disponibles lorsque Azure extensions de conversation OpenAI sont impliquées dans la génération d’une réponse de saisie semi-automatique de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une demande OpenAI Azure configurée pour utiliser une extension correspondante.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
citations
|
citations | array of citation_2024Feb15Preview |
Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. |
|
objectif
|
intent | string |
Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte. |
citation_2024Feb15Preview
informations de citation pour un message de réponse des saisies semi-automatiques de conversation.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
contenu
|
content | string |
Contenu de la citation. |
|
title
|
title | string |
Titre de la citation. |
|
URL
|
url | string |
URL de la citation. |
|
chemin d’accès
|
filepath | string |
Chemin d’accès au fichier de la citation. |
|
identifiant_du_segment
|
chunk_id | string |
ID de bloc de la citation. |
createChatCompletionResponse_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
Identificateur unique de la complétion de conversation. |
|
objet
|
object | chatCompletionResponseObject_2024Feb15Preview |
Type d’objet. |
|
créé
|
created | integer |
Horodatage Unix (en secondes) de la création de la complétion de conversation. |
|
model
|
model | string |
Modèle utilisé pour la complétion de conversation. |
|
usage
|
usage | completionUsage_2024Feb15Preview |
Statistiques d’utilisation pour la demande d’achèvement. |
|
system_fingerprint
|
system_fingerprint | string |
Peut être utilisé avec le paramètre de requête |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. |
|
choices
|
choices | array of object | |
|
index
|
choices.index | integer | |
|
finish_reason
|
choices.finish_reason | string | |
|
Message
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Message de complétion de conversation généré par le modèle. |
|
content_filter_results
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Informations de probabilité logarithmique pour le choix. |
chatCompletionChoiceLogProbs_2024Feb15Preview
Informations de probabilité logarithmique pour le choix.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
contenu
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Une liste des jetons de contenu de message avec des informations de probabilité logarithmique. |
chatCompletionTokenLogprob_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
token
|
token | string |
Jeton. |
|
logprob
|
logprob | number |
La probabilité logarithmique de ce jeton. |
|
Octets
|
bytes | array of integer |
Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être |
|
top_logprobs
|
top_logprobs | array of object |
Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de |
|
token
|
top_logprobs.token | string |
Jeton. |
|
logprob
|
top_logprobs.logprob | number |
La probabilité logarithmique de ce jeton. |
|
Octets
|
top_logprobs.bytes | array of integer |
Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être |
chatCompletionResponseMessage_2024Feb15Preview
Message de complétion de conversation généré par le modèle.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
role
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
Le rôle de l’auteur du message de réponse. |
|
contenu
|
content | string |
Contenu du message. |
|
context
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Représentation des informations de contexte supplémentaires disponibles lorsque Azure extensions de conversation OpenAI sont impliquées dans la génération d’une réponse de saisie semi-automatique de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une demande OpenAI Azure configurée pour utiliser une extension correspondante. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Statistiques d’utilisation pour la demande d’achèvement.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Nombre de jetons dans l’invite. |
|
completion_tokens
|
completion_tokens | integer |
Nombre de jetons dans la complétion générée. |
|
total_tokens
|
total_tokens | integer |
Nombre total de jetons utilisés dans la requête (prompt + complétion). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
objet
|
object | string |
Détails du type d’objet response |
|
model
|
model | string |
Le nom du modèle |
|
embedding
|
embedding | array of number |
Tableau de floats qui représentent les incorporations calculées pour les entrées données |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Nombre de jetons utilisés dans l’entrée |
|
total_tokens
|
usage.total_tokens | integer |
Nombre total de jetons utilisés |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
objet
|
object | string |
Détails du type d’objet response |
|
model
|
model | string |
Le nom du modèle |
|
embeddings
|
embeddings | array of array |
Tableau avec tableaux de floats représentant les incorporations calculées de la collection de chaînes d’entrée |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Nombre de jetons utilisés dans l’entrée |
|
total_tokens
|
usage.total_tokens | integer |
Nombre total de jetons utilisés |