Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
La détection d’émotions trouve des émotions dans les lignes de transcription d’une vidéo. Chaque phrase est détectée comme la colère, la peur, la joie, la tristesse ou aucune si aucune autre émotion n’est trouvée.
Important
Le modèle fonctionne uniquement sur le texte (étiquetage des émotions dans les transcriptions vidéo.) Ce modèle ne déduit pas l’état émotionnel des gens. Par conséquent, il peut ne pas s’exécuter là où l’entrée est ambiguë ou peu claire, comme les remarques sarcastiques. Par conséquent, le modèle ne doit pas être utilisé pour des éléments tels que l’évaluation des performances des employés ou l’état émotionnel d’une personne.
Cas d’usage de la détection d’émotions basées sur du texte
- Créateurs de contenu et éditeurs de vidéos : les créateurs de contenu et les éditeurs de vidéos peuvent utiliser le système pour analyser les émotions exprimées dans les transcriptions de texte de leurs vidéos. L’analyse les aide à obtenir des insights sur le ton émotionnel de leur contenu, ce qui leur permet d’affiner le récit, d’ajuster le rythme ou de garantir l’effet émotionnel prévu sur le public.
- Analystes et chercheurs des médias - Les analystes et chercheurs des médias peuvent utiliser le système pour analyser rapidement le contenu émotionnel d’un grand volume de transcriptions vidéo. Ils peuvent utiliser la chronologie émotionnelle générée par le système pour identifier les tendances, les modèles ou les réponses émotionnelles dans des sujets ou des domaines d’intérêt spécifiques.
- Professionnels du marketing et de la publicité - Les professionnels du marketing et de la publicité peuvent utiliser le système pour évaluer la réception émotionnelle de leurs campagnes ou publicités vidéo. Comprendre les émotions évoquées par leur contenu les aide à personnaliser les messages plus efficacement et à évaluer le succès de leurs campagnes.
- Consommateurs de vidéos et téléspectateurs - Les utilisateurs finaux, tels que les téléspectateurs ou les consommateurs de contenu vidéo, peuvent tirer parti du système en comprenant le contexte émotionnel des vidéos sans avoir à les regarder entièrement. Il est utile pour les utilisateurs qui souhaitent décider si une vidéo vaut la peine de regarder ou pour les personnes avec un temps limité à économiser.
- Professionnels de l’industrie du divertissement - Les professionnels de l’industrie du divertissement, tels que les producteurs de films ou les réalisateurs, peuvent utiliser le système pour évaluer l’effet émotionnel de leurs scripts ou scénarios de cinéma, ce qui aide à l’affinement des scripts et à l’engagement du public.
Remarque
La détection d’émotion basée sur du texte est indépendante de la langue. Toutefois, si la transcription n’est pas en anglais, elle est d’abord traduite en anglais. Ce n'est qu'alors que le modèle est appliqué. Cela peut entraîner une précision réduite dans la détection des émotions pour les langues autres que l’anglais.
Afficher le JSON d’insight avec le portail web
Après avoir téléchargé et indexé une vidéo, téléchargez des insights au format JSON à partir du portail web.
- Sélectionnez l’onglet Bibliothèque .
- Sélectionnez le média souhaité.
- Sélectionnez Télécharger, puis sélectionnez Insights (JSON). Le fichier JSON s’ouvre dans un nouvel onglet de navigateur.
- Recherchez la paire de clés décrite dans l’exemple de réponse.
Utilisation de l’API
- Utilisez une requête Get Video Index . Passez
&includeSummarizedInsights=false
. - Recherchez les paires de clés décrites dans l’exemple de réponse.
Exemple de réponse
"emotions": [
{
"id": 1,
"type": "Sad",
"instances": [
{
"confidence": 0.5518,
"adjustedStart": "0:00:00",
"adjustedEnd": "0:00:05.75",
"start": "0:00:00",
"end": "0:00:05.75"
}
Important
Lisez la vue d’ensemble de la note de transparence pour toutes les fonctionnalités VI. Chaque analyse dispose également de sa propre note de transparence.
Notes de détection d’émotions basées sur du texte
- Ce modèle est conçu pour aider à détecter les émotions dans la transcription d’une vidéo. Toutefois, il n’est pas adapté à l’évaluation de l’état émotionnel d’un individu, de sa capacité ou de ses performances globales.
- Ce modèle de détection d’émotions est destiné à aider à déterminer le sentiment derrière les phrases dans la transcription de la vidéo. Toutefois, il fonctionne uniquement sur le texte lui-même et peut ne pas fonctionner correctement pour l’entrée sarcastique ou dans les cas où l’entrée peut être ambiguë ou floue.
- Pour augmenter la précision de ce modèle, il est recommandé que les données d’entrée soient dans un format clair et non ambigu. Les utilisateurs doivent également noter que ce modèle n’a pas de contexte sur les données d’entrée, ce qui peut affecter sa précision.
- Ce modèle peut produire des faux positifs et des faux négatifs. Pour réduire la probabilité de l’un ou l’autre, les utilisateurs sont conseillés de suivre les meilleures pratiques pour les données d’entrée et le prétraitement, et d’interpréter les sorties dans le contexte d’autres informations pertinentes. Il est important de noter que le système n’a pas de contexte des données d’entrée.
- Les résultats de ce modèle ne doivent pas être utilisés pour effectuer des évaluations sur l’état émotionnel d’un individu ou d’autres caractéristiques humaines. Ce modèle est pris en charge en anglais et peut ne pas fonctionner correctement avec les entrées non anglaises. Les entrées anglaises ne sont pas traduites en anglais avant d’entrer dans le modèle, ce qui peut produire des résultats moins précis.
- Le modèle ne doit jamais être utilisé pour évaluer les performances des employés ou pour surveiller les individus.
- Le modèle ne doit jamais être utilisé pour effectuer des évaluations sur une personne, leur état émotionnel ou leur capacité.
- Les résultats du modèle peuvent être incorrects et doivent être traités avec précaution.
- La confiance du modèle dans sa prédiction doit également être prise en compte.
- Les vidéos non anglaises produisent des résultats moins précis.
Composants de détection d’émotions basées sur du texte
Pendant la procédure de détection des émotions, la transcription de la vidéo est traitée comme suit :
Composant | Définition |
---|---|
Langue source | L’utilisateur charge le fichier source pour l’indexation. |
API de transcription | Le fichier audio est envoyé aux services Azure AI et la sortie transcrite traduite est retournée. Une langue est traitée si elle est spécifiée. |
Détection des émotions | Chaque phrase est envoyée au modèle de détection des émotions. Le modèle produit le niveau de confiance de chaque émotion. Si le niveau de confiance dépasse un seuil spécifique et qu’il n’y a aucune ambiguïté entre les émotions positives et négatives, l’émotion est détectée. Dans tout autre cas, la phrase est étiquetée comme neutre. |
Niveau de confiance | Le niveau de confiance estimé des émotions détectées est calculé sous la forme d’une plage de 0 à 1. Le score de confiance représente la certitude dans la précision du résultat. Par exemple, une certitude de 82 % est représentée sous la forme d’un score de 0,82. |
Exemple de code
Voir tous les exemples pour VI