Compartir a través de


Introducción a la detección de emociones basada en texto

Advertencia

En el último año, Video Indexer (VI) de Azure AI anunció la eliminación de su dependencia en Azure Media Services (AMS) debido a su retirada. Se anunciaron ajustes y cambios de características y se proporcionó una guía de migración.

La fecha límite para completar la migración fue el 30 de junio de 2024. VI ha ampliado la fecha límite de actualización y migración para que pueda actualizar su cuenta VI y participar en la migración de recursos de AMS VI hasta el 15 de julio de 2024. Para usar la migración de recursos de AMS VI, también debe ampliar la cuenta de AMS a julio. Vaya a la cuenta de AMS en Azure Portal y seleccione Haga clic aquí para ampliar.

Sin embargo, después del 30 de junio, si no ha actualizado su cuenta VI, no podrá indexar nuevos vídeos ni podrá reproducir vídeos que no se hayan migrado. Si actualiza la cuenta después del 30 de junio, puede reanudar la indexación inmediatamente, pero no podrá reproducir vídeos indexados antes de la actualización de la cuenta hasta que se migren a través de la migración de AMS VI.

Detección de emociones basada en texto

La detección de emociones detecta emociones en las líneas de transcripción del vídeo. Cada frase se puede detectar como Ira, Miedo, Joy, Sad, None si no se detectó ninguna otra emoción.

Importante

El modelo solo funciona en texto (etiquetando emociones en transcripciones de vídeo). Este modelo no deduce el estado emocional de las personas, puede que no realice donde la entrada sea ambigua o poco clara, como comentarios sarcásticos. Por lo tanto, el modelo no debe usarse para cosas como evaluar el rendimiento de los empleados o el estado emocional de una persona.

Casos de uso de detección de emociones basadas en texto

  • Creadores de contenido y editores de vídeo: los creadores de contenido y los editores de vídeo pueden usar el sistema para analizar las emociones expresadas en las transcripciones de texto de sus vídeos. El análisis les ayuda a obtener información sobre el tono emocional de su contenido, lo que les permite ajustar la narrativa, ajustar el ritmo o garantizar el impacto emocional previsto en el público.
  • Analistas de medios e investigadores : los analistas de medios e investigadores pueden emplear el sistema para analizar rápidamente el contenido emocional de un gran volumen de transcripciones de vídeo. Pueden usar la escala de tiempo emocional generada por el sistema para identificar tendencias, patrones o respuestas emocionales en temas específicos o áreas de interés.
  • Profesionales de marketing y publicidad : los profesionales de marketing y publicidad pueden utilizar el sistema para evaluar la recepción emocional de sus campañas o anuncios de vídeo. Comprender las emociones evocadas por su contenido les ayuda a adaptar los mensajes de forma más eficaz y medir el éxito de sus campañas.
  • Consumidores y visores de vídeo: los usuarios finales, como los espectadores o los consumidores de contenido de vídeo, pueden beneficiarse del sistema al comprender el contexto emocional de los vídeos sin tener que verlos por completo. Es útil para los usuarios que quieren decidir si un vídeo merece la pena ver o para personas con tiempo limitado para ahorrar.
  • Profesionales de la industria del entretenimiento: los profesionales de la industria del entretenimiento, como los productores o directores de películas, pueden utilizar el sistema para medir el impacto emocional de sus guiones o guiones gráficos, lo que ayuda en el refinamiento de guiones y la participación del público.

Nota:

La detección de emociones basada en texto es independiente del idioma, pero si la transcripción no está en inglés, primero se traduce al inglés y solo se aplica el modelo. Esto puede provocar una menor precisión en la detección de emociones para idiomas que no son inglés.

Visualización del JSON de información con el portal web

Una vez que haya cargado e indexado un vídeo, la información está disponible en formato JSON para su descarga mediante el portal web.

  1. Seleccione la pestaña Biblioteca .
  2. Seleccione los medios con los que desea trabajar.
  3. Seleccione Descargar y Insights (JSON). El archivo JSON se abre en una nueva pestaña del explorador.

Busque el par de claves descrito en la respuesta de ejemplo.

"emotions": [ 
  { 
    "id": 1, 
    "type": "Sad", 
    "instances": [ 
      { 
        "confidence": 0.5518, 
        "adjustedStart": "0:00:00", 
        "adjustedEnd": "0:00:05.75", 
        "start": "0:00:00", 
        "end": "0:00:05.75" 
      }