Compartir a través de


Obtención de información de detección de emociones basada en texto

La detección de emociones encuentra emociones en las líneas de transcripción de un vídeo. Cada frase se detecta como ira, miedo, alegría, triste o ninguno si no se encuentra ninguna otra emoción.

Importante

El modelo solo funciona en texto (etiquetando emociones en transcripciones de vídeo). Este modelo no deduce el estado emocional de las personas. Por lo tanto, es posible que no funcione donde la entrada sea ambigua o poco clara, como comentarios sarcásticos. Por lo tanto, el modelo no debe usarse para cosas como evaluar el rendimiento de los empleados o el estado emocional de una persona.

Casos de uso de detección de emociones basadas en texto

  • Creadores de contenido y editores de vídeo: los creadores de contenido y los editores de vídeo pueden usar el sistema para analizar las emociones expresadas en las transcripciones de texto de sus vídeos. El análisis les ayuda a obtener información sobre el tono emocional de su contenido, lo que les permite ajustar la narrativa, ajustar el ritmo o garantizar el efecto emocional previsto en el público.
  • Analistas de medios e investigadores: los analistas de medios e investigadores pueden emplear el sistema para analizar rápidamente el contenido emocional de un gran volumen de transcripciones de vídeo. Pueden usar la escala de tiempo emocional generada por el sistema para identificar tendencias, patrones o respuestas emocionales en temas específicos o áreas de interés.
  • Profesionales de marketing y publicidad : los profesionales de marketing y publicidad pueden utilizar el sistema para evaluar la recepción emocional de sus campañas o anuncios de vídeo. Comprender las emociones evocadas por su contenido les ayuda a adaptar los mensajes de forma más eficaz y a medir el éxito de sus campañas.
  • Consumidores y visores de vídeo : los usuarios finales, como los espectadores o los consumidores de contenido de vídeo, pueden beneficiarse del sistema al comprender el contexto emocional de los vídeos sin tener que verlos por completo. Es útil para los usuarios que quieren decidir si un vídeo merece la pena ver o para personas con tiempo limitado para ahorrar.
  • Profesionales de la industria del entretenimiento: profesionales de la industria del entretenimiento, como productores o directores de películas, pueden utilizar el sistema para medir el efecto emocional de sus guiones o guiones gráficos, lo que ayuda en el refinamiento de guiones y la participación del público.

Nota:

La detección de emociones basada en texto es independiente del lenguaje. Sin embargo, si la transcripción no está en inglés, primero se traduce al inglés. Solo entonces se aplica el modelo. Podría provocar una precisión reducida en la detección de emociones para idiomas que no son inglés.

Visualización del JSON de información con el portal web

Después de cargar e indexar un vídeo, descargue información en formato JSON desde el portal web.

  1. Seleccione la pestaña Biblioteca.
  2. Seleccione los medios que desee.
  3. Seleccione Descargar y, a continuación, seleccione Insights (JSON). El archivo JSON se abre en una nueva pestaña del explorador.
  4. Busque el par de claves descrito en la respuesta de ejemplo.

Uso de la API

  1. Use una solicitud Obtener índice de vídeo . Pase &includeSummarizedInsights=false.
  2. Busque los pares de claves descritos en la respuesta de ejemplo.

Respuesta de ejemplo

"emotions": [
  {
    "id": 1,
    "type": "Sad",
    "instances": [
      {
        "confidence": 0.5518,
        "adjustedStart": "0:00:00",
        "adjustedEnd": "0:00:05.75",
        "start": "0:00:00",
        "end": "0:00:05.75"
      }

Importante

Lea la información general de la nota de transparencia para todas las características de VI. Cada perspectiva también tiene su propia nota de transparencia.

Notas de detección de emociones basadas en texto

  • Este modelo está diseñado para ayudar a detectar emociones en la transcripción de un vídeo. Sin embargo, no es adecuado para realizar evaluaciones sobre el estado emocional de un individuo, su capacidad o su rendimiento general.
  • Este modelo de detección de emociones está diseñado para ayudar a determinar la opinión detrás de las oraciones en la transcripción del vídeo. Sin embargo, solo funciona en el propio texto y podría no funcionar bien para la entrada sarcástica o en casos en los que la entrada podría ser ambigua o poco clara.
  • Para aumentar la precisión de este modelo, se recomienda que los datos de entrada estén en un formato claro e inequívoco. Los usuarios también deben tener en cuenta que este modelo no tiene contexto sobre los datos de entrada, lo que puede afectar a su precisión.
  • Este modelo puede producir falsos positivos y falsos negativos. Para reducir la probabilidad de cualquiera de ellas, se recomienda a los usuarios seguir los procedimientos recomendados para los datos de entrada y el preprocesamiento, e interpretar las salidas en el contexto de otra información relevante. Es importante tener en cuenta que el sistema no tiene ningún contexto de los datos de entrada.
  • Las salidas de este modelo NO deben usarse para realizar evaluaciones sobre el estado emocional de un individuo u otras características humanas. Este modelo se admite en inglés y es posible que no funcione correctamente con entradas que no son en inglés. No las entradas en inglés se traducen al inglés antes de entrar en el modelo, por lo que podría producir resultados menos precisos.
  • El modelo nunca debe usarse para evaluar el rendimiento de los empleados o para supervisar a los individuos.
  • El modelo nunca debe usarse para realizar evaluaciones sobre una persona, su estado emocional o su capacidad.
  • Los resultados del modelo pueden ser inexactos y deben tratarse con precaución.
  • También se debe tener en cuenta la confianza del modelo en su predicción.
  • Los vídeos que no son en inglés producen resultados menos precisos.

Componentes de detección de emociones basados en texto

Durante el procedimiento de detección de emociones, la transcripción del vídeo se procesa de la siguiente manera:

Componente Definición
Idioma de origen El usuario carga el archivo de origen para la indexación.
API de transcripción El archivo de audio se envía a los servicios de Azure AI y se devuelve la salida transcrita traducida. Se procesa un idioma si se especifica.
Detección de emociones Cada frase se envía al modelo de detección de emociones. El modelo genera el nivel de confianza de cada emoción. Si el nivel de confianza supera un umbral específico y no hay ambigüedad entre emociones positivas y negativas, se detecta la emoción. En cualquier otro caso, la frase se etiqueta como neutral.
Nivel de confianza El nivel de confianza estimado de las emociones detectadas se calcula como un intervalo de 0 a 1. La puntuación de confianza representa la certeza en la precisión del resultado. Por ejemplo, una certeza del 82 % se representa como una puntuación de 0,82.

Código de ejemplo

Ver todos los ejemplos de VI