Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Il rilevamento delle emozioni trova emozioni nelle righe di trascrizione di un video. Ogni frase viene rilevata come rabbia, paura, gioia, triste o nessuno se non viene trovata alcuna altra emozione.
Importante
Il modello funziona solo sul testo (etichettatura delle emozioni nelle trascrizioni video). Questo modello non deduce lo stato emotivo delle persone. Quindi, potrebbe non eseguire dove l'input è ambiguo o poco chiaro, ad esempio osservazioni sarcastiche. Pertanto, il modello non deve essere usato per operazioni come la valutazione delle prestazioni dei dipendenti o lo stato emotivo di una persona.
Casi d'uso di rilevamento delle emozioni basate su testo
- Creatori di contenuti e editor video: i creatori di contenuti e gli editor video possono usare il sistema per analizzare le emozioni espresse nelle trascrizioni di testo dei loro video. L'analisi li aiuta a ottenere informazioni dettagliate sul tono emotivo del contenuto, consentendo loro di ottimizzare la narrazione, regolare il ritmo o garantire l'effetto emotivo previsto sul pubblico.
- Analisti dei media e ricercatori - Analisti dei media e ricercatori possono usare il sistema per analizzare rapidamente il contenuto emotivo di un grande volume di trascrizioni video. Possono usare la sequenza temporale emotiva generata dal sistema per identificare tendenze, modelli o risposte emotive in argomenti o aree di interesse specifici.
- Professionisti del marketing e della pubblicità - I professionisti del marketing e della pubblicità possono utilizzare il sistema per valutare la ricezione emotiva delle campagne o degli annunci video. Comprendere le emozioni richiamate dal contenuto aiuta a personalizzare i messaggi in modo più efficace e a valutare il successo delle campagne.
- Consumer e visualizzatori di video: gli utenti finali, ad esempio i visualizzatori o i consumatori di contenuti video, possono trarre vantaggio dal sistema comprendendo il contesto emotivo dei video senza doverli guardare completamente. È utile per gli utenti che vogliono decidere se un video vale la pena guardare o per le persone con tempo limitato da risparmiare.
- Professionisti del settore dell'intrattenimento : professionisti del settore dell'intrattenimento, come produttori di film o registi, possono utilizzare il sistema per misurare l'effetto emotivo degli script o delle storie, agevolando il perfezionamento dello script e l'engagement del pubblico.
Nota
Il rilevamento delle emozioni basato su testo è indipendente dalla lingua. Tuttavia, se la trascrizione non è in inglese, viene prima tradotta in inglese. Solo allora viene applicato il modello. Potrebbe causare una riduzione dell'accuratezza nel rilevamento delle emozioni per le lingue non inglesi.
Visualizzare il codice JSON di informazioni dettagliate con il portale Web
Dopo aver caricato e indicizzato un video, scaricare informazioni dettagliate in formato JSON dal portale Web.
- Selezionare la scheda Libreria .
- Seleziona il supporto che desideri.
- Selezionare Download e quindi Insights (JSON). Il file JSON viene aperto in una nuova scheda del browser.
- Trovare la coppia di chiavi descritta nella risposta di esempio.
Usare l'API
- Usa una richiesta Ottieni Indice Video. Passare
&includeSummarizedInsights=false
. - Trovare le coppie chiave descritte nella risposta di esempio.
Esempio di risposta
"emotions": [
{
"id": 1,
"type": "Sad",
"instances": [
{
"confidence": 0.5518,
"adjustedStart": "0:00:00",
"adjustedEnd": "0:00:05.75",
"start": "0:00:00",
"end": "0:00:05.75"
}
Importante
Leggi la panoramica della nota di trasparenza per tutte le funzionalità VI. Ogni approfondimento ha anche una propria nota sulla trasparenza.
Note di rilevamento emozioni basate su testo
- Questo modello è progettato per aiutare a rilevare le emozioni nella trascrizione di un video. Tuttavia, non è adatto per effettuare valutazioni sullo stato emotivo di un individuo, la loro capacità o le loro prestazioni complessive.
- Questo modello di rilevamento delle emozioni è progettato per determinare il sentiment dietro le frasi nella trascrizione del video. Tuttavia, funziona solo sul testo stesso e potrebbe non funzionare correttamente per l'input sarcastico o nei casi in cui l'input potrebbe essere ambiguo o poco chiaro.
- Per aumentare l'accuratezza di questo modello, è consigliabile che i dati di input siano in un formato chiaro e non ambiguo. Gli utenti devono anche notare che questo modello non ha contesto sui dati di input, che possono influire sulla precisione.
- Questo modello può produrre sia falsi positivi che falsi negativi. Per ridurre la probabilità di entrambi, gli utenti sono invitati a seguire le procedure consigliate per i dati di input e la pre-elaborazione e per interpretare gli output nel contesto di altre informazioni pertinenti. È importante notare che il sistema non ha alcun contesto dei dati di input.
- Gli output di questo modello non devono essere usati per eseguire valutazioni sullo stato emotivo di un individuo o su altre caratteristiche umane. Questo modello è supportato in inglese e potrebbe non funzionare correttamente con input non inglesi. Non gli input in inglese vengono tradotti in inglese prima di immettere il modello, pertanto potrebbero produrre risultati meno accurati.
- Il modello non deve mai essere usato per valutare le prestazioni dei dipendenti o per monitorare le persone.
- Il modello non deve mai essere usato per eseguire valutazioni su una persona, il loro stato emotivo o la loro capacità.
- I risultati del modello possono essere imprecisi e devono essere trattati con cautela.
- È necessario prendere in considerazione anche l'attendibilità del modello nella stima.
- I video non inglesi producono risultati meno accurati.
Componenti di rilevamento delle emozioni basate su testo
Durante la procedura di rilevamento delle emozioni, la trascrizione del video viene elaborata, come indicato di seguito:
Componente | Definizione |
---|---|
Lingua di origine | L'utente carica il file di origine per l'indicizzazione. |
API di trascrizione | Il file audio viene inviato ai servizi di intelligenza artificiale di Azure e viene restituito l'output trascritto tradotto. Un linguaggio viene elaborato se specificato. |
Rilevamento delle emozioni | Ogni frase viene inviata al modello di rilevamento emozioni. Il modello produce il livello di confidenza di ogni emozione. Se il livello di attendibilità supera una soglia specifica e non c'è ambiguità tra emozioni positive e negative, viene rilevata l'emozione. In qualsiasi altro caso, la frase viene etichettata come neutra. |
Livello di attendibilità | Il livello di attendibilità stimato delle emozioni rilevate viene calcolato come intervallo compreso tra 0 e 1. Il punteggio di attendibilità rappresenta la certezza nell'accuratezza del risultato. Ad esempio, una certezza dell'82% è rappresentata come punteggio di 0,82. |
Codice di esempio
Vedere tutti gli esempi per VI