Udostępnij za pośrednictwem


Omówienie analizy wykrywania emocji opartego na tekście

Ostrzeżenie

W ciągu ostatniego roku usługa Azure AI Video Indexer (VI) ogłosiła usunięcie zależności od usługi Azure Media Services (AMS) ze względu na wycofanie. Ogłoszono korekty funkcji i zmiany , a przewodnik migracji został udostępniony.

Termin zakończenia migracji wynosił 30 czerwca 2024 r. Vi przedłużyła termin aktualizacji/migracji, dzięki czemu możesz zaktualizować konto VI i wyrazić zgodę na migrację zasobów usługi AMS VI do 15 lipca 2024 r. Aby korzystać z migracji zasobów usługi AMS VI, musisz również rozszerzyć konto usługi AMS do lipca. Przejdź do konta usługi AMS w witrynie Azure Portal i wybierz pozycję Kliknij tutaj, aby rozszerzyć.

Jednak po 30 czerwca, jeśli nie zaktualizowano konta VI, nie będzie można indeksować nowych filmów wideo ani nie będzie można odtworzyć żadnych filmów wideo, które nie zostały zmigrowane. Jeśli zaktualizujesz konto po 30 czerwca, możesz wznowić indeksowanie natychmiast, ale nie będzie można odtworzyć filmów wideo indeksowanych przed aktualizacją konta, dopóki nie zostaną zmigrowane za pośrednictwem migracji usługi AMS VI.

Wykrywanie emocji na podstawie tekstu

Wykrywanie emocji wykrywa emocje w wierszach transkrypcji wideo. Każde zdanie można wykryć jako Gniew, Strach, Radość, Sad, Brak, jeśli nie wykryto żadnych innych emocji.

Ważne

Model działa tylko na tekście (etykietowanie emocji w transkrypcjach wideo). Ten model nie wywnioskuje stanu emocjonalnego ludzi, może nie wykonywać, gdzie dane wejściowe są niejednoznaczne lub niejasne, jak sarkastyczne uwagi. W związku z tym model nie powinien być używany do wykonywania takich czynności jak ocena wydajności pracownika lub stan emocjonalny osoby.

Przypadki użycia wykrywania emocji oparte na tekście

  • Twórcy zawartości i edytory wideo — twórcy zawartości i edytory wideo mogą używać systemu do analizowania emocji wyrażonych w transkrypcjach tekstu swoich filmów wideo. Analiza pomaga im uzyskać wgląd w emocjonalny ton ich treści, pozwalając im dostosować narrację, dostosować tempo lub zapewnić zamierzony wpływ emocjonalny na publiczność.
  • Analitycy mediów i naukowcy - analitycy mediów i naukowcy mogą wykorzystać system do szybkiego analizowania zawartości emocjonalnej dużej liczby transkrypcji wideo. Mogą używać emocjonalnej osi czasu generowanej przez system do identyfikowania trendów, wzorców lub odpowiedzi emocjonalnych w określonych tematach lub obszarach zainteresowania.
  • Specjaliści ds. marketingu i reklamy — specjaliści ds. marketingu i reklamy mogą wykorzystać system do oceny emocjonalnego odbioru kampanii lub reklam wideo. Zrozumienie emocji wywoływanych przez ich zawartość pomaga im efektywniej dostosować wiadomości i ocenić sukces kampanii.
  • Konsumenci i widzowie wideo — użytkownicy końcowi, tacy jak osoby oglądające lub konsumenci treści wideo, mogą korzystać z systemu, rozumiejąc emocjonalny kontekst filmów wideo bez konieczności ich całkowitego oglądania. Jest to przydatne dla użytkowników, którzy chcą zdecydować, czy film jest wart obejrzenia, czy też dla osób z ograniczonym czasem do stracenia.
  • Entertainment Industry Professionals - Specjaliści w branży rozrywkowej, takich jak producenci filmowi lub reżyserzy, mogą wykorzystać system do oceny emocjonalnego wpływu ich scenariuszy lub fabuły, pomoc w uściśleniu scenariuszy i zaangażowaniu publiczności.

Uwaga

Wykrywanie emocji na podstawie tekstu jest niezależne od języka, jednak jeśli transkrypcja nie jest w języku angielskim, jest najpierw tłumaczona na język angielski, a dopiero wtedy model jest stosowany. Może to spowodować zmniejszenie dokładności wykrywania emocji w językach innych niż angielski.

Wyświetlanie kodu JSON szczegółowych informacji za pomocą portalu internetowego

Po przekazaniu i zaindeksowaniu klipu wideo szczegółowe informacje są dostępne w formacie JSON do pobrania przy użyciu portalu internetowego.

  1. Wybierz kartę Biblioteka .
  2. Wybierz multimedia, z którym chcesz pracować.
  3. Wybierz pozycję Pobierz i Szczegółowe informacje (JSON). Plik JSON zostanie otwarty na nowej karcie przeglądarki.

Poszukaj pary kluczy opisanej w przykładowej odpowiedzi.

"emotions": [ 
  { 
    "id": 1, 
    "type": "Sad", 
    "instances": [ 
      { 
        "confidence": 0.5518, 
        "adjustedStart": "0:00:00", 
        "adjustedEnd": "0:00:05.75", 
        "start": "0:00:00", 
        "end": "0:00:05.75" 
      }