Udostępnij za pośrednictwem


Metryki oceny dla modeli przepływu pracy orkiestracji

Zestaw danych jest podzielony na dwie części: zestaw do trenowania i zestaw do testowania. Zestaw trenowania służy do trenowania modelu, podczas gdy zestaw testów jest używany jako test dla modelu po trenowaniu w celu obliczenia wydajności i oceny modelu. Zestaw testów nie jest wprowadzany do modelu przez proces trenowania, aby upewnić się, że model jest testowany na nowych danych.

Ocena modelu jest wyzwalana automatycznie po pomyślnym zakończeniu trenowania. Proces oceny rozpoczyna się przy użyciu wytrenowanego modelu w celu przewidywania intencji zdefiniowanych przez użytkownika dla wypowiedzi w zestawie testowym i porównuje je z podanymi tagami (które ustanawia punkt odniesienia prawdy). Wyniki są zwracane, aby można było przejrzeć wydajność modelu. Do oceny przepływ pracy orkiestracji używa następujących metryk:

  • Precyzja: mierzy dokładność/dokładność modelu. Jest to stosunek poprawnie zidentyfikowanych wyników dodatnich (prawdziwie dodatnich) i wszystkich zidentyfikowanych wyników dodatnich. Metryka precyzji pokazuje, ile klas przewidywanych jest poprawnie oznaczonych etykietami.

    Precision = #True_Positive / (#True_Positive + #False_Positive)

  • Przypomnienie: Mierzy zdolność modelu do przewidywania rzeczywistych klas dodatnich. Jest to stosunek przewidywanych wyników prawdziwie dodatnich do tego, co zostało rzeczywiście oznaczone. Metryka przywołania pokazuje, ile klas przewidzianych jest poprawnych.

    Recall = #True_Positive / (#True_Positive + #False_Negatives)

  • Miara F1: Miara F1 jest miarą harmoniczną precyzji i czułości. Jest to konieczne, gdy szukasz równowagi między precyzją a czułością.

    F1 Score = 2 * Precision * Recall / (Precision + Recall)

Precyzja, kompletność i wynik F1 są obliczane dla:

  • Każda intencja oddzielnie (ocena na poziomie intencji)
  • W przypadku modelu zbiorczo (ocena na poziomie modelu).

Definicje precyzji, kompletności i oceny są takie same w przypadku oceniania na poziomie intencji oraz na poziomie modelu. Jednak liczby wyników prawdziwie dodatnich, wyników fałszywie dodatnich i wyników fałszywie ujemnych mogą się różnić. Rozważmy na przykład następujący tekst.

Przykład

  • Stwórz odpowiedź zawierającą serdeczne podziękowanie.
  • Zadzwoń do mojego przyjaciela
  • Cześć
  • Dzień dobry

Są to używane intencje: CLUEmail i Greeting

Model może przewidywać następujące przewidywania:

Wypowiedź Przewidywana intencja Rzeczywista intencja
Odpowiedz 'bardzo dziękuję' CLUEmail CLUEmail
Zadzwoń do mojego przyjaciela Powitanie CLUEmail
Cześć CLUEmail Powitanie
Dzień dobry Powitanie Powitanie

Ocena poziomu intencji dla intencji CLUEmail

Klucz Liczba Wyjaśnienie
Wynik prawdziwie dodatni 1 Wypowiedź 1 została prawidłowo przewidziała jako CLUEmail.
Wynik fałszywie dodatni 1 Wypowiedź 3 została błędnie przewidziała jako CLUEmail.
Wynik fałszywie ujemny 1 Wypowiedź 2 została błędnie przewidziała jako powitanie.

Precyzja = #True_Positive / (#True_Positive + #False_Positive) = 1 / (1 + 1) = 0.5

Przypomnieć sobie = #True_Positive / (#True_Positive + #False_Negatives) = 1 / (1 + 1) = 0.5

Wynik F1 = 2 * Precision * Recall / (Precision + Recall) = (2 * 0.5 * 0.5) / (0.5 + 0.5) = 0.5

Ocena poziomu intencji dla intencji powitania

Klucz Liczba Wyjaśnienie
Wynik prawdziwie dodatni 1 Wypowiedź 4 została prawidłowo przewidziała jako powitanie.
Wynik fałszywie dodatni 1 Wypowiedź 2 została błędnie przewidziała jako powitanie.
Wynik fałszywie ujemny 1 Wypowiedź 3 została błędnie przewidziała jako CLUEmail.

Precyzja = #True_Positive / (#True_Positive + #False_Positive) = 1 / (1 + 1) = 0.5

Wycofanie = #True_Positive / (#True_Positive + #False_Negatives) = 1 / (1 + 1) = 0.5

Wynik F1 = 2 * Precision * Recall / (Precision + Recall) = (2 * 0.5 * 0.5) / (0.5 + 0.5) = 0.5

Ocena na poziomie modelu dla modelu zbiorowego

Klucz Count Wyjaśnienie
Wynik prawdziwie dodatni 2 Suma TP dla wszystkich intencji
Wynik fałszywie dodatni 2 Suma FP (częstotliwości przewidywań) dla wszystkich intencji
Wynik fałszywie ujemny 2 Suma nazwy FN dla wszystkich intencji

Precyzja = #True_Positive / (#True_Positive + #False_Positive) = 2 / (2 + 2) = 0.5

Wycofanie = #True_Positive / (#True_Positive + #False_Negatives) = 2 / (2 + 2) = 0.5

Wynik F1 = 2 * Precision * Recall / (Precision + Recall) = (2 * 0.5 * 0.5) / (0.5 + 0.5) = 0.5

Macierz pomyłek

Macierz pomyłek jest macierzą N x N używaną do oceny wydajności modelu, gdzie N jest liczbą intencji. Macierz porównuje rzeczywiste tagi z tagami przewidywanymi przez model. Zapewnia to całościowy pogląd na to, jak dobrze działa model i jakie rodzaje błędów wykonuje.

Macierz pomyłek służy do identyfikowania intencji, które są zbyt blisko siebie i często się mylą (niejednoznaczność). W takim przypadku rozważ scalenie tych intencji. Jeśli to nie jest możliwe, rozważ dodanie kolejnych oznakowanych przykładów obu intencji, aby ułatwić modelowi rozróżnienie między nimi.

Metryki oceny modelu można obliczyć z macierzy pomyłek.

  • Prawdziwie dodatnie wyniki modelu to suma wyników prawdziwie dodatnich dla wszystkich intencji.
  • Wynik fałszywie dodatni modelu jest sumą wyników fałszywie dodatnich dla wszystkich intencji.
  • Fałszywa wartość ujemna modelu jest sumą wyników fałszywie ujemnych dla wszystkich intencji.

Następne kroki

Trenowanie modelu w programie Language Studio