Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Zestaw danych jest podzielony na dwie części: zestaw do trenowania i zestaw do testowania. Zestaw trenowania służy do trenowania modelu, podczas gdy zestaw testów jest używany jako test dla modelu po trenowaniu w celu obliczenia wydajności i oceny modelu. Zestaw testów nie jest wprowadzany do modelu przez proces trenowania, aby upewnić się, że model jest testowany na nowych danych.
Ocena modelu jest wyzwalana automatycznie po pomyślnym zakończeniu trenowania. Proces oceny rozpoczyna się przy użyciu wytrenowanego modelu w celu przewidywania intencji zdefiniowanych przez użytkownika dla wypowiedzi w zestawie testowym i porównuje je z podanymi tagami (które ustanawia punkt odniesienia prawdy). Wyniki są zwracane, aby można było przejrzeć wydajność modelu. Do oceny przepływ pracy orkiestracji używa następujących metryk:
Precyzja: mierzy dokładność/dokładność modelu. Jest to stosunek poprawnie zidentyfikowanych wyników dodatnich (prawdziwie dodatnich) i wszystkich zidentyfikowanych wyników dodatnich. Metryka precyzji pokazuje, ile klas przewidywanych jest poprawnie oznaczonych etykietami.
Precision = #True_Positive / (#True_Positive + #False_Positive)
Przypomnienie: Mierzy zdolność modelu do przewidywania rzeczywistych klas dodatnich. Jest to stosunek przewidywanych wyników prawdziwie dodatnich do tego, co zostało rzeczywiście oznaczone. Metryka przywołania pokazuje, ile klas przewidzianych jest poprawnych.
Recall = #True_Positive / (#True_Positive + #False_Negatives)
Miara F1: Miara F1 jest miarą harmoniczną precyzji i czułości. Jest to konieczne, gdy szukasz równowagi między precyzją a czułością.
F1 Score = 2 * Precision * Recall / (Precision + Recall)
Precyzja, kompletność i wynik F1 są obliczane dla:
- Każda intencja oddzielnie (ocena na poziomie intencji)
- W przypadku modelu zbiorczo (ocena na poziomie modelu).
Definicje precyzji, kompletności i oceny są takie same w przypadku oceniania na poziomie intencji oraz na poziomie modelu. Jednak liczby wyników prawdziwie dodatnich, wyników fałszywie dodatnich i wyników fałszywie ujemnych mogą się różnić. Rozważmy na przykład następujący tekst.
Przykład
- Stwórz odpowiedź zawierającą serdeczne podziękowanie.
- Zadzwoń do mojego przyjaciela
- Cześć
- Dzień dobry
Są to używane intencje: CLUEmail i Greeting
Model może przewidywać następujące przewidywania:
Wypowiedź | Przewidywana intencja | Rzeczywista intencja |
---|---|---|
Odpowiedz 'bardzo dziękuję' | CLUEmail | CLUEmail |
Zadzwoń do mojego przyjaciela | Powitanie | CLUEmail |
Cześć | CLUEmail | Powitanie |
Dzień dobry | Powitanie | Powitanie |
Ocena poziomu intencji dla intencji CLUEmail
Klucz | Liczba | Wyjaśnienie |
---|---|---|
Wynik prawdziwie dodatni | 1 | Wypowiedź 1 została prawidłowo przewidziała jako CLUEmail. |
Wynik fałszywie dodatni | 1 | Wypowiedź 3 została błędnie przewidziała jako CLUEmail. |
Wynik fałszywie ujemny | 1 | Wypowiedź 2 została błędnie przewidziała jako powitanie. |
Precyzja = #True_Positive / (#True_Positive + #False_Positive) = 1 / (1 + 1) = 0.5
Przypomnieć sobie = #True_Positive / (#True_Positive + #False_Negatives) = 1 / (1 + 1) = 0.5
Wynik F1 = 2 * Precision * Recall / (Precision + Recall) = (2 * 0.5 * 0.5) / (0.5 + 0.5) = 0.5
Ocena poziomu intencji dla intencji powitania
Klucz | Liczba | Wyjaśnienie |
---|---|---|
Wynik prawdziwie dodatni | 1 | Wypowiedź 4 została prawidłowo przewidziała jako powitanie. |
Wynik fałszywie dodatni | 1 | Wypowiedź 2 została błędnie przewidziała jako powitanie. |
Wynik fałszywie ujemny | 1 | Wypowiedź 3 została błędnie przewidziała jako CLUEmail. |
Precyzja = #True_Positive / (#True_Positive + #False_Positive) = 1 / (1 + 1) = 0.5
Wycofanie = #True_Positive / (#True_Positive + #False_Negatives) = 1 / (1 + 1) = 0.5
Wynik F1 = 2 * Precision * Recall / (Precision + Recall) = (2 * 0.5 * 0.5) / (0.5 + 0.5) = 0.5
Ocena na poziomie modelu dla modelu zbiorowego
Klucz | Count | Wyjaśnienie |
---|---|---|
Wynik prawdziwie dodatni | 2 | Suma TP dla wszystkich intencji |
Wynik fałszywie dodatni | 2 | Suma FP (częstotliwości przewidywań) dla wszystkich intencji |
Wynik fałszywie ujemny | 2 | Suma nazwy FN dla wszystkich intencji |
Precyzja = #True_Positive / (#True_Positive + #False_Positive) = 2 / (2 + 2) = 0.5
Wycofanie = #True_Positive / (#True_Positive + #False_Negatives) = 2 / (2 + 2) = 0.5
Wynik F1 = 2 * Precision * Recall / (Precision + Recall) = (2 * 0.5 * 0.5) / (0.5 + 0.5) = 0.5
Macierz pomyłek
Macierz pomyłek jest macierzą N x N używaną do oceny wydajności modelu, gdzie N jest liczbą intencji. Macierz porównuje rzeczywiste tagi z tagami przewidywanymi przez model. Zapewnia to całościowy pogląd na to, jak dobrze działa model i jakie rodzaje błędów wykonuje.
Macierz pomyłek służy do identyfikowania intencji, które są zbyt blisko siebie i często się mylą (niejednoznaczność). W takim przypadku rozważ scalenie tych intencji. Jeśli to nie jest możliwe, rozważ dodanie kolejnych oznakowanych przykładów obu intencji, aby ułatwić modelowi rozróżnienie między nimi.
Metryki oceny modelu można obliczyć z macierzy pomyłek.
- Prawdziwie dodatnie wyniki modelu to suma wyników prawdziwie dodatnich dla wszystkich intencji.
- Wynik fałszywie dodatni modelu jest sumą wyników fałszywie dodatnich dla wszystkich intencji.
- Fałszywa wartość ujemna modelu jest sumą wyników fałszywie ujemnych dla wszystkich intencji.