Udostępnij za pośrednictwem


Klasyfikacja

Ważna

Ta funkcja jest dostępna w publicznej wersji zapoznawczej i jest zgodna ze standardem HIPAA.

Klasyfikację można użyć do klasyfikowania dokumentów w wstępnie zdefiniowanych kategorii za pomocą sztucznej inteligencji.

Przykłady klasyfikacji obejmują:

  • Klasyfikowanie transkrypcji wywołań klienta według intencji
  • Klasyfikowanie dokumentów według typu zawartości
  • Klasyfikowanie recenzji produktów według tonacji

Klasyfikacja jest oparta na funkcji sztucznej inteligencji. ai_classify Strona Agenci udostępnia interfejs użytkownika umożliwiający szybkie klasyfikowanie dokumentów i tekstu bez struktury oraz iterowanie pól klasyfikacji w celu uzyskania lepszych wyników.

Wymagania

Tworzenie agenta klasyfikacji

Przejdź do ikony Agenci.Agenci w okienku nawigacji po lewej stronie obszaru roboczego. Kliknij pozycję Utwórz agenta i wybierz pozycję Klasyfikacja tekstu.

Krok 1. Wybieranie danych źródłowych

Klasyfikacja służy do klasyfikowania dokumentów.

  1. Wybierz dane źródłowe. Wolumin można wybrać z dokumentami lub tabelą z danymi tekstowymi.

  2. Kliknij pozycję Utwórz agenta.

Krok 2. Konfigurowanie etykiet klasyfikacji

Po przetworzeniu danych przez klasyfikację, skonfiguruj i uściślij etykiety klasyfikacyjne.

Aby ręcznie dodać etykiety klasyfikacji:

  1. Kliknij pozycję + Dodaj etykietę , aby dodać etykietę klasyfikacji.
  2. Wprowadź nazwę etykiety i opcjonalny opis, a następnie kliknij pozycję Dodaj etykietę.
  3. Powtórz 1–2 dla każdej etykiety, którą chcesz dodać.
  4. (Opcjonalnie) Włącz wiele etykiet , jeśli agent ma zwrócić więcej niż jedną etykietę.

Aby zaimportować etykiety z tabeli:

  1. Kliknij Importuj z tabeli.
  2. Wybierz tabelę i kliknij przycisk Dalej.
  3. Wybierz kolumnę etykiety, kolumnę opisu i usługę SQL Warehouse.
  4. Kliknij pozycję Podgląd , aby wyświetlić zaimportowane etykiety.
  5. Jeśli jesteś zadowolony z etykiet, kliknij Importuj i zastąp etykiety.

Aby uruchomić klasyfikację, musisz mieć co najmniej dwie etykiety zdefiniowane. Po zakończeniu dodawania etykiet kliknij pozycję Zapisz i uruchom klasyfikację.

Klasyfikacja klasyfikuje maksymalnie 5 dokumentów i wierszy i wyświetla wyniki. Możesz również dodać więcej.

Interfejs użytkownika przeglądu klasyfikacji przedstawiający etykiety klasyfikacji i wyniki

Krok 3. Przegląd i ulepszenie wyników klasyfikacji

Przeanalizuj odpowiedzi klasyfikacji i prześlij opinię, aby udoskonalić agenta.

  1. Przejrzyj dokument oraz odpowiedź dotyczącą klasyfikacji.

    • Jeśli odpowiedź jest poprawna, daj mu kciuk w górę.
    • Jeśli odpowiedź jest niepoprawna, podaj kciuk w dół. Pomóż klasyfikacji naprawić odpowiedź, wybierając poprawną etykietę. Kliknij Zapisz.
  2. Aby poprawić odpowiedzi agenta, dostosuj opisy etykiet klasyfikacyjnych.

  3. Porównaj wersje, aby zoptymalizować wydajność agenta. Kliknij pozycję Wersje. Obok poprzedniej wersji kliknij przycisk Porównaj , aby porównać opisy etykiet klasyfikacji poprzedniej wersji z bieżącą wersją. Kliknij przycisk Przywróć, aby przywrócić poprzednią wersję.

Krok 4. Korzystanie z agenta klasyfikacji

Jeśli jesteś zadowolony z odpowiedzi, zacznij używać agenta do klasyfikacji na dużą skalę.

Kliknij pozycję Użyj agenta w prawym górnym rogu. Możesz wybrać jedną z następujących opcji:

  • Uruchom polecenie w języku SQL, aby użyć agenta do klasyfikowania całego woluminu lub tabeli. Spowoduje to otwarcie zapytania SQL, które używa ai_classify etykiet klasyfikacji, które zdefiniowałeś. Aby uzyskać więcej informacji na temat używania ai_classify zapytań SQL, zobacz ai_classify funkcja.
  • Utwórz potok deklaratywny platformy Spark , aby wdrożyć potok ETL uruchamiany w zaplanowanych odstępach czasu w celu wywołania agenta na nowych danych. Spowoduje to utworzenie potoków deklaratywnych platformy Spark w usłudze Lakeflow, które aktualizują tabelę przesyłania strumieniowego przy użyciu danych sklasyfikowanych. Można skonfigurować harmonogram potoku, aby uruchamiał się po nadejściu nowych danych. Aby uzyskać więcej informacji na temat potoków deklaratywnych platformy Spark w usłudze Lakeflow, zobacz Lakeflow Spark Deklaratywne potoki.

Ograniczenia

Zobacz Ograniczenia