Odpowiedzialne AI FAQ dla Copilot w Customer Service

Dotyczy : Dynamics 365 Contact Center—wbudowane, Dynamics 365 Contact Center—standalone i Dynamics 365 Customer Service

Ten artykuł z często zadawanymi pytaniami pomaga odpowiedzieć na pytania dotyczące odpowiedzialnego używania sztucznej inteligencji w funkcjach Copilot w dziale obsługi klienta.

Czym jest Copilot w Dynamics 365 Customer Service?

Copilot to narzędzie oparte na sztucznej inteligencji, które rewolucjonizuje środowisko przedstawicieli działu obsługi klienta (przedstawicieli działu obsługi lub przedstawicieli) w usłudze Dynamics 365 Customer Service. Zapewnia ona pomoc w czasie rzeczywistym, obsługiwaną przez sztuczną inteligencję, która pomaga przedstawicielom szybciej rozwiązywać problemy, efektywniej zarządzać przypadkami i automatyzować rutynowe zadania, dzięki czemu mogą skupić się na dostarczaniu wysokiej jakości obsługi klienta.

Jakie są możliwości systemu?

Copilot oferuje następujące główne funkcje:

  • Zadaj pytanie: Pierwsza karta, którą przedstawiciele serwisu widzą po aktywowaniu okienka pomocy Copilot. Jest to interfejs konwersacyjny w aplikacji Copilot, który pomaga dostarczać kontekstowe odpowiedzi na pytania przedstawicieli. Odpowiedzi Copilot opierają się zarówno na wewnętrznych, jak i zewnętrznych źródłach wiedzy dostarczonych przez organizację podczas konfiguracji.

  • Napisać e-mail: druga karta w okienku pomocy Copilot ułatwia przedstawicielom szybkie tworzenie odpowiedzi e-mail na podstawie kontekstu sprawy, co skraca czas potrzebny na tworzenie wiadomości e-mail przez użytkowników.

  • Analizowanie tonacji wiadomości e-mail: wykrywa, czy wiadomość e-mail klienta wyraża pozytywną, negatywną lub neutralną tonację. Te informacje pomagają przedstawicielom lepiej zrozumieć ton i skuteczniej reagować. Ta funkcja ma zastosowanie tylko do przychodzących wiadomości e-mail klientów i nie wywnioskuje określonych emocji. Nie ocenia ona reprezentatywnej wydajności i nie powinna być używana jako jedyny wkład do zarządzania wydajnością przedstawicieli działu obsługi klienta. Każde wykorzystanie danych sentymentu do oceny musi obejmować nadzór człowieka.

  • Przygotowanie odpowiedzi na czacie: Umożliwia przedstawicielom tworzenie odpowiedzi za pomocą jednego kliknięcia na trwającą konwersację za pomocą wiadomości cyfrowych ze źródeł wiedzy skonfigurowanych przez organizację.

  • Podsumowanie sprawy: Copilot zapewnia przedstawicielom podsumowanie sprawy bezpośrednio w formularzu sprawy, dzięki czemu mogą oni szybko zapoznać się z ważnymi szczegółami sprawy.

  • Podsumowanie rozmowy: Copilot zapewnia przedstawicielom podsumowanie rozmowy w kluczowych punktach podróży klienta, takich jak przekazanie wirtualnego przedstawiciela, transfery i na żądanie.

  • Generuj wersję roboczą wiedzy z przypadku (wersja zapoznawcza): Copilot generuje projekt artykułu merytorycznego jako propozycję na podstawie informacji z sprawy. Przedstawiciele mogą przejrzeć i udoskonalić wersję roboczą poprzez przekazanie instrukcji do aplikacji Copilot, a następnie zapisać tę wersję.

  • Podsumowanie rekordu niestandardowego: Copilot dostarcza podsumowanie rekordu, korzystając z pól skonfigurowanych przez administratora dla tabeli niestandardowej. To podsumowanie pomaga przedstawicielom szybko zrozumieć kluczowe szczegóły rekordu pomocy technicznej.

  • Generuj notatki dotyczące rozwiązania: Copilot udostępnia przedstawicielom podsumowanie szczegółów sprawy, wiadomości e-mail i notatek powiązanych ze sprawą na karcie Zadaj pytanie , dzięki czemu mogą szybko zamknąć sprawę lub zdarzenie.

  • Prognozowanie przy użyciu optymalnego wyboru metody opartej na sztucznej inteligencji (wersja zapoznawcza): ulepsza scenariusze prognozy, inteligentnie zalecając i stosując najbardziej odpowiednią metodę na podstawie danych wejściowych scenariusza. Administratorzy mogą wyrazić zgodę podczas instalacji i wybrać między tradycyjnym podejściem a opcją opartą na sztucznej inteligencji. Opiekunowie mogą również wykonywać prognozy na żądanie zamiast czekać na zaplanowane sesje, co zapewnia zespołom elastyczność i szybsze pozyskiwanie informacji.

Jakie jest przeznaczenie systemu?

Copilot w Customer Service ma na celu pomóc przedstawicielom działu obsługi klienta pracować wydajniej i skuteczniej. Przedstawiciele działu obsługi klienta mogą korzystać z odpowiedzi opartych na wiedzy Copilot, aby zaoszczędzić czas na przeszukiwanie artykułów wiedzy i przygotowywanie odpowiedzi. Podsumowania Copilot mają na celu wspieranie przedstawicieli w szybkim zapoznawaniu się ze sprawami i rozmowami. Treści generowane przez Copilot w Customer Service nie są przeznaczone do użytku bez weryfikacji lub nadzoru ze strony człowieka.

Jak oceniany jest Copilot w Customer Service? Jakie metryki są używane do oceny wydajności?

Copilot w zakresie obsługi klienta jest oceniany w rzeczywistych scenariuszach obsługi klienta w fazie projektowania, programowania i wydawania. Korzystając z kombinacji badań i badań wpływu na działalność biznesową, oceniamy ilościowe i jakościowe metryki dla Copilot, w tym dokładność, użyteczność i reprezentatywne zaufanie. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.

Jakie są ograniczenia Copilot w Customer Service? Jak użytkownicy mogą zminimalizować wpływ ograniczeń Copilota?

Funkcje Copilota oparte na wiedzy, takie jak zadawanie pytań, pisanie wiadomości e-mail i przygotowywanie odpowiedzi na czacie, zależą od wysokiej jakości i aktualnych artykułów wiedzy. Bez tych artykułów użytkownicy są bardziej narażeni na napotkanie odpowiedzi Copilot, które nie są oparte na faktach.

Aby zmniejszyć ryzyko niefactualnych odpowiedzi, Microsoft używa silnych praktyk zarządzania wiedzą. Te rozwiązania pomagają zapewnić, że wiedza biznesowa połączona z Copilot pozostaje dokładna i aktualna.

Jakie czynniki i ustawienia operacyjne pozwalają na skuteczne i odpowiedzialne korzystanie z systemu?

Zawsze sprawdzaj wyniki z Copilot

Copilot opiera się na technologii dużych modeli językowych, które mają charakter probabilistyczny. Po przedstawieniu fragmentu tekstu wejściowego model oblicza prawdopodobieństwo wystąpienia każdego słowa w tym tekście, biorąc pod uwagę słowa, które pojawiły się przed nim. Następnie model wybiera słowo, które jest najbardziej prawdopodobne. Ponieważ jednak model opiera się na prawdopodobieństwie, nie może on z całkowitą pewnością powiedzieć, jakie jest prawidłowe następne słowo. Zamiast tego daje najlepsze zgadywanie na podstawie wzorców prawdopodobieństwa poznanych na podstawie danych treningowych.

Copilot stosuje podejście zwane uziemieniem, które polega na dodaniu dodatkowych informacji do danych wejściowych w celu kontekstualizacji danych wyjściowych dla organizacji. Używa wyszukiwania semantycznego, aby zrozumieć dane wejściowe i pobrać odpowiednie dokumenty wewnętrzne i zaufane publiczne wyniki internetowe. Następnie prowadzi model do wygenerowania odpowiedzi na podstawie tej zawartości. Chociaż takie podejście pomaga zapewnić, że odpowiedzi Copilota są zgodne z danymi organizacyjnymi, należy zawsze sprawdzić wyniki przed ich użyciem.

Jak najlepiej wykorzystać Copilot

Podczas interakcji z Copilotem należy pamiętać, że struktura pytań może znacząco wpłynąć na odpowiedź udzielaną przez Copilota. Aby skutecznie wchodzić w interakcje z Copilotem, kluczowe jest zadawanie jasnych i konkretnych pytań, dostarczanie kontekstu, aby pomóc sztucznej inteligencji lepiej zrozumieć twoje intencje, zadawanie jednego pytania na raz i unikanie terminów technicznych w celu zapewnienia jasności i dostępności.

Zadawaj jasne i konkretne pytania

Jasna intencja jest niezbędna przy zadawaniu pytań, ponieważ ma bezpośredni wpływ na jakość odpowiedzi. Na przykład zadając szerokie pytanie, takie jak "Dlaczego ekspres do kawy klienta nie uruchamia się?" jest mniej prawdopodobne, aby uzyskać przydatną odpowiedź w porównaniu z bardziej szczegółowym pytaniem, na przykład "Jakie kroki można wykonać, aby ustalić, dlaczego ekspres do kawy klienta nie uruchamia się?"

Jednak zadając jeszcze bardziej szczegółowe pytanie, takie jak "Jakie kroki mogę podjąć, aby określić, dlaczego ekspres do kawy Contoso 900 z ciśnieniem rzędu 5 bar nie uruchamia się?", zawęża zakres problemu i zapewnia więcej kontekstu, co prowadzi do dokładniejszej i bardziej ukierunkowanej odpowiedzi.

Dodawanie kontekstu

Dodanie kontekstu pomaga konwersacyjnemu systemowi sztucznej inteligencji lepiej zrozumieć intencje użytkownika i zapewnić dokładniejsze i trafniejsze odpowiedzi. Bez kontekstu system może źle zrozumieć pytanie użytkownika lub udzielić ogólnych lub nieistotnych odpowiedzi.

Na przykład "Dlaczego ekspres do kawy nie uruchamia się?" powoduje ogólną odpowiedź w porównaniu z pytaniem z większym kontekstem, np. "Ostatnio klient zainicjował tryb odskalowania na ekspresie do kawy i zakończył pomyślnie odskalowanie. Otrzymali nawet trzy błyski kontrolki zasilania na koniec, aby potwierdzić, że odkamienianie zostało zakończone. Dlaczego nie mogą już uruchomić ekspresu do kawy?"

Dodanie kontekstu w ten sposób jest ważne, ponieważ pomaga Copilot lepiej zrozumieć intencje użytkownika i zapewnić dokładniejsze i trafniejsze odpowiedzi.

W miarę możliwości unikaj terminów technicznych

Zalecamy unikanie używania wysoce technicznych terminów i nazw zasobów podczas interakcji z Copilot, ponieważ system może nie zawsze dokładnie lub odpowiednio go rozumieć. Użycie prostszego, naturalnego języka pomaga zapewnić, że system może poprawnie zrozumieć intencje użytkownika i dostarczyć jasnych, użytecznych odpowiedzi.

Na przykład możesz zmienić frazę "Klient nie może nawiązać połączenia SSH z maszyną wirtualną po zmianie konfiguracji zapory" na "Klient zmienił reguły zapory na swojej maszynie wirtualnej." Nie mogą już łączyć się przy użyciu protokołu Secure Shell (SSH). Czy możesz pomóc?"

Postępując zgodnie z sugestiami, przedstawiciele mogą poprawić swoje interakcje z aplikacją Copilot i zwiększyć prawdopodobieństwo otrzymania od niej rzetelnych i wiarygodnych odpowiedzi.

Podsumowanie lub rozwinięcie odpowiedzi

Czasami odpowiedź od Copilot może być dłuższa niż oczekiwano. Ten scenariusz może wystąpić, gdy przedstawiciel jest w rozmowie na żywo z klientem i musi wysyłać zwięzłe odpowiedzi w porównaniu do wysyłania odpowiedzi za pośrednictwem poczty e-mail. W takich sytuacjach proszenie Copilota o "podsumowanie odpowiedzi" skutkuje zwięzłą odpowiedzią na pytanie. Podobnie, jeśli potrzebujesz więcej szczegółów, prosząc Copilot o "Podaj więcej szczegółów" powoduje bardziej szczegółową odpowiedź na twoje pytanie. Jeśli odpowiedź zostanie obcięta, wpisanie "continue" spowoduje wyświetlenie pozostałej części odpowiedzi.

Jak mogę wpłynąć na odpowiedzi wygenerowane przez Copilot? Czy mogę dostroić podstawowe LLM?

Nie jest możliwe bezpośrednie dostosowanie dużego modelu językowego (LLM). Na odpowiedzi Copilota można wpływać poprzez aktualizację dokumentacji źródłowej. Zawartość opinii z odpowiedzi Copilot jest przechowywana. Raporty mogą być tworzone przy użyciu tych danych w celu określenia źródeł danych, które wymagają aktualizacji. Zalecamy stosowanie procesów w celu okresowego przeglądania danych opinii i zapewnienia, aby artykuły merytoryczne dostarczały najlepsze, najbardziej aktualne informacje dla Copilot.

Jaki jest model bezpieczeństwa danych w Copilot?

Copilot wymusza zdefiniowane kontrole dostępu oparte na rolach (RBAC) i przestrzega wszystkich obowiązujących zasad bezpieczeństwa. W związku z tym przedstawiciele nie mogą wyświetlać danych, do których nie mają dostępu. Ponadto tylko źródła danych, do których przedstawiciel ma dostęp, są używane do generowania odpowiedzi Copilot.

W jaki sposób Copilot określa, czy treść jest obraźliwa czy szkodliwa?

Copilot określa, czy treść jest szkodliwa, za pomocą systemu oceny ważności opartego na odrębnych kategoriach kontrowersyjnych treści. Dowiedz się więcej w kategoriach szkody w obszarze Bezpieczeństwo zawartości sztucznej inteligencji platformy Azure.

Gdzie odbywa się przetwarzanie i pobieranie danych w celu wygenerowania odpowiedzi Copilot?

Copilot nie korzysta z publicznej usługi OpenAI obsługującej moduł ChatGPT. Copilot w usłudze obsługi klienta używa Microsoft Azure OpenAI Service hostowanego w środowisku zarządzanym Microsoft. Wszystkie operacje przetwarzania i pobierania danych są wykonywane w zarządzanych przez Microsoft środowiskach. Dane klienta nie są udostępniane modelom publicznym ani nie są używane do ich trenowania.

Jakie są ograniczenia językowe podsumowań, które Copilot generuje na podstawie przypadków i konwersacji?

Wiele języków jest obsługiwanych w generowanych przez narzędzie Copilot podsumowaniach przypadków i konwersacji. Oczekuje się, że jakość tych streszczeń będzie najwyższa w języku angielskim, podczas gdy w innych językach oczekuje się, że jakość poprawi się z czasem. Dowiedz się więcej o obsługiwanych językach w temacie Obsługa języków dla funkcji Copilot

Czy model jest na bieżąco testowany i monitorowany? Jeśli tak, to jak często? Jakie testy są wykonywane?

Model jest testowany i monitorowany w sposób ciągły. Model jest oceniany pod kątem jakości i szkodliwej zawartości za każdym razem, gdy następuje zmiana wersji modelu lub jej interakcji. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.

Jak często model jest monitorowany w celu wykrycia spadku wydajności?

Azure OpenAI hostuje i zarządza generatywnym modelem AI GPT. Praktyki odpowiedzialnego wykorzystywania sztucznej inteligencji i kontrole Rady ds. Bezpieczeństwa Wdrażania określają, w jaki sposób model jest używany w scenariuszach obsługi klienta. Wszelkie zmiany w wersjach modelu lub podstawowych monitach są weryfikowane pod kątem jakości i szkodliwej zawartości. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.

Czy produkt lub usługa wykorzystuje więcej niż jeden model lub system współzależnych modeli?

Różne funkcje w systemie mogą korzystać z różnych wersji modeli usługi Azure OpenAI Service. Dowiedz się więcej: Modele usługi Azure OpenAI Service.

Czy Copilot używa modelu produktu lub usługi innej niż Microsoft i czy jest dostępna dokumentacja dla tego modelu?

Aplikacja Copilot została zbudowany przy użyciu Azure OpenAI — w pełni zarządzanej usługi AI, która integruje OpenAI z modelami filtrowania treści i wykrywania nadużyć opracowanymi przez Microsoft. Więcej informacji można znaleźć w temacie Uwaga dotycząca usługi Azure OpenAI Service.

Czy istnieje zestaw procesów przekazywania wszelkich zmian w modelach, modelach nadrzędnych lub wynikach używanych w innych rozwiązaniach sztucznej inteligencji/uczenia maszynowego lub modelach?

Wszelkie planowane zmiany w funkcjach Copilot są przekazywane za pośrednictwem publicznej dokumentacji. Jednak wewnętrzne procesy odpowiedzialnej sztucznej inteligencji zarządzają zmianami w wersjach modelu i monitami. Te zmiany nie są komunikowane, ponieważ są to przyrostowe i ciągłe ulepszenia funkcjonalne.

Czy Microsoft udostępnia dosłowne informacje zwrotne od użytkowników w celu ulepszenia produktu?

Nie

Czy Microsoft posiada zasady i procedury, które definiują i różnicują różne role i obowiązki ludzi podczas interakcji z systemami sztucznej inteligencji lub ich monitorowania?

Tak. W procesie odpowiedzialnej sztucznej inteligencji brani są pod uwagę wszyscy zaangażowani interesariusze i użytkownicy, a ich użycie lub niezamierzone użycie systemu jest omawiane. Na podstawie zidentyfikowanych scenariuszy wymagane środki zaradcze są wprowadzane w ramach produktu lub za pośrednictwem dokumentacji. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.

Czy Microsoft identyfikuje i dokumentuje sposoby zbierania danych wejściowych od użytkowników końcowych i interesariuszy w celu monitorowania potencjalnych skutków i zagrożeń?

Tak. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.

Czy Microsoft dokumentuje, ćwiczy i mierzy plany reagowania na incydenty związane z systemem sztucznej inteligencji, w tym mierzy czas reakcji i przestojów?

Tak. Proces odpowiedzialnej sztucznej inteligencji wymaga, aby zespół miał plan reagowania na zdarzenia dotyczące problemów ze sztuczną inteligencją, podobnie jak w przypadku problemów funkcjonalnych. Zespoły funkcji aktywnie monitorują wydajność i niezawodność systemu. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.

Czy Microsoft ustanawia procedury wymiany informacji o występowaniu błędów i negatywnych skutkach z odpowiednimi interesariuszami, operatorami, praktykami, użytkownikami i zainteresowanymi stronami?

Tak. W przypadku problemów o wysokim poziomie ważności zespoły funkcji muszą poinformować klientów, których dotyczy problem, o awarii.

Czy Microsoft mierzy i monitoruje wydajność systemu w czasie rzeczywistym, aby umożliwić szybką reakcję w przypadku wykrycia incydentu w systemie AI?

Tak. Zespoły ds. funkcji stale monitorują wydajność i niezawodność systemu.

Czy Microsoft testuje jakość wyjaśnień systemowych z użytkownikami końcowymi i innymi interesariuszami?

Tak. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.

Czy Microsoft mają zasady i procedury do monitorowania i rozwiązywania problemów z wydajnością modelu, wiarygodnością, stronniczością i zabezpieczeniami w całym cyklu życia modelu?

Tak. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.

Czy Microsoft przeprowadza oceny uczciwości w celu zarządzania obliczeniowymi i statystycznymi formami stronniczości?

Tak. Dowiedz się więcej w artykule Dowiedz się więcej w temacie Responsible AI Transparency Report (Raport dotyczący przejrzystości odpowiedzialnej sztucznej inteligencji).

Czy Microsoft monitoruje dane wyjściowe systemu pod kątem problemów z wydajnością lub odchyleniami?

Tak. Filtry moderacji są stosowane na wielu warstwach, w tym na danych wyjściowych, aby upewnić się, że w odpowiedzi nie ma szkodliwej zawartości. Dowiedz się więcej w artykule Dowiedz się więcej w temacie Responsible AI Transparency Report (Raport dotyczący przejrzystości odpowiedzialnej sztucznej inteligencji).

Jaki jest poziom odporności działania modelu? Na przykład, czy istnieje plan odzyskiwania po awarii i plan awaryjny na wypadek, gdyby model był niedostępny?

Podobnie jak w przypadku wszystkich usług Azure, tworzenie kopii zapasowych i odzyskiwanie danych jest obsługiwane przez wiele centrów danych w celu zapewnienia wysokiej dostępności.

Czy model jest zależny od tego, czy jest on osadzony w narzędziach innych niż Microsoft lub rozwiązaniach, które utrudniają migrowanie modelu do innego środowiska (w tym zmiennych, takich jak dostawca hostingu, sprzęt, systemy oprogramowania), które mogłyby utrudniać wyjaśnienie modelu?

Nie

Czy istnieje ustalona polityka zarządzania modelami?

Tak. Usługa Azure OpenAI obsługuje ustalone zasady ładu. Dowiedz się więcej w artykule Dowiedz się więcej w temacie Responsible AI Transparency Report (Raport dotyczący przejrzystości odpowiedzialnej sztucznej inteligencji).

Czy istnieją ustanowione i udokumentowane protokoły (autoryzacja, czas trwania, typ) i kontrola dostępu do zestawów danych szkoleniowych lub produkcyjnych zawierających informacje umożliwiające identyfikację zgodnie z zasadami ochrony prywatności i zarządzania danymi?

Obecnie nie ma trenowania modelu, dlatego nie ma wymagań dotyczących zestawu danych. Jednak gdy przedstawiciel działu obsługi klienta skontaktuje się z Copilot, w zależności od funkcji, dane kontekstowe (przypadek lub czat) są używane do generowania odpowiedzi.

Czy monitorowane są ujawnianie informacji umożliwiających ustalenie tożsamości oraz wnioskowanie o atrybutach wrażliwych lub prawnie chronionych?

Tak. Przegląd prywatności jest przeprowadzany dla każdej funkcji.

Tak. Przegląd prawny jest przeprowadzany dla każdej funkcji, aby pomóc w wymaganiach regulacyjnych i innych sprawach prawnych.

Używanie funkcji pomocnika
Korzystanie z usługi Copilot do generowania wersji roboczych wiedzy na podstawie przypadków
Dostępność Copilot zależnie od regionu
Często zadawane pytania dotyczące bezpieczeństwa i prywatności danych w usłudze Copilot na platformie Microsoft Power Platform