Udostępnij przez


Często zadawane pytania dotyczące zatwierdzeń sztucznej inteligencji

Te często zadawane pytania wyjaśniają możliwości, użycie i zabezpieczenia etapów zatwierdzania opartych na sztucznej inteligencji (zatwierdzeń sztucznej inteligencji) w programie Microsoft Copilot Studio. Zatwierdzenia sztucznej inteligencji umożliwiają przepływowi agentów automatyczne zatwierdzanie lub odrzucanie żądań na podstawie wstępnie zdefiniowanych kryteriów, zapewniając jednocześnie, że ludzie pozostają pod kontrolą ważnych decyzji. Poniżej przedstawiono kilka typowych pytań i odpowiedzi dotyczących tej funkcji.

Co to są zatwierdzenia sztucznej inteligencji?

Zatwierdzenia sztucznej inteligencji to inteligentne, zautomatyzowane kroki decyzyjne w przepływach pracy zatwierdzania. Zatwierdzenia sztucznej inteligencji używają modeli AI (modeli lub modeli usługi Azure OpenAI, które można przenieść z usługi Azure AI Foundry), aby ocenić żądania zatwierdzenia względem reguł biznesowych i zwrócić decyzję "Zatwierdzone" lub "Odrzucone" z uzasadnieniem.

Co to są możliwości zatwierdzania sztucznej inteligencji?

W przeciwieństwie do podstawowej automatyzacji opartej na regułach zatwierdzenia sztucznej inteligencji mogą interpretować dane bez struktury i złożone dokumenty (takie jak pliki PDF lub obrazy dołączone do żądania) i stosować logikę zniuansowanych w celu podjęcia decyzji. Na przykład zatwierdzenie sztucznej inteligencji może odczytać pisemne uzasadnienie, sprawdzić słowa kluczowe zasad, a następnie zdecydować.

Etapy zatwierdzania sztucznej inteligencji mogą być również łączone z etapami ludzkimi, dzięki czemu sztuczna inteligencja obsługuje rutynowe decyzje, ludzie nadal nadzorują i finalizować wszelkie krytyczne lub wyjątkowe przypadki. Podsumowując, zatwierdzenia sztucznej inteligencji automatyzują powtarzające się decyzje tak/bez w procesie, przyspieszając przepływy pracy bez usuwania nadzoru człowieka, w którym ma to znaczenie.

Jakie jest zamierzone użycie zatwierdzeń sztucznej inteligencji?

Zatwierdzenia sztucznej inteligencji są przeznaczone dla typowych scenariuszy biznesowych z dobrze zdefiniowanymi kryteriami, usprawniając codzienne przepływy pracy, automatyzując rutynowe decyzje. Typowe przypadki użycia to:

Zatwierdzenia zwrotu kosztów: Automatycznie zatwierdzaj oświadczenia w ramach określonych kwot z prawidłowymi paragonami, pozwalając menedżerom skupić się tylko na wyjątkach.

Zatwierdzenia zamówienia zakupu: Oceń żądania dotyczące limitów budżetu i list dostawców, automatycznie zatwierdzając standardowe obiekty PO w ramach zasad.

Zatwierdzenia żądań podróży: Automatyczne zatwierdzanie zgodnych żądań podróży podczas odrzucania żądań z naruszeniem zasad.

Dołączanie dostawcy: Zaakceptuj lub odrzuć aplikacje, sprawdzając kwalifikacje i wymagania dotyczące zgodności ze wstępnie zdefiniowanymi kryteriami.

Zatwierdzenia przetwarzania faktur: Zweryfikuj faktury, pasując kwoty do zamówień zakupu i potwierdzając, że wymagana dokumentacja jest obecna.

Zatwierdzenia przeglądu dokumentów: Przed przejściem do następnych kroków upewnij się, że kontrakty lub zasady zawierają wymagane elementy i spełniają standardy formatowania.

Zatwierdzenia żądań dotyczących przekroczenia limitu czasu: Zatwierdzanie żądań urlopu, gdy pracownicy mają wystarczającą równowagę i nie istnieją konflikty planowania.

Zatwierdzenia sztucznej inteligencji zostały zaprojektowane pod kątem rutynowych, dobrze zdefiniowanych decyzji. Istnieją jednak scenariusze, w których system może nie działać niezawodnie lub odpowiedzialnie. Zachęcamy klientów do korzystania z zatwierdzeń sztucznej inteligencji w swoich innowacyjnych rozwiązaniach lub aplikacjach, ale podczas wybierania przypadku użycia należy wziąć pod uwagę następujące zasady:

  • Wysokie stawki lub decyzje zmieniające życie: System nie został zaprojektowany do obsługi decyzji mających wpływ na zdrowie, bezpieczeństwo, finanse lub status prawny. Przykłady obejmują roszczenia ubezpieczeniowe, autoryzacje medyczne, zatwierdzenia pożyczki lub ustalenia imigracyjne, które wymagają osądu i odpowiedzialności człowieka.

  • Sprawy prawne lub dyscyplinarne: Przypadki użycia obejmujące odpowiedzialność prawną, interpretację zgodności lub dyscyplinę pracowników mogą przekraczać zamierzony zakres systemu. Chociaż sztuczna inteligencja może podsumowywać dane wejściowe, ostateczne decyzje w tych obszarach powinny pozostać z ludźmi.

  • Subiektywne lub niejednoznaczne kryteria: System może zmagać się z decyzjami, które polegają na smaku, dyskrecie lub złożonych kompromisach — takich jak ocena pracy twórczej lub ocena jakości — gdzie standardy nie są łatwo skodyfikowane.

  • Wrażliwe lub etycznie złożone scenariusze: Zatwierdzenia sztucznej inteligencji nie zostały zaprojektowane pod kątem decyzji dotyczących atrybutów osobistych, potencjalnej dyskryminacji ani generowania zawartości z ograniczeniami. Te zastosowania budzą obawy dotyczące odpowiedzialnej sztucznej inteligencji i mogą wymagać dodatkowych zabezpieczeń.

  • Regulowane branże i przepływy pracy wrażliwe na zgodność: W takich dziedzinach, jak opieka zdrowotna, finanse lub lotnictwo, wymogi regulacyjne mogą wymagać nadzoru człowieka nawet w przypadku rutynowych decyzji. System nie został oceniony pod kątem zgodności w tych kontekstach.

  • Przewidywalne, ale niezamierzone zastosowania: Wraz z rozwojem wdrażania użytkownicy mogą próbować stosować zatwierdzenia sztucznej inteligencji do takich obszarów jak przeglądy wydajności, decyzje dotyczące zatrudniania lub oceny uprawnień klientów. Te zastosowania nie były częścią oceny projektu lub wpływu systemu i mogą wprowadzać zagrożenia, jeśli nie są starannie zarządzane.

Ważne

Zagadnienia prawne i regulacyjne. Organizacje muszą ocenić potencjalne konkretne zobowiązania prawne i prawne w przypadku korzystania z usług i rozwiązań sztucznej inteligencji. Usługi i rozwiązania mogą nie być odpowiednie do użycia w każdej branży lub scenariuszu. Ograniczenia mogą się różnić w zależności od regionalnych lub lokalnych wymagań prawnych. Ponadto usługi sztucznej inteligencji lub rozwiązania nie są przeznaczone i mogą nie być używane w sposób zabroniony w odpowiednich warunkach świadczenia usług i odpowiednich kodeksach postępowania.

Jakie są ograniczenia techniczne zatwierdzeń sztucznej inteligencji i jak użytkownicy mogą zminimalizować wpływ ograniczeń?

Chociaż zatwierdzenia sztucznej inteligencji są zaawansowanymi możliwościami, zachęcamy użytkowników do bycia świadomym ich ograniczeń:

Zatwierdzenia sztucznej inteligencji opierają się na podanych regułach: Sztuczna inteligencja ściśle postępuje zgodnie z instrukcjami i danymi. Jeśli monit jest niejasny lub niekompletny, zatwierdzenie sztucznej inteligencji może podjąć nieprawidłowe decyzje lub zakończyć się niepowodzeniem. Jawne definiowanie kryteriów; powiedzenie "zatwierdź, jeśli jest uzasadnione" bez definiowania "rozsądnej" prowadzi do błędnej interpretacji.

Możliwość wystąpienia błędów: Zatwierdzenia sztucznej inteligencji mogą popełniać błędy z powodu niejednoznacznych danych wejściowych, złożonych przypadków brzegowych lub błędnego odczytania nieprawidłowo zeskanowanych dokumentów. Dane wyjściowe nie zawsze są 100% dokładne, więc nadzór jest niezbędny w przypadku przypadków granic.

Brak ludzkiej intuicji: Zatwierdzenia sztucznej inteligencji nie rozumieją kontekstu poza tym, co są powiedziane i nie mogą zadawać wyjaśnień pytań ani używać uczuć jelitowych. Zatwierdzenie sztucznej inteligencji może przegapić niuanse, które człowiek złapałby, jak wykrycie podejrzanych wydatków, które "wyglądają zbyt wysoko na tę podróż".

Brak wiedzy z doświadczenia: Zatwierdzenia sztucznej inteligencji nie są dostosowywane z każdego zatwierdzenia — nie zmieniają zachowania, chyba że zaktualizujesz monit. Nowe scenariusze, które nie są objęte istniejącymi regułami, wymagają ciągłej konserwacji w miarę rozwoju zasad.

Zależność jakości danych: Decyzje dotyczące zatwierdzania sztucznej inteligencji są tak dobre, jak dane wejściowe. Pliki o niskiej jakości, niekompletne dokumenty lub nieczytelne skanowania mogą powodować nieprawidłowe decyzje lub błędy systemu.

Ograniczenia integracji i wydajności: Złożone kryteria zatwierdzania lub decyzje wymagające danych w czasie rzeczywistym z wielu systemów mogą zmniejszyć dokładność i zwiększyć czas przetwarzania.

Wymaga konfiguracji odpowiedzialnej: Użytkownicy muszą skonfigurować zatwierdzenia sztucznej inteligencji w sposób etyczny z odpowiednimi zasadami bezpieczeństwa człowieka i stronniczymi. Zawsze upewnij się, że instrukcje są zgodne z zasadami firmy i wytycznymi etycznymi.

Brak dostępu do informacji w czasie rzeczywistym: Zatwierdzenia sztucznej inteligencji mogą działać tylko z danymi jawnie podanymi jako dane wejściowe. Nie mogą sprawdzać bieżących spraw, wiadomości ani zdarzeń, chyba że informacje te są przekazywane do procesu zatwierdzania.

Aby zmniejszyć ryzyko i zwiększyć niezawodność podczas korzystania z zatwierdzeń sztucznej inteligencji:

  • Obejmują nadzór ludzki: kierowanie krytycznych lub niejednoznacznych przypadków do ręcznych etapów przeglądu w celu zapewnienia odpowiedzialności i osądu.

  • Przetestuj z różnymi przykładami: użyj danych historycznych i przypadków brzegowych, aby zweryfikować zachowanie systemu przed wdrożeniem.

  • Regularnie uściślij monity: Aktualizowanie instrukcji w miarę rozwoju zasad lub pojawiania się nowych scenariuszy w celu zachowania istotności i dokładności.

  • Unikaj niejasnych kryteriów: upewnij się, że monity są jawne i dobrze zdefiniowane — unikaj terminów takich jak "rozsądne" bez wyraźnego kontekstu.

  • Monitoruj decyzje: Korzystaj z narzędzi, takich jak Aktywność kreatora podpowiedzi, aby śledzić wskaźniki zatwierdzania i identyfikować wzorce lub błędy.

  • Trenowanie użytkowników: informowanie pracowników o interpretowaniu uzasadnienia sztucznej inteligencji i zastępowaniu procedur w celu budowania zaufania i przejrzystości.

Pamiętać: Sztuczna inteligencja może bezpiecznie wykonywać wadliwe instrukcje, więc jasne, prawidłowe wskazówki są niezbędne.

Jakie czynniki operacyjne i ustawienia umożliwiają efektywne i odpowiedzialne korzystanie z funkcji zatwierdzania agenta?

Aby efektywnie i bezpiecznie używać zatwierdzeń sztucznej inteligencji, rozważ następujące najlepsze rozwiązania operacyjne:

  • Ustaw niską temperaturę pod kątem spójności: Użyj ustawień niskiej temperatury (w pobliżu 0), aby zapewnić, że sztuczna inteligencja sprawia, że deterministyczne, przewidywalne decyzje, a nie różne odpowiedzi na identyczne dane wejściowe. Domyślne ustawienia programu Copilot Studio są już zoptymalizowane pod kątem niezawodności.

  • Wybierz odpowiedni model: GPT-4.1 jest zazwyczaj idealnym rozwiązaniem w przypadku większości scenariuszy zatwierdzania. Zaawansowane modele rozumowania (takie jak O3) mogą lepiej obsługiwać złożoną logikę, ale są wolniejsze. Udostępnione przez firmę Microsoft modele są wstępnie zintegrowane i przetestowane, ale możesz korzystać z własnych dostosowanych modeli z usługi Azure AI Foundry, jeśli masz określone wymagania lub potrzeby niestandardowe.

  • Implementowanie nadzoru ludzkiego: Skonfiguruj etapy ludzkie lub ręczne, do których można kierować pod kątem krytycznych decyzji. Ludzkie i ręczne etapy zapewniają, że ludzie są zawsze pod kontrolą.

  • Dokładnie przetestuj w piaskownicy: Uruchom obszerne testy z danymi historycznymi i przykładowymi żądaniami przed rozpoczęciem działania. Celowo przetestuj przypadki brzegowe — brakujące pola, reguły powodujące konflikt, nietypowe scenariusze. Sprawdź prawidłowe wyzwalacze kompleksowego przepływu pracy.

  • Monitorowanie decyzji: Wszystkie decyzje są rejestrowane w sekcji Aktywność konstruktora monitów w Power Automate. Użyj tych danych, aby śledzić metryki, takie jak wskaźniki zatwierdzania, i oceniać poprawność decyzji dotyczących zatwierdzania sztucznej inteligencji.

  • Regularnie aktualizuj kryteria: Traktuj monity sztucznej inteligencji jako żywe dokumenty. Aktualizowanie instrukcji w miarę zmiany zasad lub pojawiania się nowych scenariuszy. Uwzględnianie opinii menedżerów na temat sztucznej inteligencji jest zbyt rygorystyczne lub łagodne w określonych obszarach.

  • Zapewnienie przejrzystości i szkolenia: Szkolenie odpowiednich pracowników na temat interpretowania racjonalności sztucznej inteligencji i zastępowania procedur. Poinformuj użytkowników końcowych, że żądania mogą być początkowo oceniane przez sztuczną inteligencję. Jasne oczekiwania uniemożliwiają zamieszanie i budują zaufanie.

Dostrajając ustawienia sztucznej inteligencji pod kątem spójności, osadzania nadzoru ludzkiego i aktywnego zarządzania procesem, zapewniasz, że zatwierdzenia sztucznej inteligencji pozostają skuteczne i śledzone. Pomyśl o nim jako o partnerstwie: sztuczna inteligencja obsługuje ilość i szybkość, ludzie obsługują wskazówki i wyjątki.

Jakie zabezpieczenia są stosowane w Copilot Studio w celu odpowiedzialnego wykorzystania AI?

Jakiego rodzaju moderowanie zawartości jest implementowane?

Modele GPT są przeszkolone na podstawie danych internetowych, co stanowi doskonałe źródło w budowaniu modelu ogólnego na świecie. Jednocześnie może dziedziczyć dziedziczone treści z tych samych źródeł. Modele są szkolone tak, aby zachowywały się bezpiecznie i nie generują szkodliwej zawartości, ale czasami mogą generować toksyczne dane wyjściowe. Zatwierdzenia sztucznej inteligencji używają usługi Azure AI Content Safety service, aby umieścić stan możliwości moderowania zawartości w monitach dotyczących sztucznej inteligencji. Ta moderacja obejmuje usługi do analizowania wygenerowanych danych wyjściowych za pomocą skanerów tekstu o wielu ważnościach i bezpieczeństwa przed atakami polegającymi na wstrzyknięciu monitów. Dane wyjściowe są również skanowania pod kątem wyprodukowania materiałów chronionych.

Jaki model językowy jest obsługiwany, gdzie są hostowane i jak mogę uzyskać do nich dostęp?

Zatwierdzenia sztucznej inteligencji obsługują modele GPT 4.1 mini, GPT 4.o, GPT 4.1 i o3, które są hostowane w usłudze Azure OpenAI Service. Dostęp do tych modeli można uzyskać za pośrednictwem monitów dotyczących platformy Power Platform, w aplikacjach, przepływach i agentach.

Aby dowiedzieć się więcej, zobacz Co nowego w usłudze Azure OpenAI Service?

Czy moje dane są używane do trenowania lub ulepszania dużych modeli językowych?

Zatwierdzenia sztucznej inteligencji są uruchamiane w usłudze Azure OpenAI service hostowanej przez firmę Microsoft. Dane klientów nie są używane do trenowania ani ulepszania żadnego z modeli Azure OpenAI Service Foundation. Firma Microsoft nie udostępnia danych klienta innej osobie, chyba że udzielono ci do tego uprawnienia. Do trenowania lub ulepszania modeli Azure OpenAI Service Foundation nie są używane ani prompty klientów (dane wejściowe) z ich danymi uziemiającymi, ani odpowiedzi modelu (dane wyjściowe).

W jaki sposób są przetwarzane obrazy osób?

Zatwierdzenia sztucznej inteligencji nie są przeznaczone do identyfikowania osób na podstawie cech twarzy ani danych biometrycznych. Podczas przesyłania obrazów zawierających osoby w zatwierdzeniach sztucznej inteligencji system automatycznie stosuje funkcję rozmycia twarzy przed przeanalizowaniem obrazów w celu ochrony prywatności. Ten etap rozmycia pomaga rozwiązać problemy związane z prywatnością, zapobiegając identyfikacji na podstawie rysów twarzy. W przypadku rozmycia nie ma potrzeby rozpoznawania twarzy ani dopasowywania szablonów twarzy. Zamiast tego każda identyfikacja dobrze znanych osób opiera się na wskazówkach kontekstowych, takich jak mundury lub unikalne ustawienia, a nie na ich twarzach. Ta ochrona prywatności nie powinna mieć wpływu na jakość otrzymywanych wyników. Rozmycie twarzy może być czasami przywoływane w odpowiedziach systemu.

Dowiedz się więcej w artykule Rozmycie twarzy.

Jakie są potencjalne szkody w przypadku używania obrazów lub dokumentów w monitach?

Zatwierdzenia sztucznej inteligencji ograniczają większość czynników ryzyka związanych z używaniem obrazów lub dokumentów w monitach, ale niektóre zagrożenia nadal wymagają dodatkowej ostrożności od twórcy monitu:

  • Obrazy lub dokumenty mogą zawierać szkodliwy tekst lub elementy wizualne, które mogą mieć wpływ na dalsze procesy.

  • Obrazy lub dokumenty mogą zawierać specjalne i prawdopodobnie ukryte instrukcje, które mogą naruszyć lub zastąpić początkowe polecenie.

  • Obrazy lub dokumenty mogą zawierać instrukcje, które mogą prowadzić do wygenerowania treści objętych własnością intelektualną (IP).

  • Monity mogą generować stronnicze komentarze do obrazów lub dokumentów.

  • Wyodrębnianie informacji z obrazów o niskiej jakości lub dokumentów może prowadzić do halucynacji.

Jakie rodzaje problemów mogą wystąpić podczas korzystania z zatwierdzeń sztucznej inteligencji i jak mogę je obsłużyć?

W przypadku korzystania z zatwierdzeń sztucznej inteligencji mogą wystąpić problemy, takie jak błędy analizy (gdy sztuczna inteligencja nie może bezpiecznie stosować reguł), nieprawidłowe decyzje zatwierdzenia (fałszywie dodatnie/ujemne), niespójne wyniki dotyczące podobnych żądań lub przetwarzanie opóźnień w złożonych przypadkach. Aby skutecznie sprostać tym wyzwaniom, upewnij się, że przepływ pracy kieruje żądania do etapów ludzkich.

Zaimplementuj spójne i rygorystyczne testowanie podczas opracowywania i wdrażania, aby wcześnie zidentyfikować potencjalne punkty awarii. Użyj ustawień niskiej temperatury, aby uzyskać przewidywalne wyniki i stale uściślić monity na podstawie obserwowanych błędów. Regularne monitorowanie i iteracyjne ulepszenia pomogą utrzymać niezawodność i dokładność systemu w czasie.