Możliwości generowania tekstu i monitów — często zadawane pytania
Często zadawane pytania zawierają opis wpływu opis wpływu AI funkcji monitu AI Builder.
Funkcja monitów udostępnia użytkownikom AI Builder wszechstronne możliwości tworzenia przepływów pracy, aplikacji, transformacji danych i dostosowywania elementów obsługiwanych za pomocą interfejsu AI. Umożliwia tworzenie przepływów pracy i aplikacji, które streszczają dokumenty, tworzą wersje robocze odpowiedzi, klasyfikują teksty i przetłumaczą języki. Ta możliwość jest obsługiwana przez usługę Azure OpenAI, która jest oparta na technologii GPT (Generative Pre-trained Transformer). Modele te zostały przeszkolone na ogromnych ilościach danych tekstowych, umożliwiając im generowanie tekstu przypominającego treść napisaną przez człowieka.
Więcej informacji można znaleźć w Uwaga przejrzystości dla usługi Azure OpenAI.
Wyświetla monity AI Builder o umożliwienie tworzenia inteligentnych aplikacji, przepływów pracy i rozbudowy aplikacji. Funkcje wykorzystywania wstępnie trenowanych modeli GPT, co eliminuje konieczność niestandardowego szkolenia w modelu klienta. Można na przykład utworzyć przepływ pracy, który będzie sumować skargi klientów przychodzących. Następnie tworzy bilet w narzędziu do zarządzania zdarzeniami na podstawie kategorii przychodzącej skargi. W tym przykładzie twórcy mogą poinstruować model, aby kategoryzował i podsumowywał przychodzącą skargę w celu utworzenia nowego zdarzenia.
Oto lista najpopularniejszych spraw użycia tej usługi:
- Streszczenie wiadomości e-mail, konwersacji, transkrypcji dokumentów i nie tylko.
- Sugestie wersji roboczej odpowiedzi na zapytania klientów, skargę, wiadomość e-mail i nie tylko.
- Wyodrębnianie informacji z umów, wiadomości e-mail, faktur, zamówień i nie tylko.
- Klasyfikacja treści w żądanych kategoriach (np. niezależnie od tego, czy wiadomość e-mail jest zamówieniem, skargą czy dotyczy zwrotu).
- Analiza sentymentu danego tekstu (na przykład identyfikacja sentymentu recenzji produktu).
- Wyodrębnianie zawartości z dokumentów lub obrazów (na przykład wyodrębnianie informacji z faktur lub opisywanie obiektów na obrazie).
W tych przypadkach użytkownicy są odpowiedzialni za ostateczny wynik systemu. Przed ich użyciem muszą oni przejrzeć wygenerowaną zawartość w celu sprawdzenia, czy nie można z niego korzystać, jeśli nie jest on niekompletny.
W jaki sposób została ocenić gotowości funkcji monitów? Jakie metryki są używane do oceny wydajności?
Ocena funkcji możliwości zawiera kompleksowe testy dotyczące parametrów bezpieczeństwa. Te testy zapewniają, że funkcja jest zgodna ze standardami i zasadami odpowiedzialnego AI naszej organizacji. Jest ona również stale oceniana pod kątem podatności na potencjalne luki w zabezpieczeniach. Metryki efektywności, których używamy głównie obejmują efektywność filtrowania treści i poziom zgodności wyniku działania ludzkiego i automatycznego w zakresie filtrowanych i niefiltrowanych treści.
Modele GPT są przeszkolone na podstawie danych internetowych, co stanowi doskonałe źródło w budowaniu modelu ogólnego na świecie. Jednocześnie może dziedziczyć dziedziczone treści z tych samych źródeł. W modelach są przeszkolone zachowanie w sposób bezpieczny i nie tworzyć szkodliwej zawartości produktu, ale czasami może to być działanie wyjściowe. AI Builder wyświetla monity o korzystanie z zabezpieczeń zawartości Azure AI, aby upiększyć stan funkcji moderowania zawartości w monitach AI. Obejmuje to usługi służące do analizowania wygenerowanych danych wyjściowych przy użyciu tekstu z wieloma monitami i bezpieczeństwa przed monitami o atak. Dane wyjściowe są również skanowania pod kątem wyprodukowania materiałów chronionych.
Jakie są ograniczenia tej funkcji monitów? Jak użytkownicy mogą zminimalizować wpływ ograniczeń monitów podczas korzystania z systemu?
Użycie tej technologii musi być zgodne z wymaganiami określonymi w dokumencie Kod postępowania w usłudze Azure OpenAI Service. Tej technologii nie można używać do generowania treści związanych z propagandą polityczną, mową nienawiści, dezinformacją, samookaleczaniem, dyskryminacją materiałami o charakterze jednoznacznie seksualnym i innymi treściami zakazanymi w kodeksie postępowania. Zastosowania nieobsługiwane przez tą technologię obejmują porady prawne, finansowe, zdrowotne, prognozy dotyczące przyszłości, a także obliczenia finansowe, naukowe i matematyczne oraz wszelkie inne nieobsługiwane użycie wymienione w Uwagi dotyczące przejrzystości usługi Azure OpenAI.
Zawartość wygenerowana przez AI może mieć błędy, dlatego twórcy rozwiązania powinni poinformować użytkowników końcowych, że generowania zawartości przez ten model jest tworzona przez AI w sposób przejrzysty. Jasna komunikacja generowanych treści pomaga uniknąć nadmiernego polegania. Twórcy powinni także sprawdzić, czy można wykonać krok recenzji przez ludzi, aby upewnić się przed jej użyciem, że wygenerowana przez AI treść jest dokładna i odpowiednia.
Jakie czynniki i ustawienia operacyjne pozwalają na skuteczne i odpowiedzialne korzystanie z systemu?
Treść wygenerowana przez model AI jest z natury swej probabilistyczna, przez co odpowiedzi modelu na ten sam monit mogą się różnić. Wygenerowana odpowiedź może być nieprawidłowa lub niepoprawna i może spowodować niezamierzone rezultaty działania przepływu lub aplikacji. Na przykład klienci biznesowi mogą otrzymywać nieprawidłowe lub nieodpowiednie informacje, zalecenia lub pomoc techniczną. Twórcy powinni wdrożyć znaczący nadzór ludzki w swoich przepływach i aplikacjach oraz przetestować swoje monity pod kątem możliwości doprowadzenia do generowania szkodliwych zachowań lub zabronionych treści wymienionych w Kodeksie postępowania Microsoft. Deweloperzy niskiego kodu powinni zachować przejrzystość co do użycia AI w swoich aplikacjach i przepływach i poinformować użytkownika biznesowego, że zawartość ta jest generowana przez AI. Ponadto wygenerowane odpowiedzi mogą nie być zgodne z oczekiwaniami dewelopera z powodu ograniczeń długości, filtrowania treści lub wyboru modelu.
AI Builder obsługuje rodzinę modeli GPT 4o, która jest hostowana w usłudze Azure OpenAI. Dostęp do tych modeli można uzyskać za pomocą promptów w Power Platform, w aplikacjach, przepływach i pomocnikach.
Aby dowiedzieć się więcej, zobacz Co nowego w usłudze Azure OpenAI Service?
Czy moje dane są wykorzystywane do trenowania lub ulepszania dużych modeli językowych dostępnych na stronie AI Builder?
Podpowiedzi AI Builder działają w usłudze Azure OpenAI hostowanej przez Microsoft. Dane klientów nie są wykorzystywane do trenowania ani ulepszania modeli Azure OpenAI Service Foundation. Firma Microsoft nie udostępnia Twoich danych innym firmom, chyba że wyrażono na to zgodę. Do trenowania lub ulepszania modeli Azure OpenAI Service Foundation nie są używane ani prompty klientów (dane wejściowe) z ich danymi uziemiającymi, ani odpowiedzi modelu (dane wyjściowe).
Czy zawartość dodawana do akcji „Utwórz tekst z użyciem technologii GPT przy użyciu monitu” jest publicznie dostępna?
Na karcie Informacje dla akcji znajduje się tekst Ta akcja zapewnia dostęp do monitów dotyczących modelu GPT uruchomionego w usłudze Azure OpenAI Service.
Monity dodawane do akcji Utwórz tekst z użyciem technologii GPT przy użyciu monitu w Power Automate są domyślnie prywatne. Są one widoczne i można z nich korzystać w organizacji, ale nie są dostępne dla wszystkich osób. Monity są prywatne i przeznaczone do użytku wewnętrznego w firmie.
Nowo utworzone monity są domyślnie prywatne. Oznacza to, że są one widoczne i użyteczne w Power Automate, Power Apps oraz Microsoft Copilot Studio tylko przez osobę, która je utworzyła. Daje to twórcy czas na przetestowanie i ocenę ich w aplikacjach lub przepływach pracy oraz zapewnienie ich dokładności przed ich udostępnieniem.
Jeśli chcesz, aby inni użytkownicy środowiska lub grupy mogli korzystać z Twojego prompta w Power Apps lub Power Automate, musisz go udostępnić.
Aby dowiedzieć się więcej, przejdź na stronę Udostępnianie monitu.
AI Builder nie jest przeznaczony do identyfikacji osób na podstawie rysów twarzy lub danych biometrycznych. Po przesłaniu obrazów zawierających osoby w AI Builder system automatycznie stosuje funkcję rozmycia twarzy przed analizą obrazów w celu ochrony prywatności osób. Ten etap rozmycia pomaga rozwiązać problemy związane z prywatnością, zapobiegając identyfikacji na podstawie rysów twarzy. W przypadku rozmycia nie ma potrzeby rozpoznawania twarzy ani dopasowywania szablonów twarzy. Zamiast tego każda identyfikacja dobrze znanych osób opiera się na wskazówkach kontekstowych, takich jak mundury lub unikalne ustawienia, a nie na ich twarzach. Ta ochrona prywatności nie powinna mieć wpływu na jakość otrzymywanych wyników. Rozmycie twarzy może być czasami przywoływane w odpowiedziach systemu.
Dowiedz się więcej w artykule Rozmycie twarzy.
Niestandardowe prompty daje twórcom aplikacji możliwość poinstruowania dużego modelu językowego (LLM), aby zachowywał się w określony sposób lub do wykonywania określonego zadania. Dzięki uważnemu wygenerowaniu monitu można generować odpowiedzi dostosowane do konkretnych potrzeb biznesowych. Model LLM jest elastycznym narzędziem do wykonywania różnych zadań.
Przykład
W przypadku modelu językowego monit niestandardowy może pomóc modelowi odpowiedzieć na pytanie, uzupełnić tekst, przetłumaczyć języki, podsumować dokument, zidentyfikować zadania, zadania do wykonania, czynności do wykonania w tekście i wyodrębnić zawartość z obrazów lub dokumentów. Złożoność monitu niestandardowego może się od jednego zdania do bardziej złożonego, w zależności od zadania.
Wstępnie utworzone funkcje AI są wstępnie skonfigurowane i dostrojone przez zespół Microsoft, aby pomóc twórcom w łatwym wykonywania typowych zadań. Oferują gotowe funkcje AI we wszystkich różnych przypadkach, co upraszcza obsługę klienta i pozwala na korzystanie z inteligentnego obsługi w swoich rozwiązaniach.
Przykład
Wstępnie utworzony monit modelu językowego może wyglądać tak:
Wyodrębnij jako numerowany listę punktów akcji od: [TextToExtract]
W tym przypadku użytkownik musi podać tylko tekst w [TextToExtract]
, z którego chce wyodrębnić punkty akcji. Monit wstępnie utworzony zajmie się pozostałymi.