Udostępnij za pośrednictwem


Omówienie monitów

W tym artykule objaśniono monity i inżynierię monitów jako kluczowe pojęcia pomocne w tworzeniu zaawansowanych funkcji generatywnej AI, które można wykorzystać na platformie Power Platform.

Monit to instrukcja w języku naturalnym, która nakazuje dużemu modelowi językowemu (LLM) wykonanie zadania. Proces ten jest również nazywany dostrajaniem instrukcji. Model działa zgodnie z monitem, aby określić strukturę i treść tekstu, który ma wygenerować. Inżynieria monitów to proces tworzenia i udoskonalania monitu używanego przez model.

AI Builder dostarcza środowisko użytkownika do tworzenia monitów dla twórców, które umożliwia im tworzenie, testowanie i zapisywanie monitów, które można ponownie wykorzystać.

Ważne

Wymagania wstępne

Czym jest monit i jak go używać

Pojmij monit jako zadanie lub cel nadany dużemu modelowi językowemu (LLM). W konstruktorze monitów można budować, testować i zapisywać niestandardowe monity. Zmiennych wejściowych i danych Dataverse można również używać w celu zapewnienia dynamicznych danych kontekstowych w czasie wykonywania. Te monity można udostępnić innym użytkownikom i używać ich w usługach Power Automate, Power Apps lub Copilot Studio. Na przykład można utworzyć monit o pobraniu elementów akcji z wiadomości e-mail firmy i używać go w przepływie Power Automate do tworzenia automatyzacji przetwarzania wiadomości e-mail.

Konstruktor monitów umożliwia twórcom opracowania niestandardowych monitów, które będą odpowiadać ich konkretnym potrzebom biznesowym, za pomocą języka naturalnego. Te monity mogą być wykorzystywane do wielu zadań lub scenariuszy biznesowych, takich jak podsumowanie zawartości, dzielenie danych, wyodrębnianie encji, tłumaczenie języków, ocena opinii lub formułowanie odpowiedzi na skargę.

Monity można zintegrować z przepływami, aby utworzyć inteligentną automatyzację wyłączenia z pracy. Twórcy mogą także tworzyć zaawansowane funkcje generowania AI dla swoich aplikacji, opisując je jako monity języka naturalnego. Monity te mogą także służyć do rozszerzania akcji i tematów pomocnika, co usprawnia codzienną działalność biznesową i zwiększa wydajność.

Nadzór ludzki

Ludzki nadzór jest ważnym krokiem podczas pracy z treścią generowaną na podstawie modelu GPT. Duże modele językowe, takie jak GPT, są trenowane na ogromnych ilościach danych. Treści generowane przez sztuczną inteligencję mogą zawierać błędy i uprzedzenia. Ludzie powinni przejrzeć je przed publikacją w trybie online, wysłać do klienta lub użyć ich do poinformowania o podjęciu decyzji biznesowej. Ludzki nadzór pomaga nie tylko zidentyfikować potencjalne błędy i uprzedzenia, ale także upewnić się, że treść jest odpowiednia dla zamierzonego przypadku użycia i zgodna z wartościami firmy.

Weryfikacja przez człowieka może również pomóc w zidentyfikowaniu wszelkich problemów z samym modelem GPT. Jeśli na przykład model generuje zawartość, która nie ma znaczenia dla planowanego przypadku użycia, może okazać się konieczne dostosowanie monitu.

Odpowiedzialna AI

Dokładamy wszelkich starań, aby tworzyć wzorzec odpowiedzialnego AI. Naszymi działaniami kierował podstawowy zestaw zasad: uczciwość, niezawodność i bezpieczeństwo, prywatność i zabezpieczenia, włączenie społeczne, przezroczystość i odpowiedzialność. Wprowadzamy te zasady w życie w całej firmie, aby opracowywać i wdrażać sztuczną inteligencję, która ma pozytywny wpływ na społeczeństwo. Stosujemy kompleksowe podejście, łącząc innowacyjne badania, wyjątkową inżynierię i odpowiedzialne zarządzanie. Obok przeprowadzonych przez OpenAI analiz w zakresie wyrównania wartości AI zalecamy struktury bezpiecznego wdrażania własnych technologii AI, które mają pomóc branży w zakresie realizacji bardziej odpowiedzialnych działań.

Dowiedz się więcej o przejrzystości w usłudze Azure OpenAI Service

Zobacz też