Udostępnij za pośrednictwem


omówienie dostrajania Microsoft 365 Copilot (wersja zapoznawcza)

Microsoft 365 Copilot Dostrajanie umożliwia organizacjom dostosowywanie dużych modeli językowych przy użyciu własnych danych dzierżawy. Te dostrojone modele umożliwiają agentom zasilania wykonywanie zadań specyficznych dla domeny na podstawie unikatowej wiedzy organizacji. Wszystkie szkolenia i przetwarzanie sztucznej inteligencji odbywa się w ramach dzierżawy usługi Microsoft 365, więc dane pozostają bezpieczne i podlegają istniejącym kontrolom zgodności. Rezultatem jest asystent sztucznej inteligencji, który zachowuje się jak członek zespołu ekspertów, zapewniając dopasowaną pomoc zgodnie z zawartością i regułami organizacji.

W tym artykule wyjaśniono, w jaki sposób organizacje mogą używać dostrajania copilot w celu tworzenia precyzyjnie dostosowanych llms specyficznych dla zadań, jak użytkownicy mogą tworzyć agentów na tych dostrojonych modelach i jak administratorzy IT mogą zarządzać funkcją.

Uwaga

Dostrajanie copilot jest obecnie dostępne dla wczesnego Access — wersja zapoznawcza (EAP). Aby uzyskać szczegółowe informacje na temat wymagań i sposobu rejestrowania, zobacz przewodnik administratora.

Kluczowe możliwości i scenariusze

Dostrajanie copilot umożliwia dostrajanie maszyn llm za pomocą intuicyjnego interfejsu użytkownika bez kodu. Analitycy biznesowi lub eksperci z dziedziny mogą wykorzystać swoją wiedzę na temat domeny, aby dostosować maszyny llm do odpowiednich danych dzierżawy, umożliwiając modelowi poznanie ich unikatowego głosu i procedur niestandardowych dla organizacji. Na przykład analityk działu prawnego może dostosować model przy użyciu wcześniejszych briefów i szablonów przypadków firmy, aby utworzyć agenta sporządzania kontraktów, który zapisuje dokumenty przy użyciu unikatowego stylu i terminologii firmy.

Dostrajanie copilot zapewnia następujące kluczowe możliwości i korzyści:

  • Dostrajanie modelu bez kodu — dostosuj moduły LLM na danych wewnętrznych przy użyciu intuicyjnego interfejsu w Microsoft Copilot Studio.

  • Agenci specyficzni dla domeny — twórz wyspecjalizowanych agentów Copilot na podstawie dostosowanych modeli dostosowanych do zadań biznesowych. Możesz tworzyć agentów dla scenariuszy, takich jak pytania ekspertów&A, generowanie propozycji lub podsumowanie raportów, które zachowują się jak ekspert w tej domenie. Agent generuje wyniki z odpowiednim tonem, słownictwom i poziomem szczegółowości dla organizacji.

  • Bardziej intuicyjne szczegółowe informacje i automatyzacja — kodowanie wiedzy biznesowej organizacji do rozwiązania Copilot umożliwia analizę i tworzenie zawartości dostosowanych do organizacji. Zadania, które mogą zająć kilka dni pracy ręcznej (wyszukiwanie dokumentów, kompilowanie danych, pisanie wersji roboczych) mogą być wykonywane w ciągu kilku minut przez agenta. Dzięki temu analitycy i eksperci z danej dziedziny mogą skupić się na pracy o wyższej wartości, podczas gdy Copilot zajmuje się rutynowymi lub informacyjnymi zadaniami.

  • Integracja ze źródłami danych — dostrajanie copilot może korzystać z zawartości zaawansowanej już w ekosystemie platformy Microsoft 365. Wybierasz źródła wiedzy; Następnie model uczy się na podstawie tych danych dzierżawy, aby upewnić się, że odpowiedzi agenta są zakorzenione w informacjach organizacji. Ze względu na to, że rozwiązanie Copilot jest zintegrowane z programem Microsoft Graph, agent może również korzystać z danych przedsiębiorstwa na żywo, co zapewnia zaawansowane narzędzie do wykonywania zapytań i podsumowywania aktualnych informacji z platformy Microsoft 365.

Twoja organizacja może używać dostrajania Copilot w następujących scenariuszach:

  • Pytania&A — tworzenie agentów wyspecjalizowanych w domenie, którzy rozumieją i rozumują zawartość specyficzną dla dzierżawy — na przykład przepisy, kody podatkowe lub raporty naukowe — w różnych formatach, takich jak .docx, .pdf i .html. Dostrojony do tonu, terminologii i języka zgodności organizacji, agenci Q&A udostępniają odpowiedzi, podsumowania i porównania między dokumentami (na przykład różnice regulacyjne w różnych regionach). Agenci ci są zoptymalizowani pod kątem stabilnej zawartości o dużej zawartości tekstowej w głębokich przepływach pracy opartych na domenie, w których ma znaczenie precyzja i kontekst.

  • Generowanie dokumentów — uczenie modelu na podstawie szablonów dokumentów i poprzednich raportów w celu generowania pierwszych wersji roboczych złożonych dokumentów, które w przeciwnym razie wymagałyby wielu monitów i danych wyjściowych modelu. Możesz na przykład utworzyć agenta zapisywania propozycji, który kompletuje propozycje sprzedaży lub tworzy wersje robocze umów prawnych w formacie i tonie zatwierdzonym przez firmę.

  • Podsumowanie — generowanie wysokiej jakości, ustrukturyzowanych podsumowań złożonych dokumentów, które odzwierciedlają ton, formatowanie i priorytety zawartości organizacji. Idealny w przypadku dużych lub wysokich stawek przypadków użycia, takich jak raportowanie prawne, regulacyjne lub wykonawcze, agenci podsumowania zapewniają spójność, zmniejszają nakład pracy ręcznej i dostosowują się do preferowanego stylu podsumowania. Wytrenuj maszynę LLM przy użyciu przykładowych par, aby utworzyć podsumowania, które są jasne, możliwe do wykonania i dostosowane do wewnętrznych standardów.

Dostosuj maszynę LLM

Aby pomyślnie utworzyć agenta specyficznego dla zadania, który przechwytuje wiedzę organizacji, należy dostosować usługę LLM.

Zastosuj następujące najlepsze rozwiązania, aby dostroić usługę LLM:

  • Zacznij od jasnych celów — zidentyfikuj zadanie o wysokiej wartości, aby upewnić się, że agent zapewnia wymierne wyniki oraz że skoncentrujesz swój czas, dane i nakład pracy na pracy, co zapewni znaczący zwrot. Dostrajanie copilot obecnie obsługuje trzy podstawowe typy zadań: pytania ekspertów&A, generowanie dokumentów i podsumowanie dokumentów.

  • Nadzorowanie danych dotyczących szkoleń dotyczących jakości — zbierz najbardziej odpowiednie i aktualne dokumenty dla zadania. Skuteczność dostrajania zależy od dobrych danych. Używaj źródeł autorytatywnych, takich jak dokumenty zasad, zastrzeżone raporty, zatwierdzone szablony i finalizowane elementy dostarczane, które odzwierciedlają standardy, format i logikę decyzyjną organizacji.

    W przypadku zadań, takich jak generowanie lub podsumowywanie dokumentów, podaj pary danych wejściowych/wyjściowych wysokiej jakości, aby ułatwić modelowi poznawanie struktury, tonu i oczekiwań dotyczących zawartości.

  • Definiowanie jasnych instrukcji i ograniczeń — podczas konfigurowania modelu w Copilot Studio można wprowadzić instrukcje dotyczące tonu i zachowania agenta. Podaj jasne wytyczne; na przykład "Użyj profesjonalnego i przyjaznego tonu" lub "Używaj tylko informacji z oficjalnego podręcznika zasad 2023". Możesz również podać monity początkowe lub przykładowe pytania, aby sterować odpowiedziami modelu. Ułatwiają one agentowi zrozumienie kontekstu i stylu.

  • Korzystanie z narzędzi do wersji zapoznawczej i ewaluacyjnej — dostrajanie rozwiązania Copilot obejmuje kroki oceny. Po wytrenowanym modelu przetestuj go przy użyciu przykładowych zapytań lub zadań. Copilot Studio umożliwia porównanie wyników testów z odpowiedziami według planu bazowego. Przejrzyj dane wyjściowe, aby upewnić się, że spełniają one twoje oczekiwania dotyczące dokładności i tonu. Jeśli tego nie zrobią, uściślij dane trenowania lub instrukcje i przekwalifikuj ponownie.

  • Iterowanie opinii — dostrajanie należy traktować jako proces iteracyjny. Monitorowanie działania agenta w użyciu. Regularnie aktualizuj model przy użyciu nowych danych lub poprawek, aby zachować jego dokładność. Jeśli na przykład zasady ulegną zmianie lub zauważysz możliwości dalszego uściślenia, uwzględnij te aktualizacje i uruchom kolejną rundę dostrajania.

  • Dowiedz się, kiedy używać rozwiązania Copilot a dostrajania — jeśli scenariusz jest szeroki lub informacje zmieniają się codziennie, użycie funkcji Pobierania rozszerzonej generacji (RAG) copilot, która wyszukuje zawartość w czasie zapytania, może być wystarczające. Dostrajanie działa najlepiej w przypadku dobrze zdefiniowanych, powtarzalnych zadań, w których model wymaga głębokiego zrozumienia zawartości statycznej lub określonego stylu. Jeśli zadanie zależy od ogólnego odwołania lub lekkiej syntezy, zacznij od Copilot. Jeśli dane wyjściowe muszą odzwierciedlać konkretny głos, strukturę lub rozumowanie organizacji — szczególnie w przypadku powtarzalnych zadań o wysokiej wartości — jest to sygnał do inwestowania w dostrajanie.

Używanie agentów dostrojonych na maszynach LLM

Po dostrojeniu modelu użytkownicy mogą tworzyć i wdrażać agenta na podstawie tego modelu przy użyciu konstruktora agentów Copilot Studio.

Użytkownicy wchodzą w interakcje z agentami na podstawie dostosowanych modeli, tak jak wchodzą w interakcje z rozwiązaniem Copilot — za pośrednictwem aplikacja Microsoft 365 Copilot lub Copilot Chat w usłudze Teams lub innej aplikacji. Mogą zadawać pytania w języku naturalnym, a agent odpowiada na podstawie jego dostrojonej wiedzy.

Agenci na podstawie dostosowanych modeli zapewniają organizacji następujące korzyści:

  • Zwiększona produktywność — agenci działają jako inteligentni asystenci w codziennej pracy. Użytkownicy mogą uzyskiwać natychmiastowe odpowiedzi lub generować zawartość na podstawie danych organizacji. Użytkownicy mogą również szybciej wykonywać zadania, korzystając z agentów w celu generowania podsumowań, analizowania danych, komunikacji roboczej i nie tylko.

  • Spójność i dokładność — odpowiedzi agenta oparte na dostosowanym modelu są spójne z danymi organizacji. Zmniejsza to ryzyko błędów spowodowanych nieaktualnymi dokumentami lub zewnętrznymi wyszukiwarkami.

  • Tworzenie rozwiązań — Copilot Tuning umożliwia użytkownikom tworzenie rozwiązań opartych na sztucznej inteligencji w celu zaspokojenia ich konkretnych potrzeb związanych z produktywnością. Sprzyja to kulturze innowacji w organizacji.

  • Ulepszona współpraca — agenci zapewniają sposób udostępniania wiedzy organizacyjnej wszystkim użytkownikom. Pomaga to usunąć silosy wiedzy w organizacji oraz zwiększyć udostępnianie informacji i współpracę.

Zastosuj następujące najlepsze rozwiązania podczas tworzenia agentów na podstawie dostosowanych modeli:

  • Zrozumienie zakresu modelu — na jakich danych i zadaniu opiera się agent? Czy do 2022 r. był on szkolony w zakresie dokumentów kadrowych? Czy jest to przeznaczone tylko do podsumowywania niektórych raportów? Znajomość zakresu pomaga zadawać odpowiednie pytania i nie oczekiwać, że będzie wykonywać niepowiązane zadania.

  • Podaj wyraźne monity — podczas interakcji z agentem zadaj jasne, konkretne pytania. Chociaż model jest dostrojony, dobrze sformułowane zapytania dają lepsze wyniki. Na przykład zamiast pytać "Powiedz mi o świadczeniach", zapytaj "Jaka jest polityka urlopu macierzyńskiego dla pracowników zatrudnionych w pełnym wymiarze godzin?" Dopracowani agenci mogą obsługiwać złożone zapytania, ale przejrzystość pomaga w bardziej precyzyjnych informacjach.

  • Dołącz monity początkowe — monity początkowe są wyświetlane w interfejsie użytkownika agenta i pomagają użytkownikom zrozumieć możliwości agenta. Dostosuj monity początkowe do kluczowych scenariuszy dla dostrojonego agenta, aby ułatwić użytkownikom pełne wykorzystanie wiedzy agenta.

  • Uściślaj i iteruj — agenci w oparciu o dopracowane modele obsługują konwersacje wieloetapowe. Jeśli odpowiedź agenta nie jest dokładnie potrzebna, uściślij monit lub zadaj kolejne pytania. Dostrojony agent używa dodatkowych pytań, aby dostosować swoją odpowiedź.

  • Stosowanie najlepszych rozwiązań w zakresie zabezpieczeń — nie pytaj dopracowanego agenta o podanie informacji, które powinny być poufne, i obsługa odpowiedzi agentów zgodnie z zasadami organizacji.

  • Przekaż opinię w celu dalszego dostrajania agentów — użyj mechanizmu opinii, aby wytrenować lub dostosować dopracowanej agenta, aby poprawić jego wydajność. Regularne przekazywanie opinii pomaga agentowi w ciągłym ulepszaniu. W usłudze Copilot użytkownicy mogą wybrać ikony kciuka w górę i kciuk w dół, aby przesłać opinię na temat odpowiedzi agenta. Ta opinia jest wysyłana do firmy Microsoft i pomaga zespołowi produktu zidentyfikować typowe problemy i zwiększyć wydajność modelu w miarę upływu czasu.

ustawienia Administracja i ład

Dostrajanie copilot zapewnia ustawienia, zabezpieczenia i funkcje ładu dla całej dzierżawy, aby umożliwić administratorom skonfigurowanie środowiska przy użyciu odpowiednich barier ochronnych.

Następujące kluczowe funkcje administratora są dostępne do dostrajania Copilot:

  • Kontrola dostępu — administratorzy sztucznej inteligencji mogą włączyć dostrajanie copilot dla swojej organizacji lub dla określonego podzestawu użytkowników. Na przykład administrator może włączyć dostrajanie Copilot tylko dla działów R&D i Legal oraz wyznaczyć niektórych użytkowników w tych zespołach do tworzenia dostosowanych modeli i wyspecjalizowanych agentów. Po wytrenowanym i wdrożonym modelu administrator sztucznej inteligencji kontroluje, kto ma dostęp do wytrenowanego modelu.

  • Centrum administracyjne platformy Microsoft 365 ładu — administratorzy mogą monitorować dostrajanie projektów i agentów za pośrednictwem sekcji zarządzania copilot w Centrum administracyjne platformy Microsoft 365. Mogą wyświetlać, które modele niestandardowe są wdrażane, i usuwać model, jeśli stanie się on przestarzały.

  • Zabezpieczenia i zgodność — dostrajanie copilot jest tworzone z zabezpieczeniami klasy korporacyjnej. Trenowanie modelu odbywa się w środowisku izolowanym od dzierżawy, a wynikowy model dziedziczy uprawnienia dostępu do danych bazowych. Żadne dane klienta nie są przesyłane do usług zewnętrznych podczas szkolenia; dostrajanie odbywa się w bezpiecznej chmurze skojarzonej z dzierżawą.

    Dostrajanie copilot wyklucza wszystkie pliki, do których grupa zabezpieczeń lub grupy zastosowane do modelu nie mają uprawnień dostępu. Sugeruje również grupy zabezpieczeń, aby dodać do swoich danych szkoleniowych, aby zmaksymalizować swoją wiedzę. Zapewnia to dodatkową warstwę zabezpieczeń dla modelu.

    Uwaga

    Podczas dostosowywania modelu wagi modelu są dostosowywane na podstawie danych treningowych. Zmiany uprawnień dostępu do danych szkoleniowych nie są automatycznie stosowane do modelu; Administratorzy sztucznej inteligencji muszą zaktualizować uprawnienia do modelu w Centrum administracyjne platformy Microsoft 365.

    Wszelkie dane programu Microsoft Graph zwrócone w odpowiedziach rozwiązania Copilot również honorują uprawnienia dokumentu; odpowiedzi nie będą zawierać informacji, do których użytkownik nie ma dostępu.

  • Wdrażanie i monitorowanie — gdy model jest precyzyjnie dostosowany i wdrożony, konstruktorzy mogą używać go w agencie i udostępniać agenta użytkownikom w organizacji, którzy mają dostęp do modelu. Administratorzy mogą kontrolować, kto ma dostęp do agenta za pośrednictwem grup zabezpieczeń, i mogą monitorować użycie agenta za pośrednictwem pulpitów nawigacyjnych analizy użycia rozwiązania Copilot.

Zrzeczenie się

Administrator sztucznej inteligencji jest odpowiedzialny za zapewnienie, że korzystanie z tego produktu jest zgodne ze wszystkimi obowiązującymi przepisami dotyczącymi ochrony danych, prywatności i własności intelektualnej. Obejmuje to wypełnianie obowiązków administratora danych zgodnie z przepisami, takimi jak RODO lub CCPA.

Obowiązki administratora danych

  • Odpowiadasz za sposób zbierania, przechowywania i używania danych w środowisku dzierżawy.
  • Należy upewnić się, że twoje praktyki dotyczące danych spełniają wymagania prawne dotyczące przejrzystości, zgody, dostępu i usuwania.
  • Użytkownik jest odpowiedzialny za sprawdzanie dokładności, stosowności i zgodności wszelkich danych wyjściowych wygenerowanych z tego systemu przed ich użyciem. Może wymagać przeglądu z ekspertami.
  • Jeśli zdecydujesz się trenować model niestandardowy przy użyciu własnych danych, musisz upewnić się, że masz odpowiednie prawa lub licencje dla wszelkich materiałów chronionych prawem autorskim zawartych w zestawie szkoleniowym.
  • Ochrona praw autorskich nie będzie miała zastosowania do modeli przeszkolonych przy użyciu nieautoryzowanych treści chronionych prawami autorskimi. Użytkownik ponosi pełną odpowiedzialność za takie użycie.

Usuwanie danych

  • Jeśli użytkownik, którego dane zostały użyte podczas trenowania modelu, prześle prawidłowe żądanie usunięcia zgodnie z RODO (lub podobnymi przepisami), konieczne będzie ponowne wytrenowanie modelu.
  • Podczas dostosowywania modelu wagi modelu są dostosowywane na podstawie danych treningowych. W dowolnym momencie możesz usunąć dostrojony model.