Udostępnij za pośrednictwem


Uwaga dotycząca przejrzystości dla Microsoft 365 Copilot

Co to jest uwaga dotycząca przejrzystości?

System sztucznej inteligencji obejmuje nie tylko technologię, ale także osoby, które będą z niej korzystać, osoby, których dotyczy problem, oraz środowisko, w którym jest wdrożone. Utworzenie systemu, który jest odpowiedni do zamierzonego celu, wymaga zrozumienia sposobu działania technologii, jej możliwości i ograniczeń oraz sposobu osiągnięcia najlepszej wydajności. Notatki dotyczące przejrzystości firmy Microsoft mają na celu ułatwienie zrozumienia sposobu działania naszej technologii sztucznej inteligencji, wyborów, jakie właściciele systemów mogą dokonać, aby wpływać na wydajność i zachowanie systemu oraz znaczenie myślenia o całym systemie, w tym o technologii, ludziach i środowisku. Będziemy nadal aktualizować ten dokument w miarę rozwoju usługi.

Informacje o przejrzystości firmy Microsoft są częścią szerszego wysiłku firmy Microsoft na rzecz wprowadzenia zasad sztucznej inteligencji w życie. Aby dowiedzieć się więcej, zobacz zasady dotyczące sztucznej inteligencji firmy Microsoft.

Podstawy Microsoft 365 Copilot

Wprowadzenie

Microsoft 365 Copilot to narzędzie zwiększające produktywność oparte na sztucznej inteligencji, które korzysta z dużych modeli językowych i integruje dane z aplikacjami i usługami microsoft Graph i Microsoft 365. Współdziała ona z popularnymi aplikacjami platformy Microsoft 365, takimi jak Word, Excel, PowerPoint, Outlook, Teams i nie tylko.

Microsoft 365 Copilot używa kombinacji modeli dostarczanych przez usługę Azure OpenAI Service. Dzięki temu możemy dopasować konkretne potrzeby każdej funkcji — na przykład szybkość, kreatywność — do właściwego modelu, dzięki czemu Microsoft 365 Copilot mogą zapewnić inteligentną pomoc w czasie rzeczywistym, która umożliwia użytkownikom zwiększenie ich kreatywności, produktywności i umiejętności.

Aby uzyskać dodatkowe, szczegółowe informacje o maszynach llm dostarczonych firmie Microsoft przez usługę OpenAI, zapoznaj się z ich publiczną dokumentacją dostępną w witrynie Models — OpenAI API.

Kluczowe terminy

Okres Opis
Monit użytkownika Monit użytkownika to tekst wysyłany do Microsoft 365 Copilot w celu wykonania określonego zadania lub podania informacji. Na przykład użytkownik może wprowadzić następujący monit: napisz wiadomość e-mail z gratulacjami dla mojego zespołu po zakończeniu roku obrachunkowego.
Przetwarzanie Przetwarzanie monitu użytkownika w Microsoft 365 Copilot obejmuje kilka kroków, w tym odpowiedzialne sprawdzanie sztucznej inteligencji, aby upewnić się, że Microsoft 365 Copilot zapewnia odpowiednie i praktyczne odpowiedzi.
Uziemienia Uziemienie odnosi się do procesu dostarczania źródeł wejściowych do usługi LLM powiązanej z monitem użytkownika. Włączenie Microsoft 365 Copilot dostępu do danych jako źródeł wejściowych , takich jak dane z programu Microsoft Graph lub Bing, Microsoft 365 Copilot może dostarczać użytkownikom dokładniejsze, kontekstowo istotne odpowiedzi.
Microsoft Graph Program Microsoft Graph to brama do danych i analizy na platformie Microsoft 365. Zawiera informacje o relacjach między użytkownikami, działaniami i danymi organizacji.
Łączniki programu Microsoft Graph Łączniki programu Microsoft Graph oferują sposób dostarczania zawartości z usług zewnętrznych do programu Microsoft Graph, umożliwiając korzystanie z danych zewnętrznych w celu zasilania inteligentnych środowisk platformy Microsoft 365, takich jak microsoft search i Microsoft 365 Copilot.
Indeksowania Firma Microsoft używa zarówno indeksowania leksykalne, jak i semantycznego danych programu Microsoft Graph do odpowiedzi naziemnych dla Microsoft 365 Copilot w danych przedsiębiorstwa. Indeksowanie interpretuje monity użytkowników o utworzenie odpowiedzi istotnych kontekstowo. Aby uzyskać więcej informacji na temat indeksowania, zobacz Zachowanie systemu.
Wzbogacony monit Monit jest wzbogacany po dodaniu dodatkowych instrukcji do monitu wejściowego użytkownika w celu Microsoft 365 Copilot generowania bardziej szczegółowej i odpowiedniej odpowiedzi.
Zawartość interakcji Termin używany do opisywania monitu użytkownika i odpowiedzi Microsoft 365 Copilot na ten monit.
Duży model językowy (LLM) Duże modele językowe (LLM) w tym kontekście to modele sztucznej inteligencji, które są wytrenowane na dużych ilościach danych tekstowych w celu przewidywania słów w sekwencjach. Maszyny llm mogą wykonywać różne zadania, takie jak generowanie tekstu, podsumowanie, tłumaczenie, klasyfikacja i inne.
Odpowiedź LLM Zawartość wygenerowana przez usługę LLM w odpowiedzi na monit użytkownika zwrócony do Microsoft 365 Copilot.
Przetwarzanie końcowe Przetwarzanie Microsoft 365 Copilot odbywa się po otrzymaniu odpowiedzi z usługi LLM. To przetwarzanie końcowe obejmuje dodatkowe wywołania uziemienia do programu Microsoft Graph, odpowiedzialną sztuczną inteligencję, zabezpieczenia, zgodność i kontrole prywatności.
Odpowiedzialna sztuczna inteligencja Zasady, badania i praktyki inżynieryjne firmy Microsoft, które są zakorzenione w naszych zasadach sztucznej inteligencji i zoperatyzowane za pośrednictwem naszego standardu odpowiedzialnej sztucznej inteligencji.
Agenci Copilot Agenci copilot to aplikacje opracowane przez firmę Microsoft i innych dostawców, które użytkownicy i organizacje mogą zainstalować, aby dodać nowe umiejętności i wiedzę do Microsoft 365 Copilot. Aby uzyskać więcej informacji na temat korzystania ze sztucznej inteligencji w agentach Copilot, zapoznaj się bezpośrednio z tymi ofertami.
Testowanie czerwonego zespołu Techniki używane przez ekspertów do oceny ograniczeń i luk w zabezpieczeniach systemu oraz testowania skuteczności planowanych środków zaradczych. Testy zespołu czerwonego służą do identyfikowania potencjalnych zagrożeń i różnią się od systematycznego pomiaru ryzyka.

Możliwości

Funkcje

Funkcja Opis
Microsoft 365 Copilot w programie Word Microsoft 365 Copilot w programie Word przekształca pisanie z wydajnością i kreatywnością , dzięki czemu użytkownicy mogą tworzyć, podsumowywać, interpretować, uściślać i podnosić poziom dokumentów. Użytkownicy mogą również korzystać z rozszerzonych możliwości, takich jak wizualizacja i przekształcanie tekstu w tabelę. Niektóre inne możliwości obejmują również dodawanie do istniejących monitów, przygotowywanie dokumentu przez odwoływanie się do innych dokumentów i odnajdywanie informacji o dokumentach.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące Copilot w programie Word.
Microsoft 365 Copilot w programie PowerPoint Microsoft 365 Copilot w programie PowerPoint umożliwia użytkownikom tworzenie nowej prezentacji na podstawie monitu lub pliku Word, korzystając z szablonów przedsiębiorstwa. Funkcja czatu umożliwia wykonywanie poleceń Summary i Q&A oraz light umożliwia użytkownikom dodawanie slajdów, obrazów lub wprowadzanie zmian formatowania w całej talii. Pliki aplikacji PowerPoint mogą być również używane na potrzeby ugruntowania danych.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące Copilot w programie PowerPoint.
Microsoft 365 Copilot w programie Excel Microsoft 365 Copilot w programie Excel pomaga użytkownikom w sugestiach dotyczących formuł, typów wykresów i szczegółowych informacji na temat danych w arkuszach kalkulacyjnych.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące Copilot w programie Excel.
Microsoft 365 Copilot w programie Outlook Microsoft 365 Copilot w programie Outlook ułatwia zarządzanie skrzynką odbiorczą poczty e-mail i wydajniejsze tworzenie komunikacji o wpływie. Microsoft 365 Copilot w programie Outlook można podsumować wątek wiadomości e-mail, zasugerować elementy akcji, odpowiedzi i spotkania uzupełniające. Może również dostosować długość i ton podczas przygotowywania wiadomości e-mail.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące Copilot w programie Outlook.
Microsoft 365 Copilot w programie Teams Microsoft 365 Copilot w programie Teams można podsumować konwersacje, zorganizować kluczowe punkty dyskusji i podsumować kluczowe akcje. Użytkownicy mogą uzyskać odpowiedzi na konkretne pytania i nadrobić zaległości w przypadku chybień na spotkaniach lub czatach

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące rozwiązania Copilot w usłudze Microsoft Teams.
Microsoft 365 Copilot w programie Loop Microsoft 365 Copilot w programie Loop umożliwia użytkownikom tworzenie zawartości, którą można wspólnie ulepszyć dzięki bezpośredniej edycji lub udoskonaleniu przez rozwiązanie Copilot.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące Copilot w programie Loop.
Microsoft 365 Copilot w Microsoft Stream Microsoft 365 Copilot w Microsoft Stream pomaga uzyskać informacje z dowolnego wideo z transkrypcją. Microsoft 365 Copilot w Stream może dostarczyć podsumowanie wideo, odpowiedzieć na konkretne pytania, szybko przejść do konkretnych tematów lub punktów dyskusji i zidentyfikować wywołania do działania.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące rozwiązania Copilot w Stream.
Microsoft 365 Copilot w aplikacji Whiteboard Microsoft 365 Copilot w aplikacji Whiteboard ułatwia rozpoczęcie procesu tworzenia pomysłów w celu generowania, kategoryzowania i podsumowywania pomysłów.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące rozwiązania Copilot w Whiteboard.
Microsoft 365 Copilot w programie OneNote Microsoft 365 Copilot w programie OneNote umożliwia użytkownikom opracowywanie planów, generowanie pomysłów, tworzenie list i organizowanie informacji, aby ułatwić im znalezienie potrzebnych informacji w aplikacji OneNote.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące Copilot w programie OneNote.
Microsoft 365 Copilot Chat Microsoft 365 Copilot Chat (wcześniej nazywane czatem biznesowym) łączy możliwości dużych modeli językowych z Internetem, zawartością roboczą i kontekstem oraz innymi aplikacjami, aby ułatwić użytkownikom opracowywanie zawartości, nadrabianie zaległości i uzyskiwanie odpowiedzi na pytania za pośrednictwem monitów.
Microsoft 365 Copilot w edytorze tekstów sformatowanych programu SharePoint Microsoft 365 Copilot w edytorze tekstów sformatowanych programu Microsoft SharePoint upraszcza tworzenie zawartości na stronach i wpisach programu SharePoint. Za pomocą rozwiązania Copilot możesz napisać tekst, dostosować ton, skondensować informacje i wyszukać pomysły. Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące rozwiązania Copilot w programie SharePoint.
Microsoft 365 Copilot w usłudze OneDrive Microsoft 365 Copilot w usłudze OneDrive to innowacyjny asystent oparty na sztucznej inteligencji, który ułatwia interakcję z dokumentami przez wyodrębnianie informacji, porównywanie kluczowych różnic, podsumowywanie plików i generowanie szczegółowych informacji. Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące Copilot w usłudze OneDrive.
karty Microsoft 365 Copilot rzutów oka Karty szybkiego spojrzenia oferują szybki podgląd jednostek roboczych, takich jak dokumenty, aby ułatwić ocenę istotności lub odwołania. Dostęp do nich jest uzyskiwany przez umieszczenie wskaźnika myszy na plikach na karcie Wyszukiwanie w aplikacja Microsoft 365 Copilot.
Inteligentne wyszukiwanie Inteligentne wyszukiwanie umożliwia wyszukiwanie w aplikacjach Dataverse, takich jak Dynamics 365 Sales, Service i Finance & Operations przy użyciu języka naturalnego.
Łączniki platformy Power Platform Łączniki power platform umożliwiają klientom dostęp do danych w czasie rzeczywistym z kolekcji aplikacji biznesowych i osobistych w środowisku Microsoft 365 Copilot.
Łączniki programu Microsoft Graph Łączniki programu Microsoft Graph umożliwiają nawiązywanie połączeń z zewnętrznymi źródłami danych, w tym do 500 elementów na licencję Microsoft 365 Copilot.
Microsoft Purview Microsoft Purview to rozwiązanie, które pomaga organizacjom zarządzać danymi i chronić je. Zapewnia ona ujednoliconą platformę do zarządzania danymi, ochrony informacji, zarządzania ryzykiem i zgodności. Klienci mogą rozszerzyć możliwości usługi Microsoft Purview udostępniane przez subskrypcje firmy Microsoft klientów (na przykład subskrypcje Microsoft 365 E3 lub E5), aby Microsoft 365 Copilot dane i interakcje.
dostrajanie Microsoft 365 Copilot Microsoft 365 Copilot Dostrajanie umożliwia organizacjom dostosowywanie dużych modeli językowych przy użyciu własnych danych dzierżawy. Te modele mogą służyć do wykonywania zadań specyficznych dla domeny na podstawie unikatowej wiedzy organizacji.

Aby uzyskać więcej informacji, zobacz Często zadawane pytania dotyczące odpowiedzialnej sztucznej inteligencji dotyczące dostrajania Microsoft 365 Copilot

Zachowanie systemu

Microsoft 365 Copilot używa kombinacji llms podsumowania, przewidywania i generowania zawartości. Te moduły LLM obejmują wstępnie wytrenowane modele, takie jak generatywne wstępnie wytrenowane transformatory (GPT), takie jak GPT-4 z interfejsu OpenAI, zaprojektowane do wykonywania celów w tych zadaniach.

Funkcje widoczne dla użytkowników w aplikacjach platformy Microsoft 365 są wyświetlane jako dodatkowe funkcje, funkcje i możliwości monitowania. Maszyny llm i zastrzeżone technologie firmy Microsoft współpracują ze sobą w systemie bazowym, który pomaga ludziom bezpiecznie uzyskiwać dostęp do danych organizacji, korzystać z nich i zarządzać nimi.

  • Aplikacje platformy Microsoft 365 (takie jak Word, Excel, PowerPoint, Outlook, OneNote, Teams i Loop) działają z Microsoft 365 Copilot, aby obsługiwać użytkowników w przepływie pracy. Na przykład Microsoft 365 Copilot w programie Word ma na celu pomoc użytkownikom w procesie tworzenia, zrozumienia i edytowania dokumentów. W podobny sposób Microsoft 365 Copilot w innych aplikacjach pomaga użytkownikom w kontekście ich pracy w tych aplikacjach.

  • Program Microsoft Graph od dawna jest podstawowym elementem platformy Microsoft 365. Zawiera informacje o relacjach między użytkownikami, działaniami i danymi organizacji. Firma Microsoft interfejs Graph API wprowadza do monitu więcej kontekstu sygnałów klientów, takich jak informacje z wiadomości e-mail, czatów, dokumentów i spotkań. Aby uzyskać więcej informacji, zobacz Omówienie programu Microsoft Graph oraz Główne usługi i funkcji w programie Microsoft Graph.

  • Microsoft 365 Copilot Chat umożliwia klientom korzystanie z zawartości roboczej i kontekstu w celu Microsoft 365 Copilot możliwości czatu. Dzięki Microsoft 365 Copilot Chat użytkownicy mogą opracowywać zawartość, nadrabiać zaległości w zakresie pominiętych elementów i uzyskiwać odpowiedzi na pytania za pośrednictwem otwartych monitów — wszystko to jest bezpiecznie zakorzenione w danych służbowych. Używaj Microsoft 365 Copilot Chat na wielu powierzchniach, w tym w usłudze Microsoft Teams, w Microsoft365.com i w copilot.microsoft.com.

  • Indeks semantyczny to indeks wygenerowany na podstawie zawartości w programie Microsoft Graph. Służy do ułatwiania przetwarzania monitów użytkownika w celu tworzenia kontekstowych odpowiedzi. Umożliwia organizacjom przeszukiwanie miliardów wektorów (matematyczne reprezentacje cech lub atrybutów) i zwracanie powiązanych wyników. Indeks semantyczny jest przeznaczony do poszanowania kontekstu zabezpieczeń poszczególnych użytkowników i jest wyświetlana tylko zawartość, do którą użytkownik może uzyskać dostęp. Indeks semantyczny jest oparty na kompleksowym podejściu firmy Microsoft do zabezpieczeń, zgodności, prywatności i przestrzega wszystkich granic organizacji w dzierżawie klienta. Aby uzyskać więcej informacji, zobacz Semantic index for Copilot (Indeks semantyczny dla rozwiązania Copilot).

Oto wyjaśnienie, jak działa usługa Microsoft 365 Copilot:

  • Microsoft 365 Copilot odbiera monit wejściowy od użytkownika w aplikacji, takiego jak Word lub PowerPoint.

  • Microsoft 365 Copilot następnie przetwarza monit użytkownika, co poprawia specyfikę monitu, aby ułatwić użytkownikowi uzyskanie odpowiedzi, które są istotne i możliwe do wykonania w ramach określonego zadania. Monit może zawierać tekst z plików wejściowych lub innej zawartości odnalezionej przez Microsoft 365 Copilot przy użyciu programu Microsoft Graph, a Microsoft 365 Copilot wysyła ten monit do usługi LLM w celu przetworzenia. Microsoft 365 Copilot uzyskuje dostęp tylko do danych, do których pojedynczy użytkownik ma istniejący dostęp, na przykład na podstawie istniejących mechanizmów kontroli dostępu opartych na rolach platformy Microsoft 365.

  • Microsoft 365 Copilot pobiera odpowiedź z usługi LLM i przetwarza ją po jej przetworzeniu. To przetwarzanie końcowe obejmuje inne wywołania uziemienia do programu Microsoft Graph, odpowiedzialne kontrole sztucznej inteligencji, takie jak klasyfikatory zawartości, zabezpieczenia, zgodność i kontrola prywatności oraz generowanie poleceń.

  • Microsoft 365 Copilot zwraca odpowiedź do aplikacji, w której użytkownik może przejrzeć i ocenić odpowiedź.

Dane są szyfrowane podczas ich przechowywania i nie są używane do trenowania maszyn LLM podstawowych usługi Azure OpenAI Service, w tym tych używanych przez Microsoft 365 Copilot. Aby uzyskać więcej informacji na ten temat, zobacz Dane, prywatność i zabezpieczenia dla Microsoft 365 Copilot.

Jak Microsoft 365 Copilot generuje odpowiedzi bez zawartości internetowej lub danych organizacyjnych

Microsoft 365 Copilot nie wymaga od zawartości internetowej ani danych organizacyjnych udzielenia odpowiedzi, ale te informacje mogą pomóc w poprawie jakości, dokładności i istotności odpowiedzi. Podczas odpowiadania bez danych internetowych lub organizacyjnych Microsoft 365 Copilot opiera się tylko na swoich maszynach llm, aby zrozumieć monity i wygenerować odpowiedzi. Proces polega na przeanalizowaniu danych wejściowych, wykorzystaniu wewnętrznych baza wiedzy modelu i uściślaniu odpowiedzi w celu zapewnienia, że jest ona odpowiednia kontekstowo.

Dostosowywanie & rozszerzalności

Microsoft 365 Copilot oferuje funkcje ułatwiające użytkownikom odblokowywanie produktywności i kreatywności. Jego zdolność adaptacji oznacza, że można ją dostosować do unikatowych potrzeb różnych organizacji. Możliwość rozszerzania swoich możliwości poprzez rozszerzenia sprawia, że jest to stale ewoluujący zasób, który może dostosować się do stale zmieniającego się krajobrazu potrzeb biznesowych. Dowiedz się więcej o dostosowywaniu Microsoft 365 Copilot w witrynie Copilot | Microsoft Developer. Aby uzyskać więcej informacji na temat używania sztucznej inteligencji w rozszerzeniach, zapoznaj się bezpośrednio z tymi ofertami.

Przypadki użycia

Microsoft 365 Copilot to usługa ogólnego przeznaczenia, która pomaga w wykonywaniu wielu codziennych zadań w dowolnej organizacji, łącząc się z danymi służbowymi i integrując się z aplikacjami używanymi przez klientów na co dzień. Przykład:

  • Interakcja między czatami i konwersacjami & tworzenia: użytkownicy mogą wchodzić w interakcje z Microsoft 365 Copilot Chat i generować odpowiedzi pochodzące z zaufanych dokumentów, takich jak wewnętrzna dokumentacja firmy lub dokumentacja pomocy technicznej.

  • Wyszukiwanie: użytkownicy mogą przeszukiwać zaufane dokumenty źródłowe, takie jak wewnętrzna dokumentacja firmy.

  • Podsumowanie: Użytkownicy mogą przesyłać zawartość do podsumowania dla wstępnie zdefiniowanych tematów wbudowanych w aplikację. Przykłady obejmują podsumowanie czatów, wiadomości e-mail, stron internetowych i dokumentów Word aplikacji Teams.

  • Pisanie pomocy dotyczącej określonych tematów: użytkownicy mogą tworzyć nową zawartość lub ponownie zapisywać zawartość przesłaną przez użytkownika jako pomoc w pisaniu zawartości biznesowej lub wstępnie zdefiniowanych tematów. Na przykład przygotowywanie wiadomości e-mail w programie Microsoft Outlook lub pisanie zawartości w usłudze Microsoft Word.

  • Podpisy lub transkrypcja: użytkownicy mogą transkrypcji plików audio do tekstu do zrozumienia języka naturalnego lub analitycznych zadań, takich jak podsumowanie. Przykłady obejmują transkrypcje spotkań i klipy wideo dotyczące Microsoft Stream.

Firma Microsoft udostępnia szczegółowe wskazówki dotyczące typowych przypadków użycia i scenariuszy, aby pomóc klientom przyspieszyć integrację Microsoft 365 Copilot możliwości z ich organizacjami. Dowiedz się więcej na stronie Biblioteka scenariuszy funkcji Microsoft Copilot — Microsoft Adoption.

Zagadnienia dotyczące wybierania przypadku użycia

Zachęcamy użytkowników do przeglądania całej zawartości wygenerowanej przez Microsoft 365 Copilot przed jej użyciem. Ponadto istnieją pewne scenariusze, których zalecamy unikanie. W niektórych przypadkach znaczący nadzór i przegląd człowieka mogą jeszcze bardziej zmniejszyć ryzyko szkodliwych wyników.

  • Unikaj stosowania lub niewłaściwego używania systemu może spowodować znaczne fizyczne lub psychiczne uszkodzenie osoby. Na przykład scenariusze, które diagnozują pacjentów lub przepisują leki, mogą spowodować znaczną szkodę.

  • Unikanie używania lub niewłaściwego używania systemu może mieć wpływ na szanse życiowe lub stan prawny. Przykłady obejmują scenariusze, w których system sztucznej inteligencji może wpływać na stan prawny, prawa lub dostęp do kredytów, edukacji, zatrudnienia, opieki zdrowotnej, mieszkalnictwa, ubezpieczeń, świadczeń socjalnych, usług, możliwości lub warunków, na których są one udostępniane.

  • Dokładnie rozważ przypadki użycia w domenach lub branżach o wysokich stawkach. Przykłady obejmują, ale nie są ograniczone do medycznych lub finansowych.

Ograniczenia

Określone ograniczenia Microsoft 365 Copilot

  1. Integracja i zgodność: chociaż Microsoft 365 Copilot jest przeznaczony do bezproblemowej integracji z aplikacjami platformy Microsoft 365, mogą wystąpić ograniczenia lub problemy ze zgodnością w niektórych środowiskach, zwłaszcza w przypadku aplikacji innych firm (innych niż Microsoft) i niestandardowych lub niestandardowych konfiguracji.

  2. Dostosowywanie i elastyczność: chociaż Microsoft 365 Copilot można dostosować, istnieją ograniczenia dotyczące tego, ile można dostosować do określonych potrzeb organizacji lub przepływów pracy. Organizacje mogą uznać, że niektóre funkcje lub odpowiedzi są sztywne lub nie są w pełni zgodne z wymaganiami organizacji.

  3. Zależność od łączności z Internetem: Microsoft 365 Copilot opiera się na łączności internetowej z funkcją. Wszelkie zakłócenia w łączności mogą mieć wpływ na dostępność i wydajność usługi.

  4. Trenowanie i wdrażanie użytkowników: efektywne korzystanie z Microsoft 365 Copilot wymaga od użytkowników zrozumienia jego możliwości i ograniczeń. Może wystąpić krzywa uczenia się, a użytkownicy muszą być przeszkoleni, aby skutecznie wchodzić w interakcje z usługą i korzystać z niej.

  5. Intensywność zasobów: Uruchamianie zaawansowanych modeli sztucznej inteligencji wymaga znacznych zasobów obliczeniowych, co może mieć wpływ na wydajność, szczególnie w środowiskach ograniczonych zasobami. Użytkownicy mogą napotkać problemy z opóźnieniami lub wydajnością w godzinach szczytowego użycia.

  6. Zagadnienia prawne i dotyczące zgodności: organizacje muszą wziąć pod uwagę swoje szczególne obowiązki prawne i zgodności podczas korzystania z Microsoft 365 Copilot, zwłaszcza w branżach regulowanych. Firma Microsoft bada wymagania prawne, które mają zastosowanie do firmy Microsoft jako dostawcy technologii, i zajmuje się nimi w ramach produktu w procesie ciągłego doskonalenia.

  7. Stronniczość, stereotypy i zawartość nieuziemiona: pomimo intensywnego trenowania przez usługę OpenAI i implementacji mechanizmów kontroli odpowiedzialnej sztucznej inteligencji przez firmę Microsoft zarówno w przypadku monitów użytkowników, jak i danych wyjściowych llm, usługi sztucznej inteligencji są omylne i probabilistyczne. Utrudnia to kompleksowe blokowanie całej nieodpowiedniej zawartości, co prowadzi do potencjalnych uprzedzeń, stereotypów lub nieuziemień w zawartości generowanej przez sztuczną inteligencję. Aby uzyskać więcej informacji na temat znanych ograniczeń zawartości wygenerowanej przez sztuczną inteligencję, zobacz Transparency Note for Azure OpenAI Service (Uwaga dotycząca przejrzystości dla usługi Azure OpenAI Service), która zawiera odwołania do maszyn LLM stojących za Microsoft 365 Copilot.

wydajność Microsoft 365 Copilot

W wielu systemach sztucznej inteligencji wydajność jest często definiowana w odniesieniu do dokładności — to jest to, jak często system sztucznej inteligencji oferuje prawidłowe przewidywanie lub dane wyjściowe. W przypadku Microsoft 365 Copilot dwóch różnych użytkowników może przyjrzeć się tym samym danym wyjściowym i mieć różne opinie na temat ich przydatności lub znaczenia, co oznacza, że wydajność tych systemów musi być zdefiniowana elastyczniej. Ogólnie uważamy, że wydajność oznacza, że aplikacja działa zgodnie z oczekiwaniami użytkowników.

Najlepsze rozwiązania dotyczące ulepszania środowiska Microsoft 365 Copilot

Aby zwiększyć wydajność w odniesieniu do dokładności danych wyjściowych Microsoft 365 Copilot, zalecamy, aby organizacje rozważyć następujące kwestie:

  • Pisanie dobrych monitów. Pisanie dobrych monitów jest kluczem do uzyskania lepszych wyników z Microsoft 365 Copilot. Podobnie jak istnieją techniki ułatwiające ludziom efektywną komunikację z człowiekiem, istnieją wytyczne, które mogą pomóc użytkownikom uzyskać lepsze wyniki z Microsoft 365 Copilot podczas pisania monitów. Na przykład: uwzględnij szczegóły, monity o strukturę, podaj pozytywne instrukcje, iteruj i wygeneruj ponownie, a także zawsze przeglądaj i weryfikowaj odpowiedzi generowane przez sztuczną inteligencję. Aby uzyskać więcej informacji, zobacz Uzyskiwanie lepszych wyników za pomocą monitowania copilot.

  • Zezwalaj na odwoływanie się do zawartości internetowej. Umożliwienie Microsoft 365 Copilot odwoływania się do zawartości internetowej może poprawić jakość, dokładność i istotność odpowiedzi Microsoft 365 Copilot, w przypadku których odpowiedź będzie korzystać z aktualnych, publicznych informacji z Internetu. Należy jednak pamiętać, że gdy Microsoft 365 Copilot odwołuje się do zawartości internetowej, odbywa się to za pośrednictwem usługi Wyszukiwanie Bing, a praktyki obsługi danych dla zapytań Wyszukiwanie Bing różnią się od sposobu obsługi danych przez Microsoft 365 Copilot. Korzystanie z usługi Bing jest objęte Umową o świadczenie usług firmy Microsoft między każdym użytkownikiem a firmą Microsoft wraz z Oświadczeniem o ochronie prywatności firmy Microsoft.

  • Rozszerzanie uziemienia w programie Microsoft Graph. Microsoft 365 Copilot używa danych z programu Microsoft Graph do obsługi odpowiedzi w danych specyficznych dla organizacji, takich jak wiadomości e-mail, czaty, pliki i kalendarze. Rozszerzając program Microsoft Graph o dane organizacyjne ze źródeł takich jak systemy CRM lub zewnętrzne repozytoria plików, organizacje mogą zawierać dodatkowe informacje specyficzne dla kontekstu, które dodatkowo zwiększają bogactwo i dokładność Microsoft 365 Copilot odpowiedzi.

Mapowanie, mierzenie ryzyka i zarządzanie nimi

Podobnie jak w przypadku innych technologii transformacyjnych, wykorzystanie zalet sztucznej inteligencji nie jest wolne od ryzyka, a podstawowa część programu odpowiedzialnej sztucznej inteligencji firmy Microsoft ma na celu identyfikowanie potencjalnych zagrożeń, mierzenie ich skłonności do wystąpienia i tworzenie środków zaradczych w celu zarządzania nimi. Kierując się naszymi zasadami dotyczącymi sztucznej inteligencji i naszym standardem odpowiedzialnej sztucznej inteligencji oraz opierając się na uczeniu się z innych generowanych produktów sztucznej inteligencji i scentralizowanej infrastruktury ograniczania ryzyka (na przykład Bezpieczeństwo zawartości platformy Azure AI), staramy się mapować, mierzyć i zarządzać potencjalnymi zagrożeniami i niewłaściwym wykorzystaniem Microsoft 365 Copilot podczas zabezpieczania transformacyjnych i korzystnych zastosowań, które zapewnia nowe środowisko. W poniższych sekcjach opisano nasze iteracyjne podejście do mapowania, mierzenia i zarządzania potencjalnymi zagrożeniami.

Mapa

Na poziomie modelu nasza praca rozpoczęła się od analiz eksploracyjnych GPT-4 późnym latem 2022 r. Obejmowało to przeprowadzenie szeroko zakrojonych testów zespołu czerwonego we współpracy z usługą OpenAI. Testy te zostały zaprojektowane w celu oceny działania najnowszej technologii bez żadnych dodatkowych zabezpieczeń. Naszym szczególnym zamiarem w tej chwili było zidentyfikowanie zagrożeń, powierzchni potencjalnych dróg do niewłaściwego użycia oraz zidentyfikowanie możliwości i ograniczeń. Nasze połączone uczenie się w zakresie interfejsu OpenAI i firmy Microsoft przyczyniło się do rozwoju modelu, a dla nas w firmie Microsoft poinformowało nas o ryzyku i przyczyniło się do wczesnych strategii ograniczania ryzyka dla wszystkich naszych technologii generowania sztucznej inteligencji, w tym Microsoft 365 Copilot.

Oprócz testowania czerwonego zespołu na poziomie modelu, wielodyscypliarny zespół ekspertów przeprowadził testy zespołu na poziomie aplikacji na podstawie środowiska Microsoft 365 Copilot przed udostępnieniem ich publicznie. Ten proces pomógł nam lepiej zrozumieć, w jaki sposób można wykorzystać system i poprawić nasze środki zaradcze. Po wydaniu nowe środowiska sztucznej inteligencji w Microsoft 365 Copilot są zintegrowane z istniejącą infrastrukturą pomiarów i testowania produkcji organizacji inżynieryjnej.

Miara

Testy zespołu czerwonego mogą tworzyć wystąpienia określonych zagrożeń, ale w środowisku produkcyjnym użytkownicy będą mieli miliony różnych rodzajów interakcji z Microsoft 365 Copilot. Ponadto interakcje są kontekstowe i często wieloobsłowe, a identyfikowanie szkodliwej zawartości w ramach interakcji jest złożonym zadaniem. Aby lepiej zrozumieć i rozwiązać potencjalne zagrożenia dla naszych generowanych usług sztucznej inteligencji, w tym Microsoft 365 Copilot środowisk, opracowaliśmy odpowiedzialne oceny sztucznej inteligencji specyficzne dla tych nowych środowisk sztucznej inteligencji do mierzenia potencjalnych zagrożeń, takich jak jailbreaki, szkodliwa zawartość i zawartość nieuziemiona.

W przykładzie ilustracyjnym zaktualizowany częściowo zautomatyzowany potok pomiaru szkodliwej zawartości zawiera dwie główne innowacje: symulację konwersacji i zautomatyzowaną adnotację konwersacji zweryfikowaną przez człowieka. Najpierw odpowiedzialni eksperci od sztucznej inteligencji tworzyli szablony do przechwytywania struktury i zawartości konwersacji, które mogą powodować różne typy szkodliwych treści. Te szablony zostały następnie przekazane agentowi konwersacji, który wchodził w interakcje jako hipotetyczny użytkownik z Microsoft 365 Copilot, generując symulowane konwersacje. Aby ustalić, czy te symulowane konwersacje zawierają szkodliwą zawartość, przyjęliśmy wytyczne, które są zwykle używane przez ekspertów językoznawców do etykietowania danych i modyfikowania ich do użycia przez maszyny LLM do etykietowania konwersacji na dużą skalę, do momentu osiągnięcia znaczącego porozumienia między konwersacjami z etykietami modelu a konwersacjami oznaczonymi przez człowieka. Na koniec użyliśmy konwersacji z etykietami modelu, aby zrozumieć skuteczność Microsoft 365 Copilot w ograniczaniu szkodliwej zawartości.

Nasze potoki pomiarów umożliwiają szybkie wykonywanie pomiarów potencjalnych zagrożeń na dużą skalę. W miarę identyfikowania nowych problemów w okresie zapoznawczym i trwających testach zespołu czerwonego kontynuujemy rozszerzanie i ulepszanie zestawów pomiarów w celu oceny dodatkowych zagrożeń.

Zarządzanie

Ponieważ zidentyfikowaliśmy potencjalne zagrożenia i niewłaściwe użycie za pośrednictwem procesów takich jak testowanie zespołu czerwonego i zmierzyliśmy je, opracowaliśmy środki zaradcze, aby zmniejszyć ryzyko szkód. Poniżej opisano niektóre z tych środków zaradczych. Będziemy nadal monitorować środowiska Microsoft 365 Copilot, aby poprawić wydajność i środki zaradcze produktu.

  • Wydanie etapowe, ciągła ocena. Nieustannie uczymy się i ulepszamy nasze odpowiedzialne podejście do sztucznej inteligencji w miarę rozwoju naszych technologii i zachowania użytkowników. Regularnie wprowadzamy zmiany w Microsoft 365 Copilot, aby poprawić wydajność produktu, poprawić istniejące środki zaradcze i wdrożyć nowe środki zaradcze w odpowiedzi na nasze szkolenia.

  • Uziemienie danych biznesowych. Znane ryzyko związane z dużymi modelami językowymi polega na możliwości generowania zawartości nieuziemianej — zawartości, która wydaje się poprawna, ale nie jest obecna w materiałach źródłowych. Ważnym środkiem zaradczym w Microsoft 365 Copilot jest uziemienie zawartości wygenerowanej przez sztuczną inteligencję w odpowiednich danych biznesowych, do których użytkownik ma dostęp na podstawie swoich uprawnień. Na przykład, na podstawie monitu użytkownika, Microsoft 365 Copilot jest dostarczany z odpowiednimi dokumentami biznesowymi w celu uziemienia odpowiedzi w tych dokumentach. Jednak podczas podsumowywania zawartości z różnych źródeł Microsoft 365 Copilot może zawierać w odpowiedzi informacje, które nie znajdują się w źródłach wejściowych. Innymi słowy, może generować nieuziemione wyniki. Użytkownicy powinni zawsze zachować ostrożność i korzystać z najlepszej oceny podczas korzystania z danych wyjściowych z Microsoft 365 Copilot. Podjęliśmy kilka działań w celu ograniczenia ryzyka, że użytkownicy mogą nadmiernie polegać na nieuziemionej zawartości generowanej przez sztuczną inteligencję. Tam, gdzie to możliwe, odpowiedzi w Microsoft 365 Copilot, które są oparte na dokumentach biznesowych, obejmują odwołania do źródeł, dla których użytkownicy mogą zweryfikować odpowiedź i dowiedzieć się więcej. Użytkownicy otrzymują również wyraźne powiadomienie, że wchodzą w interakcje z systemem sztucznej inteligencji i zaleca się sprawdzenie materiałów źródłowych, aby ułatwić im korzystanie z ich najlepszej oceny.

  • Klasyfikatory oparte na sztucznej inteligencji i metaprompting w celu ograniczenia potencjalnych zagrożeń lub niewłaściwego użycia. Użycie llms może powodować problematyczne treści, które mogą prowadzić do szkody. Przykłady mogą obejmować dane wyjściowe związane z samookaleczeniem, przemocą, treściami graficznymi, materiałami chronionymi, niedokładnymi informacjami, nienawistną mową lub tekstem, które mogą odnosić się do nielegalnych działań. Klasyfikatory, takie jak te dostępne w Bezpieczeństwo zawartości platformy Azure AI i metapromptingu, to dwa przykłady środków zaradczych, które zostały zaimplementowane w Microsoft 365 Copilot, aby zmniejszyć ryzyko tego typu zawartości. Klasyfikatory klasyfikują tekst w celu oznaczania różnych typów potencjalnie szkodliwej zawartości w monitach użytkownika lub wygenerowanych odpowiedziach. Microsoft 365 Copilot używa klasyfikatorów opartych na sztucznej inteligencji i filtrów zawartości. Flagi prowadzą do potencjalnych środków zaradczych, takich jak niewrócenie wygenerowanej zawartości do użytkownika lub przekierowanie użytkownika do innego tematu. Metaprompting obejmuje instrukcje dla modelu, aby kierować jego zachowaniem, w tym, aby system zachowywał się zgodnie z zasadami sztucznej inteligencji firmy Microsoft i oczekiwaniami użytkowników. Na przykład metaprompt może zawierać wiersz, taki jak "komunikuj się w wybranym języku użytkownika".

  • Monituj o wzbogacenie. W niektórych przypadkach monit użytkownika może być niejednoznaczny. W takim przypadku Microsoft 365 Copilot może użyć usługi LLM, aby uzyskać więcej szczegółów w wierszu polecenia, aby zapewnić użytkownikom uzyskanie odpowiedzi, której szukają. Takie szybkie wzbogacanie nie polega na żadnej wiedzy o użytkowniku ani jego wcześniejszych wyszukiwaniach, ale na maszynie LLM.

  • Interwencje związane z projektowaniem i środowiskiem użytkownika skoncentrowane na użytkowniku. Projektowanie skoncentrowane na użytkownikach i środowiska użytkowników są istotnym aspektem podejścia firmy Microsoft do odpowiedzialnego używania sztucznej inteligencji. Celem jest wykorzenienie projektu produktu w zakresie potrzeb i oczekiwań użytkowników. Gdy użytkownicy wchodzą w interakcje z Microsoft 365 Copilot po raz pierwszy, oferujemy różne punkty dotykowe, które ułatwiają im zrozumienie możliwości systemu, ujawnianie im, że Microsoft 365 Copilot jest obsługiwane przez sztuczną inteligencję i komunikują się ograniczeniami.

  • Ujawnienie sztucznej inteligencji. Microsoft 365 Copilot udostępnia kilka punktów kontaktowych do znaczącego ujawnienia sztucznej inteligencji, w którym użytkownicy są powiadamiani o interakcji z systemem sztucznej inteligencji, a także możliwości, aby dowiedzieć się więcej na temat Microsoft 365 Copilot. Na przykład w przypadku korzystania z Microsoft 365 Copilot w aplikacji Word zawartość wygenerowana przez sztuczną inteligencję jest podawana wraz z informacją, że zawartość wygenerowana przez sztuczną inteligencję może zawierać błędy. Umożliwienie użytkownikom tej wiedzy może pomóc im uniknąć nadmiernego polegania na danych wyjściowych generowanych przez sztuczną inteligencję i poznać mocne i ograniczenia systemu.

  • Pochodzenie mediów. W przypadku wszystkich obrazów utworzonych za pomocą funkcji edycji Designer z poziomu Microsoft 365 Copilot zaimplementowaliśmy poświadczenia zawartości, pochodzenie oparte na standardzie C2PA, aby ułatwić użytkownikom określenie, czy obrazy były edytowane, czy generowane za pomocą sztucznej inteligencji. Metadane pochodzenia można wyświetlić w witrynie Poświadczenia zawartości.

  • Opinie i bieżąca ocena. Środowisko Microsoft 365 Copilot opiera się na istniejących narzędziach, które umożliwiają użytkownikom przesyłanie opinii na temat naszych produktów. Użytkownicy mogą przesyłać opinie na temat zawartości wygenerowanej przez Microsoft 365 Copilot przy użyciu okienka wyświetlanego po wybraniu przycisków kciuka w górę lub kciuka w dół w odpowiedziach. Opinie przesyłane przez użytkowników służą do ulepszania ofert w ramach naszego zobowiązania do poprawy wydajności produktu. Administratorzy klienta mogą przeglądać opinie przesłane w Centrum administracyjne platformy Microsoft 365. Stale ulepszamy i testujemy również wydajność Microsoft 365 Copilot i konkretnych środków zaradczych w ramach bieżącej oceny i ulepszania usługi. Dowiedz się więcej na temat przekazywania opinii na temat Microsoft Copilot z aplikacjami platformy Microsoft 365.

Nasze podejście do mapowania, mierzenia ryzyka i zarządzania nimi będzie nadal ewoluować, gdy dowiemy się więcej, i już wprowadzamy ulepszenia na podstawie opinii otrzymanych od klientów.

Ocenianie i integrowanie Microsoft 365 Copilot dla organizacji

Optymalizacja wdrażania & wdrożenia

Firma Microsoft udostępnia narzędzia, takie jak pulpit nawigacyjny Microsoft Copilot dla klientów platformy Microsoft 365 i raporty w Centrum administracyjne platformy Microsoft 365. Te narzędzia ułatwiają organizacjom mierzenie użycia, wdrażania i wpływu Microsoft 365 Copilot. Przykład:

  • Microsoft 365 Copilot raport użycia umożliwia administratorom wyświetlanie podsumowania sposobu wdrażania, przechowywania i zaangażowania użytkowników w Microsoft 365 Copilot. Aby uzyskać więcej informacji, zobacz użycie Microsoft 365 Copilot.

  • Wskaźnik wdrażania oferuje administratorom wgląd w sposób, w jaki organizacja współpracuje z Microsoft 365 Copilot. Zapewnia ocenę w skali 100 punktów, widok pulpitu nawigacyjnego danych wdrażania & trendów oraz narzędzie do tworzenia ankiet użytkowników w celu zbierania opinii.

  • Pulpit nawigacyjny usługi Experience Insights (wersja zapoznawcza) przedstawia dane dotyczące użycia, aby zapewnić pełniejszy wgląd w środowisko organizacji w usłudze Microsoft 365, w tym szczegółowe informacje na temat szkoleń, aplikacji i usług oraz opinie użytkowników.

Dowiedz się więcej o Microsoft 365 Copilot

Dowiedz się więcej o odpowiedzialnej sztucznej inteligencji