Udostępnij za pośrednictwem


Dane, prywatność i zabezpieczenia dla funkcji Microsoft Copilot dla Microsoft 365

Funkcja Microsoft Copilot dla Microsoft 365 to zaawansowany aparat przetwarzania i orkiestrowania, który zapewnia funkcje produktywności oparte na sztucznej inteligencji poprzez koordynację następnych składników:

  • Duże modele językowe (LLM)
  • Zawartość platformy Microsoft Graph, taka jak wiadomości e-mail, czaty i dokumenty, do których masz uprawnienia dostępu.
  • Aplikacje zwiększające produktywność Microsoft 365, których używasz codziennie, takie jak Word i PowerPoint.

Aby zapoznać się ze sposobem współdziałania tych trzech składników, zobacz omówienie funkcji Microsoft Copilot dla Microsoft 365. Aby uzyskać linki do innej zawartości związanej z funkcją Microsoft Copilot dla Microsoft 365, zobacz dokumentację funkcji Microsoft Copilot dla Microsoft 365.

Ważna

  • Funkcja Microsoft Copilot dla Microsoft 365 jest zgodna z naszymi istniejącymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności z przepisami wobec klientów komercyjnych platformy Microsoft 365, w tym z Ogólnym rozporządzeniem o ochronie danych (RODO) i Geograficznym ograniczeniem przetwarzania danych z Unii Europejskiej (UE).
  • Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, a w tym używanych przez funkcję Microsoft Copilot dla Microsoft 365.
  • Funkcja Microsoft Copilot dla Microsoft 365 działa z wieloma zabezpieczeniami, które obejmują między innymi blokowanie szkodliwej zawartości, wykrywanie materiałów chronionych i blokowanie wstrzyknięć poleceń (ataki typu jailbreak).

Informacje zawarte w tym artykule mają pomóc w udzieleniu odpowiedzi na następujące pytania:

Uwaga

Funkcja Microsoft Copilot dla Microsoft 365 będzie się rozwijać z czasem dzięki nowym możliwościom. Aby być na bieżąco z funkcją Microsoft Copilot dla Microsoft 365 lub zadawać pytania, odwiedź społeczność usługi Microsoft 365 Copilot w witrynie Microsoft Tech Community.

W jaki sposób funkcja Microsoft Copilot dla Microsoft 365 używa zastrzeżonych danych organizacyjnych?

Funkcja Microsoft Copilot dla Microsoft 365 dostarcza wartości, łącząc duże modele językowe z danymi organizacji. Funkcja Microsoft Copilot dla Microsoft 365 uzyskuje dostęp do zawartości i kontekstu za pośrednictwem platformy Microsoft Graph. Może generować odpowiedzi zakotwiczone w danych organizacyjnych, takich jak dokumenty użytkownika, wiadomości e-mail, kalendarz, czaty, spotkania i kontakty. Funkcja Microsoft Copilot dla Microsoft 365 łączy tę zawartość z kontekstem roboczym użytkownika, takim jak spotkanie, w którym użytkownik teraz uczestniczy, wymiana wiadomości e-mail na dany temat lub konwersacja na czacie, którą użytkownik prowadził w zeszłym tygodniu. Funkcja Microsoft Copilot dla Microsoft 365 wykorzystuje to połączenie zawartości i kontekstu, aby pomóc w dostarczaniu dokładnych, odpowiednich i kontekstowych odpowiedzi.

Ważna

Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, a w tym używanych przez funkcję Microsoft Copilot dla Microsoft 365.

Funkcja Microsoft Copilot dla Microsoft 365 wyświetla tylko te dane organizacyjne, do których poszczególni użytkownicy mają co najmniej uprawnienia do wyświetlania. Ważne jest, aby używać modeli uprawnień dostępnych w usługach platformy Microsoft 365, takich jak SharePoint, aby zapewnić odpowiednim użytkownikom lub grupom odpowiedni dostęp do odpowiedniej zawartości w organizacji. Obejmuje to uprawnienia udzielane użytkownikom spoza organizacji za pośrednictwem rozwiązań do współpracy między dzierżawami, takich jak kanały udostępnione w usłudze Microsoft Teams.

Podczas wprowadzania poleceń za pomocą funkcji Microsoft Copilot dla Microsoft 365 informacje zawarte w monitach, pobierane dane i generowane odpowiedzi pozostają w granicach usługi Microsoft 365, zgodnie z naszymi aktualnymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności. Funkcja Microsoft Copilot dla Microsoft 365 używa usług Azure OpenAI do przetwarzania, a nie publicznie dostępnych usług OpenAI. Usługa Azure OpenAI nie buforuje zawartości klienta, a funkcja Copilot zmodyfikowała polecenia dla usługi Copilot dla Microsoft 365.

Uwaga

  • Jeśli używasz wtyczek w celu ułatwienia funkcji Copilot dla Microsoft 365 dostarczania bardziej odpowiednich informacji, sprawdź oświadczenie o ochronie prywatności i warunki korzystania z wtyczki, aby określić, jak będzie ona obsługiwać dane organizacji. Aby uzyskać więcej informacji, zobacz artykuł Rozszerzalność funkcji Microsoft Copilot dla Microsoft 365.
  • Jeśli używasz wtyczki zawartości internetowej, funkcja Copilot dla Microsoft 365 analizuje polecenie użytkownika i identyfikuje terminy, w przypadku których odwołanie do informacji z sieci poprawiłoby jakość odpowiedzi. Na podstawie tych terminów funkcja Copilot generuje zapytanie wyszukiwania, które wysyła do usługi wyszukiwania Bing. Aby uzyskać więcej informacji, zobacz artykuł Dane, prywatność i zabezpieczenia zapytań internetowych w funkcji Copilot dla Microsoft 365.

Monitorowanie nadużyć w funkcji Microsoft Copilot dla Microsoft 365 odbywa się w czasie rzeczywistym bez zapewniania firmie Microsoft stałego dostępu do danych klientów na potrzeby przeglądu przez człowieka lub do zautomatyzowanego przeglądu. Chociaż moderowanie nadużyć, w tym przegląd zawartości przez człowieka, jest dostępne w usłudze Azure OpenAI, usługi funkcji Microsoft Copilot dla Microsoft 365 z niej zrezygnowały. Dane platformy Microsoft 365 nie są zbierane ani przechowywane przez usługę Azure OpenAI.

Uwaga

Możemy wykorzystywać opcjonalne opinie klientów do ulepszania rozwiązania Microsoft Copilot dla Microsoft 365, podobnie jak wykorzystujemy opinie klientów do ulepszania innych usług platformy Microsoft 365 i aplikacji zwiększających produktywność Microsoft 365. Nie używamy tych opinii do trenowania podstawowych dużych modeli językowych używanych przez funkcję Microsoft Copilot dla Microsoft 365. Klienci mogą zarządzać opiniami za pośrednictwem kontrolek administratora. Aby uzyskać więcej informacji, zobacz Zarządzanie opiniami firmy Microsoft dla organizacji i Przekazywanie opinii na temat funkcji Microsoft Copilot dla Microsoft 365.

Dane przechowywane na temat interakcji użytkowników z funkcją Microsoft Copilot dla Microsoft 365

Gdy użytkownik wchodzi w interakcję z programem Microsoft Copilot dla Microsoft 365 (korzystając z aplikacji takich jak Word, PowerPoint, Excel, OneNote, Loop lub Whiteboard), przechowujemy dane dotyczące tych interakcji. Przechowywane dane obejmują monit użytkownika i odpowiedź funkcji Copilot, w tym cytaty do wszelkich informacji używanych do ugruntowania odpowiedzi funkcji Copilot. Odwołujemy się do monitu użytkownika i odpowiedzi funkcji Copilot, ponieważ „zawartość interakcji” i zapis tych interakcji to historia interakcji funkcji Copilot użytkownika. Na przykład te przechowywane dane zapewniają użytkownikom historię interakcji funkcji Copilot w ramach Microsoft Copilot z czatem opartym na grafie i spotkaniami w aplikacji Microsoft Teams. Te dane są przetwarzane i przechowywane zgodnie ze zobowiązaniami umownymi wraz z inną zawartością organizacji na platformie Microsoft 365. Dane są szyfrowane, gdy są przechowywane i nie są używane do trenowania podstawowych modułów LLM, a w tym tych używanych przez funkcję Microsoft Copilot dla Microsoft 365.

Aby wyświetlić te przechowywane dane i zarządzać nimi, administratorzy mogą używać wyszukiwania zawartości lub usługi Microsoft Purview. Administratorzy mogą również używać usługi Microsoft Purview do ustawiania zasad przechowywania danych związanych z interakcjami czatu z funkcją Copilot. Aby uzyskać więcej informacji, zapoznaj się z następującymi artykułami:

W przypadku czatów w usłudze Microsoft Teams z funkcją Copilot administratorzy mogą również wyświetlać przechowywane dane za pomocą interfejsów API eksportu usługi Microsoft Teams.

Usuwanie historii interakcji użytkowników z funkcją Microsoft Copilot dla Microsoft 365

Użytkownicy mogą usuwać historię interakcji z funkcją Copilot, która zawiera monity i odpowiedzi zwracane przez funkcję Copilot, przechodząc do portalu Moje konto. Aby uzyskać więcej informacji, zobacz artykuł Usuwanie historii interakcji z funkcją Microsoft Copilot.

Funkcja Microsoft Copilot dla Microsoft 365 i geograficzne ograniczenie przetwarzania danych z UE

Wywołania funkcji Microsoft Copilot dla Microsoft 365 do LLM są kierowane do najbliższych centrów danych w regionie, ale mogą również nawiązywać połączenia z innymi regionami, gdzie jest dostępna pojemność w okresach wysokiego wykorzystania.

W przypadku użytkowników z Unii Europejskiej oferujemy dodatkowe zabezpieczenia w celu zapewnienia zgodności z Geograficznym ograniczeniem przetwarzania danych z UE. Ruch w UE podlega Geograficznemu ograniczeniu przetwarzania danych z UE, podczas gdy ruch na całym świecie może być wysyłany do UE i innych lokalizacji geograficznych na potrzeby przetwarzania przez duże modele językowe.

Funkcja Microsoft Copilot dla Microsoft 365 i miejsce przechowywania danych

Firma Copilot dla platformy Microsoft 365 przestrzega zobowiązań dotyczących miejsca przechowywania danych, jak określono w Warunkach dotyczących produktów firmy Microsoft i Uzupełnienia o Ochronie Danych. Usługa Copilot dla Microsoft 365 została dodana jako obciążenie objęte zobowiązaniami do przechowywania danych w Warunkach dotyczących produktów firmy Microsoft 1 marca 2024 r.

Oferty Microsoft Advanced Data Residency (ADR) i Multi-Geo Capabilities obejmują zobowiązania do przechowywania danych dla klientów usługi Copilot dla Microsoft 365 od 1 marca 2024 r. W przypadku klientów z UE usługa Copilot dla Microsoft 365 jest usługą Geograficznego ograniczenia przetwarzania danych z UE. Zapytania klientów spoza UE mogą być przetwarzane w Stanach Zjednoczonych, UE lub innych regionach.

Rozszerzalność funkcji Microsoft Copilot dla Microsoft 365

Podczas gdy funkcja Microsoft Copilot dla Microsoft 365 jest już w stanie korzystać z aplikacji i danych w ramach ekosystemu platformy Microsoft 365, wiele organizacji nadal polega na różnych zewnętrznych narzędziach i usługach do zarządzania pracą i współpracy. Środowiska funkcji Microsoft Copilot dla Microsoft 365 mogą odwoływać się do narzędzi i usług innych firm podczas odpowiadania na żądanie użytkownika za pomocą wtyczek lub łączników usługi Microsoft Graph. Dane z łączników usługi Graph mogą być zwracane w odpowiedziach funkcji Microsoft Copilot dla Microsoft 365, jeśli użytkownik ma uprawnienia dostępu do tych informacji.

Po włączeniu wtyczek funkcja Microsoft Copilot dla Microsoft 365 określa, czy musi użyć określonej wtyczki, aby pomóc w udzieleniu użytkownikowi odpowiedniej odpowiedzi. Jeśli wtyczka jest potrzebna, funkcja Microsoft Copilot dla Microsoft 365 generuje zapytanie wyszukiwania, które jest wysyłane do wtyczki w imieniu użytkownika. Zapytanie jest oparte na poleceniu użytkownika, historii interakcji z funkcją Copilot i danych, do których użytkownik ma dostęp na platformie Microsoft 365.

W sekcji Aplikacje zintegrowaneCentrum administracyjnego Microsoft 365 administratorzy mogą wyświetlić uprawnienia i dostęp do danych wymagane przez wtyczkę, a także warunki użytkowania wtyczki i oświadczenie o ochronie prywatności. Administratorzy mają pełną kontrolę nad wyborem wtyczek dozwolonych w ich organizacji. Użytkownik może uzyskać dostęp tylko do wtyczek, na które zezwala jego administrator i które użytkownik zainstalował lub do których został przypisany. Funkcja Microsoft Copilot dla Microsoft 365 używa tylko wtyczek, które są włączone przez użytkownika.

Uwaga

Ustawienia zasad, które kontrolują korzystanie z opcjonalnych połączonych środowisk w Aplikacjach platformy Microsoft 365, nie mają zastosowania do wtyczek.

Aby uzyskać więcej informacji, zapoznaj się z następującymi artykułami:

W jaki sposób funkcja Microsoft Copilot dla Microsoft 365 chroni dane organizacji?

Model uprawnień w dzierżawie platformy Microsoft 365 może pomóc w zapewnieniu przypadkowego wycieku danych między użytkownikami, grupami i dzierżawami. Funkcja Microsoft Copilot dla Microsoft 365 przedstawia tylko dane, do których każda osoba może uzyskać dostęp przy użyciu tych samych podstawowych mechanizmów kontroli dostępu do danych używanych w innych usługach platformy Microsoft 365. Indeks semantyczny uwzględnia granicę dostępu opartą na tożsamości użytkownika, dzięki czemu proces uziemiania uzyskuje dostęp tylko do zawartości, do której bieżący użytkownik ma uprawnienia dostępu. Aby uzyskać więcej informacji, zobacz dokumentację zasad ochrony prywatności i usługi firmy Microsoft.

Jeśli masz dane zaszyfrowane przez usługę Microsoft Purview Information Protection, funkcja Microsoft Copilot dla Microsoft 365 przestrzega praw użycia przyznanych użytkownikowi. To szyfrowanie może być stosowane przez etykiety poufności lub przez ograniczone uprawnienia w aplikacjach na platformie Microsoft 365 za pomocą usługi Zarządzanie prawami do informacji (IRM). Aby uzyskać więcej informacji o używaniu usługi Microsoft Purview z funkcją Microsoft Copilot dla Microsoft 365, zobacz artykuł Zabezpieczenia danych i zgodności usługi Microsoft Purview dla funkcji Microsoft Copilot.

Wdrożyliśmy już wiele form ochrony, aby pomóc klientom w zabezpieczeniu usług i aplikacji Microsoft 365 lub uniemożliwić uzyskanie nieautoryzowanego dostępu do innych dzierżawców lub samego systemu Microsoft 365. Oto kilka przykładów tych form ochrony:

  • Logiczna izolacja zawartości klienta w ramach każdej dzierżawy usług platformy Microsoft 365 jest osiągana dzięki autoryzacji Microsoft Entra i kontroli dostępu opartej na rolach. Aby uzyskać więcej informacji, zobacz kontrolki izolacji platformy Microsoft 365.

  • Firma Microsoft korzysta z rygorystycznych zabezpieczeń fizycznych, osłon w tle i wielowarstwowej strategii szyfrowania, aby chronić poufność i integralność zawartości klientów.

  • Platforma Microsoft 365 korzysta z technologii po stronie usługi, które szyfrują zawartość przechowywaną i przesyłaną przez klientów, w tym funkcję BitLocker, szyfrowanie poszczególnych plików, protokół Transport Layer Security (TLS) i zabezpieczenia protokołu internetowego (IPsec). Aby uzyskać szczegółowe informacje na temat szyfrowania na platformie Microsoft 365, zobacz Szyfrowanie w chmurze firmy Microsoft.

  • Kontrola nad danymi użytkownika jest wzmacniana przez zobowiązanie firmy Microsoft do zachowania zgodności z szeroko obowiązującymi przepisami dotyczącymi ochrony prywatności, takimi jak RODO, i standardami prywatności, takimi jak ISO/IEC 27018, pierwszy na świecie międzynarodowy kodeks ochrony prywatności w chmurze.

  • W przypadku zawartości dostępnej za pośrednictwem wtyczek funkcji Microsoft Copilot dla Microsoft 365 szyfrowanie może wykluczać dostęp programowy, ograniczając w ten sposób dostęp wtyczki do zawartości. Aby uzyskać więcej informacji, zobacz Konfigurowanie praw użytkowania dla usługi Azure Information Protection.

Spełnianie wymagań dotyczących zgodności z przepisami

W miarę rozwoju regulacji w zakresie sztucznej inteligencji firma Microsoft będzie nadal dostosowywać się do przyszłych wymagań prawnych i reagować na nie.

Funkcja Microsoft Copilot dla Microsoft 365 jest oparta na bieżących zobowiązaniach firmy Microsoft dotyczących bezpieczeństwa i prywatności danych w przedsiębiorstwie. Te zobowiązania nie ulegają zmianie. Funkcja Microsoft Copilot dla Microsoft 365 jest zintegrowana z platformą Microsoft 365 i jest zgodna ze wszystkimi istniejącymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności z przepisami dla klientów komercyjnych platformy Microsoft 365. Aby uzyskać więcej informacji, zobacz Zgodność firmy Microsoft.

Oprócz przestrzegania przepisów, w priorytecie mamy otwarty dialog z naszymi klientami, partnerami i organami prawnymi, aby lepiej zrozumieć i rozwiązać problemy, wspierając w ten sposób środowisko zaufania i współpracy. Zdajemy sobie sprawę, że prywatność, zabezpieczenia i przejrzystość nie są tylko cechami, ale wymaganiami wstępnymi w środowisku opartym na sztucznej inteligencji w firmie Microsoft.

Informacje dodatkowe

Funkcja Microsoft Copilot dla Microsoft 365 i ustawienia zasad dla połączonych środowisk

Jeśli wyłączysz połączone środowiska, które analizują zawartość aplikacji platformy Microsoft 365 na urządzeniach z systemem Windows lub Mac w organizacji, funkcje rozwiązania Microsoft Copilot dla Microsoft 365 nie będą dostępne dla użytkowników w następujących aplikacjach:

  • Excel
  • PowerPoint
  • OneNote
  • Słowne

Podobnie funkcje rozwiązania Microsoft Copilot dla Microsoft 365 w tych aplikacjach na urządzeniach z systemem Windows lub Mac nie będą dostępne, jeśli wyłączysz korzystanie z połączonych środowisk dla aplikacji platformy Microsoft 365.

Aby uzyskać więcej informacji na temat korzystania z tych ustawień zasad, zobacz następujące artykuły:

Informacje o zawartości tworzonej przez funkcję Microsoft Copilot dla Microsoft 365

Odpowiedzi generowane przez generującą sztuczną inteligencję mogą nie być w 100% faktyczne. Mimo że stale ulepszamy odpowiedzi, użytkownicy nadal powinni kierować się własną oceną, przeglądając dane wyjściowe przed wysłaniem ich do innych osób. Możliwości funkcji Microsoft Copilot dla Microsoft 365 pozwalają na tworzenie przydatnych wersji roboczych i podsumowań, które pomogą osiągnąć Ci więcej, dając jednocześnie możliwość na przejrzenie wygenerowanej przez AI zawartości, zamiast pełnego zautomatyzowania tych zadań.

Stale ulepszamy algorytmy w celu proaktywnego rozwiązywania problemów, takich jak dezinformacja i kłamstwo, blokowanie zawartości, bezpieczeństwo danych i zapobieganie promocji szkodliwej lub dyskryminacyjnej zawartości zgodnie z naszymi zasadami odpowiedzialnej sztucznej inteligencji.

Firma Microsoft nie rości sobie praw własności do wyników usługi. Mimo to nie ustalamy, czy wyniki klienta są chronione prawami autorskimi lub czy można je wymusić względem innych użytkowników. Wynika to z faktu, że generatywne systemy sztucznej inteligencji mogą generować podobne odpowiedzi na podobne polecenia lub zapytania od wielu klientów. W związku z tym wielu klientów może mieć lub rościć sobie prawa do zawartości, która jest taka sama lub w znacznym stopniu podobna.

Jeśli strona trzecia pozwie klienta komercyjnego o naruszenie praw autorskich za korzystanie z usług Copilot firmy Microsoft lub wygenerowane przez nie dane wyjściowe, będziemy bronić klienta i zapłacimy kwotę wszelkich niekorzystnych wyroków lub ugód wynikających z pozwu sądowego, o ile klient korzystał z zabezpieczeń i filtrów zawartości wbudowanych w nasze produkty. Aby uzyskać więcej informacji, zobacz artykuł Firma Microsoft ogłasza nowe zobowiązanie dotyczące praw autorskich w usłudze Copilot dla klientów.

Jak funkcja Copilot blokuje szkodliwą zawartość?

Usługa Azure OpenAI obejmuje system filtrowania zawartości, który współdziała z podstawowymi modelami. Modele filtrowania zawartości dla kategorii Nienawiść i sprawiedliwość, Seksualne, Przemoc i Samookaleczenie zostały specjalnie wytrenowane i przetestowane w różnych językach. Ten system działa poprzez uruchomienie zarówno polecenia wejściowego, jak i odpowiedzi za pomocą modeli klasyfikacji, które zostały zaprojektowane w celu identyfikowania i blokowania danych wyjściowych szkodliwej zawartości.

Szkody związane z nienawiścią i sprawiedliwością odnoszą się do dowolnej zawartości, która używa języka pejoratywnego lub dyskryminującego opartego na atrybutach takich jak rasa, pochodzenie etniczne, narodowość, tożsamość i ekspresja płciowa, orientacja seksualna, religia, status imigracyjny, status zdolności, wygląd osobisty i rozmiar ciała. Sprawiedliwość dotyczy upewnienia się, że systemy sztucznej inteligencji traktują wszystkie grupy ludzi sprawiedliwie, nie przyczyniając się do istniejących nierówności społecznych. Zawartość o charakterze seksualnym obejmuje dyskusje na temat ludzkich narządów rozrodczych, romantycznych związków, aktów przedstawianych w kategoriach erotycznych lub uczuciowych, ciąży, fizycznych aktów seksualnych, w tym tych przedstawianych jako napaść lub wymuszony akt przemocy seksualnej, prostytucji, pornografii i nadużyć. Przemoc opisuje język związany z działaniami fizycznymi, które mają na celu zranienie lub zabicie, w tym działania, broń i powiązane podmioty. Język samookaleczenia odnosi się do celowych działań, które mają na celu zranienie lub zabicie siebie.

Dowiedz się więcej o filtrowaniu zawartości usługi Azure OpenAI.

Czy funkcja Copilot zapewnia wykrywanie materiałów chronionych?

Tak, funkcja Copilot dla Microsoft 365 zapewnia wykrywanie materiałów chronionych, w tym tekstu podlegającego prawom autorskim i kodu podlegającego ograniczeniom licencyjnym. Nie wszystkie z tych środków zaradczych są istotne dla wszystkich scenariuszy funkcji Copilot dla Microsoft 365.

Czy funkcja Copilot blokuje wstrzykiwanie poleceń (ataki jailbreak)?

Ataki jailbreak to polecenia użytkownika, które mają na celu sprowokowanie generatywnego modelu sztucznej inteligencji do zachowania się w sposób, do którego nie został wytrenowany lub do złamania zasad, których kazano mu przestrzegać. Funkcja Microsoft Copilot dla Microsoft 365 została zaprojektowana w celu ochrony przed atakami wstrzykiwania poleceń. Dowiedz się więcej o atakach jailbreak i sposobach ich wykrywania za pomocą usługi Azure AI Content Safety.

Zaangażowanie w odpowiedzialną sztuczną inteligencję

Ponieważ sztuczna inteligencja przekształca nasze życie, musimy wspólnie zdefiniować nowe reguły, normy i praktyki dotyczące użycia i wpływu tej technologii. Od 2017 r. firma Microsoft pracuje nad odpowiedzialną sztuczną inteligencją, gdy zdefiniowaliśmy nasze zasady i podejście, zapewniając, że ta technologia jest używana w sposób oparty na zasadach etycznych, które stawiają ludzi na pierwszym miejscu.

W firmie Microsoft kierujemy się zasadami dotyczącymi sztucznej inteligencji, standardem odpowiedzialnej sztucznej inteligencji i dziesiątkami lat badań nad sztuczną inteligencją, uziemianiem i ochroną prywatności uczenia maszynowego. Multidyscyplinarny zespół badaczy, inżynierów i ekspertów ds. zasad sprawdza nasze systemy sztucznej inteligencji pod kątem potencjalnych szkód i środków zaradczych — udoskonalając dane szkoleniowe, filtrując w celu ograniczenia szkodliwej zawartości, blokując zapytania i wyniki dotyczące tematów poufnych oraz stosując technologie firmy Microsoft, takie jak InterpretML i Fairlearn, aby pomóc wykrywać i poprawiać odchylenia danych. Jasno określamy, w jaki sposób system podejmuje decyzje, odnotowując ograniczenia, łącząc się ze źródłami i monitując użytkowników o przeglądanie, sprawdzanie faktów i dostosowywanie zawartości na podstawie wiedzy w danej dziedzinie. Aby uzyskać więcej informacji, zobacz artykuł Zarządzanie sztuczną inteligencją: strategia na przyszłość.

Naszym celem jest pomoc naszym klientom w odpowiedzialnym korzystaniu z naszych produktów sztucznej inteligencji, udostępnianiu naszych informacji i tworzeniu relacji partnerskich opartych na zaufaniu. W przypadku tych nowych usług chcemy udostępnić naszym klientom informacje o zamierzonych zastosowaniach, możliwościach i ograniczeniach naszej usługi platformy sztucznej inteligencji, aby mieli wiedzę niezbędną do dokonywania wyborów dotyczących odpowiedzialnego wdrażania. Udostępniamy również zasoby i szablony deweloperom w organizacjach oraz niezależnym dostawcom oprogramowania (ISV), aby ułatwić im tworzenie efektywnych, bezpiecznych i przejrzystych rozwiązań AI.