Udostępnij za pośrednictwem


Często zadawane pytania dotyczące bezpieczeństwa i prywatności danych narzędzia Copilot w rozwiązaniach Dynamics 365 i Power Platform

Funkcje usług Copilot dla Dynamics 365 i Power Platform działają zgodnie z zestawem podstawowych praktyk z zakresu bezpieczeństwa i prywatności oraz Standardów odpowiedzialnego AI firmy Microsoft. Dane na platformach Dynamics 365 i Power Platform są chronione przez kompleksowe, wiodące w branży mechanizmy kontroli zgodności, bezpieczeństwa i prywatności.

Rozwiązanie Copilot opiera się na usłudze Microsoft Azure OpenAI Service i działa wyłącznie w chmurze platformy Azure. Usługa Azure OpenAI ma dostępność regionalną i zapewnia filtrowanie zawartości zgodnie ze standardem odpowiedzialnego AI. Usługa Copilot używa modeli OpenAI wraz ze wszystkimi możliwościami z zakresu zabezpieczeń platformy Microsoft Azure. OpenAI to niezależna organizacja. Nie udostępniamy organizacji OpenAI Twoich danych.

Funkcje usługi Copilot nie są dostępne we wszystkich lokalizacjach i językach platformy Azure. W zależności od miejsca hostowania środowiska może być konieczne wyrażenie zgody na przenoszenie danych między lokalizacjami geograficznymi w celu umożliwienia sobie korzystania z nich. Aby uzyskać więcej informacji, zapoznaj się z artykułami wymienionymi w sekcji Przenoszenie danych między lokalizacjami geograficznymi.

Co dzieje się z moimi danymi, gdy korzystam z usługi Copilot?

Masz pełną kontrolę nad swoimi danymi. Firma Microsoft nie udostępnia Twoich danych innym firmom, chyba że wyrażono na to zgodę. Ponadto nie wykorzystujemy danych klienta do trenowania usługi Copilot ani jej funkcji AI, chyba że udzielono nam na to zgody. Usługa Copilot przestrzega istniejących uprawnień i zasad dotyczących danych, a jej odpowiedzi są oparte wyłącznie na danych, do których masz dostęp osobiście. Więcej informacji na temat kontrolowania danych i sposobu ich obsługi można znaleźć w artykułach wymienionych w obszarze Usługa Copilot w aplikacjach Dynamics 365 i Power Platform.

Usługa Copilot monitoruje obelżywe i szkodliwe wykorzystanie usługi dzięki przejściowemu przetwarzaniu. Nie przechowujemy ani nie stosujemy mechanizmów przeprowadzanego przez ludzi przeglądu danych wejściowych i wyjściowych usługi Copilot w celach monitorowania pod kątem nadużyć.

W jaki sposób usługa Copilot używa moich danych?

Każda usługa lub funkcja korzysta z usługi Copilot w oparciu o dane, które podajesz lub konfigurujesz do przetwarzania przez usługę Copilot.

Monity (dane wejściowe) i odpowiedzi usługi Copilot (dane wyjściowe lub wyniki):

Dowiedz się więcej o zabezpieczeniach i prywatności danych usługi Azure OpenAI Service. Więcej ogólnych informacji na temat sposobu, w jaki firma Microsoft chroni Twoje dane i korzysta z nich można znaleźć w naszym Oświadczeniu o ochronie prywatności.

Gdzie trafiają moje dane?

Działalność Microsoft opiera się na zaufaniu. Dokładamy starań, aby zapewniać bezpieczeństwo, prywatność i zgodność we wszystkich obszarach naszej działalności — tak samo jest w przypadku AI. Dane klientów, w tym dane wejściowe i wyjściowe usługi Copilot, są przechowywane w granicach zaufania usługi Microsoft Cloud.

W niektórych scenariuszach, dotyczących na przykład funkcji obsługiwanych przez przeglądarkę Bing i wtyczki usług pomocniczych innych firm, dane klientów mogą być przesyłane poza granicę zaufania usługi Microsoft Cloud.

Czy usługa Copilot może uzyskać dostęp do zaszyfrowanej zawartości?

Dane są przekazywane do usługi Copilot na podstawie poziomu dostępu bieżącego użytkownika. Jeśli użytkownik ma dostęp do zaszyfrowanych danych w rozwiązaniu Dynamics 365 i na platformie Power Platform i przekaże je do usługi Copilot, wówczas usługa Copilot będzie mieć do nich dostęp.

Jak usługa Copilot chroni dane klientów?

Firma Microsoft jest w wyjątkowy sposób przygotowana do tego, by móc dostarczać technologie AI do użytku przez przedsiębiorstwa. Usługa Copilot jest obsługiwana przez usługę Azure OpenAI Service i jest zgodna z naszymi obecnymi zobowiązaniami wobec klientów w zakresie prywatności, zabezpieczeń i zgodności z przepisami.

  • Usługa opiera się na kompleksowym podejściu firmy Microsoft do zabezpieczeń, prywatności i zgodności. Usługa Copilot jest zintegrowana z usługami Microsoft, takimi jak Dynamics 365 i Power Platform, dzięki czemu dziedziczy ich zasady i procesy zabezpieczeń, prywatności i zgodności, takie jak uwierzytelnienie wieloskładnikowe i granice zgodności.

  • Wiele form zabezpieczeń dla skutecznej ochrony danych organizacji. Technologie po stronie usługi szyfrują przechowywaną i przenoszoną zawartość organizacji w celu zapewnienia niezawodnej ochrony. Połączenia są zabezpieczone przy użyciu zabezpieczeń TLS (Transport Layer Security), a przenoszenie danych między usługami Dynamics 365 Power Platform i Azure OpenAI odbywa się w sieci podstawowej Microsoft, co zapewnia zarówno rzetelność, jak i bezpieczeństwo. Dowiedz się więcej o szyfrowaniu w usłudze Microsoft Cloud.

  • Opracowano je z myślą o zapewnieniu ochrony danych zarówno na poziomie dzierżawy, jak i środowiska. Wiemy, że wyciek danych to coś, co spędza klientom sen z powiek. Modele AI firmy Microsoft nie są trenowane i nie uczą się na danych dzierżawcy ani monitach, chyba że administrator dzierżawy wyraził zgodę na udostępnianie nam danych. We własnych środowiskach możesz kontrolować dostęp za pomocą ustawionych uprawnień. Mechanizmy uwierzytelniania i autoryzacji rozdzielają żądania do udostępnionego modelu między dzierżawców. Usługa Copilot wykorzystuje dane, do których tylko Ty możesz uzyskać dostęp dzięki zastosowaniu tej samej technologii, która jest przez nas używana od lat w celu zabezpieczania danych klientów.

Czy odpowiedzi usługi Copilot zawsze są merytorycznie poprawne?

Tak jak w przypadku generatywnego AI, odpowiedzi usługi Copilot nie są w 100% merytorycznie poprawne. Choć nieustannie staramy się ulepszać odpowiedzi tak, by były one w jak największym stopniu oparte na faktach, to przed przesłaniem ich do innych osób użytkownicy powinni zaufać własnemu osądowi i zdrowemu rozsądkowi. Usługa Copilot zapewnia dostęp do przydatnych funkcji sporządzania kopii roboczych i podsumowań, dzięki którym możesz robić więcej i szybciej — funkcje te działają jednak w pełni automatycznie. Zawsze będziesz mieć możliwość przejrzenia zawartości wygenerowanej przez AI.

Nasze zespoły dokładają starań, aby w sposób aktywny rozwiązywać problemy m.in. z dostarczaniem nieprawidłowych i niezgodnych ze stanem faktycznym informacji, blokowaniem zawartości, bezpieczeństwem danych i rozpowszechnianiem szkodliwej i dyskryminującej zawartości zgodnie z naszymi zasadami odpowiedzialnego AI.

Oferujemy także wskazówki w środowisku użytkownika, by wzmacniać nawyki odpowiedzialnego postępowania i korzystania z zawartości generowanej przez AI.

  • Instrukcje i monity. W czasie korzystania z usługi Copilot monity i inne elementy z instrukcjami przypominają o przejrzeniu i edycji odpowiedzi odpowiednio do potrzeb, a także ręcznym sprawdzeniu faktów, danych i tekstu pod kątem ich dokładności przed użyciem zawartości wygenerowanej przez AI.

  • Przywoływane źródła. W pewnych przypadkach usługa Copilot przywołuje swoje źródła informacji, zarówno publiczne, jak i wewnętrzne, aby można było przejrzeć je samodzielnie w celu potwierdzenia odpowiedzi.

Aby uzyskać więcej informacji, zobacz temat Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące produktu w witrynie Microsoft Learn.

Jak usługa Copilot blokuje szkodliwą zawartość?

Usługa Azure OpenAI Service wykorzystuje system filtrowania zawartości, który współpracuje z modelami podstawowymi. Modele filtrowania zawartości dla kategorii Nienawiść i uczciwość, Treści seksualne, Przemoc i Samookaleczanie zostały specjalnie przeszkolone i przetestowane w różnych językach. Działanie tego systemu uwzględnia przetworzenie zarówno monitu wejściowego, jak i odpowiedzi przez modele klasyfikacji opracowane w celu identyfikowania i blokowania szkodliwej zawartości wyjściowej.

Kategoria Nienawiść i uczciwość odnosi się do wszelkiej zawartości, w której używa się pejoratywnego lub dyskryminującego języka w oparciu o atrybuty takie jak rasa, pochodzenie etniczne, narodowość, tożsamość płciowa i jej wyrażanie, orientacja seksualna, religia, status imigracyjny, stan sprawności, wygląd i wymiary ciała. Uczciwość wiąże się z upewnieniem się, że systemy AI traktują wszystkie grupy ludzi w taki sam sposób, bez przypisywania istniejących nierówności społecznych. Kategoria Treści seksualne obejmuje dyskusje dotyczące ludzkich organów rozrodczych, relacji uczuciowych, aktów przedstawianych w sposób erotyczny lub tkliwy, ciąży, stosunków seksualnych, w tym tych przedstawionych jako atak lub wymuszenie i przemoc seksualna, prostytucji, pornografii i wykorzystywania seksualnego. Kategoria Przemoc dotyczy języka odnoszącego się do działań fizycznych, których zamiarem jest wyrządzenie krzywdy lub odebranie życia, w tym do działań, broni i kwestii powiązanych. Kategoria samookaleczania dotyczy języka odnoszącego się do świadomych działań mających na celu uszkodzenie swojego ciała lub odebranie sobie życia.

Dowiedz się więcej o filtrowaniu zawartości usługi Azure OpenAI.

Czy usługa Copilot blokuje wstrzykiwanie monitów (ataki typu jailbreak)?

Ataki polegające na usunięciu zabezpieczeń to monity użytkownika zaprojektowane w celu sprowokowania generatywnego modelu AI do wykazywania zachowań, których w oparciu o szkolenie ma unikać, lub do łamania reguł, których ma przestrzegać. W przypadku usług Dynamics 365 i Power Platform ochrona przed wstrzykiwaniem monitów jest obowiązkowa. Więcej informacji o atakach polegających na usunięciu zabezpieczeń oraz jak używać Bezpieczeństwa zawartości platformy Azure AI w celu ich wykrywania.

Czy usługa Copilot blokuje pośrednie wstrzykiwanie monitów (ataki pośrednie)?

Ataki pośrednie, określane także mianem pośrednich ataków z wykorzystaniem monitów lub ataków polegających na wstrzykiwaniu monitów między domenami, stanowią potencjalną lukę w zabezpieczeniach, w związku z którą osoby trzecie umieszczają złośliwe instrukcje wewnątrz dokumentów, do których ma dostęp i które przetwarza system generatywnej AI. W przypadku usług Dynamics 365 i Power Platform ochrona przed pośrednim wstrzykiwaniem monitów jest obowiązkowa. Więcej informacji o atakach pośrednich oraz jak używać Bezpieczeństwa zawartości platformy Azure AI w celu ich wykrywania.

Jak firma Microsoft testuje i weryfikuje jakość usługi Copilot, w tym ochronę przed wstrzykiwaniem monitów oraz uzasadnione odpowiedzi?

Przed uruchomieniem każdy nowy produkt Copilot i iteracja modelu językowego muszą przejść wewnętrzny przegląd pod kątem standardów odpowiedzialnego AI. Przed ich udostępnieniem używamy procesu określanego mianem „red teaming”, w ramach którego zespół symuluje atak, znajdując i wykorzystując słabe punkty, by pomóc organizacji w poprawie jej zabezpieczeń. Ma to na celu ocenę potencjalnych zagrożeń, jakie niesie ze sobą szkodliwa zawartość i ataki jailbreak, oraz uzasadnionych odpowiedzi. Po wydaniu używamy automatycznych testów oraz narzędzi do ręcznego i automatycznego oceniania jakości odpowiedzi usługi Copilot.

Jak Microsoft ulepsza model podstawowy i ocenia ulepszenia w uzasadnionych odpowiedziach?

W kontekście technologii AI, zwłaszcza zaś takich rodzajów AI, które wykorzystują modele językowe, których przykładem jest model, na którym opiera się usługa Copilot, uzasadnianie pomaga technologii AI w generowaniu odpowiedzi, które są bardziej istotne i mają więcej sensu w świecie rzeczywistym. Uzasadnianie pomaga zagwarantować, że odpowiedzi AI są oparte na wiarygodnych informacjach i są możliwie najdokładniejsze i najbardziej istotne. Metryki uzasadnionych odpowiedzi pozwalają ocenić, na ile dokładnie fakty podane w uzasadnionej zawartości dostarczonej modelowi znajdują swoje odzwierciedlenie w ostatecznej odpowiedzi.

Modele podstawowe, takie jak GPT-4, są ulepszane z użyciem technik generowania rozszerzonego o pobieranie (RAG). Te techniki umożliwiają modelom użycie większej ilości informacji niż wykorzystane do ich trenowania w celu zrozumienia scenariusza użytkownika. Techniki RAG najpierw identyfikują dane istotne dla scenariusza, podobnie jak wyszukiwarka identyfikuje strony internetowe istotne dla wyszukiwania użytkownika. Wykorzystują różne sposoby identyfikowania zawartości odpowiedniej dla monitu użytkownika i powinny być używane do uzasadniania odpowiedzi. Sposoby te obejmują przeszukiwanie różnych typów indeksów, na przykład indeksów odwróconych, z zastosowaniem technik wyszukiwania informacji, takich jak dopasowywanie terminów, lub indeksów wektorowych przy użyciu porównywania odległości wektorowej pod kątem podobieństwa semantycznego. Po zidentyfikowaniu odpowiednich dokumentów RAG przekazuje dane do modelu wraz z bieżącą konwersacją, co daje modelowi więcej kontekstu do lepszego zrozumienia dostępnych informacji i wygenerowania odpowiedzi uzasadnionej w świecie rzeczywistym. Na koniec RAG sprawdza odpowiedź, aby upewnić się, że znajduje ona potwierdzenie w zawartości źródłowej dostarczonej modelowi. Funkcje generatywne AI usługi Copilot wykorzystują techniki RAG na wiele sposobów. Jednym z przykładów jest czat z użyciem danych, w przypadku którego czatbot otrzymuje dostęp do własnych źródeł danych użytkownika, które stanowią uzasadnienie.

Innym sposobem ulepszania modelu podstawowego jest szczegółowe dostosowanie. Duży zestaw danych obejmujący pary zapytanie-odpowiedź zostaje przedstawiony modelowi podstawowemu w celu ulepszenia jego pierwotnego trenowania za pomocą nowych próbek, które są ukierunkowane na konkretny scenariusz. Model można następnie wdrożyć jako oddzielny model — szczegółowo dostosowany pod kątem konkretnego scenariusza. O ile uzasadnianie sprowadza się do zapewnienia, że wiedza AI jest istotna w odniesieniu do świata rzeczywistego, o tyle szczegółowe dopracowanie ma na celu skonkretyzowanie wiedzy AI pod kątem danego zadania lub domeny. Microsoft stosuje technikę szczegółowego dopracowania na wiele sposobów. Używamy na przykład tworzenia przepływów usługi Power Automate na podstawie opisów w języku naturalnym formułowanych przez użytkownika.

Czy usługa Copilot spełnia wymagania dotyczące zgodności z przepisami?

Microsoft Copilot jest częścią ekosystemu usług Dynamics 365 i Power Platform i spełnia te same wymagania w zakresie zapewnienia zgodności z przepisami. Aby uzyskać więcej informacji na temat certyfikacji usług Microsoft pod kątem ich zgodności z przepisami, przejdź do Portalu zaufania usług. Ponadto działanie rozwiązania Copilot jest zgodne z naszym zobowiązaniem na rzecz odpowiedzialnego AI wyrażonym w treści standardu odpowiedzialnego AI. W miarę wprowadzania zmian w zakresie przepisów dotyczących AI firma Microsoft w dalszym ciągu dostosowuje się i spełnia nowe wymagania.

Dowiedz się więcej o dostępności usług Dynamics 365, Power Platform i Copilot, lokalizacjach danych klientów oraz zgodności z globalnymi, regionalnymi i branżowymi wymaganiami w zakresie zarządzania danymi.

Dowiedz się więcej

Funkcja Copilot w aplikacjach Dynamics 365 i Power Platform

Produkt Funkcja Wymagane środowiska zarządzane? Jak wyłączyć tę funkcję
AI Builder Scenariusze w wersji zapoznawczej Nie Scenariusze w wersji zapoznawczej
Copilot Studio Wiedza ogólna AI Nie Zabezpieczenia i nadzór usługi Copilot Studio
Copilot Studio Tworzenie i edycja tematów przy użyciu funkcji usługi Copilot Nie Zabezpieczenia i nadzór usługi Copilot Studio
Copilot Studio Akcje generatywne Nie Zabezpieczenia i nadzór usługi Copilot Studio
Copilot Studio Odpowiedzi generatywne Nie Zabezpieczenia i nadzór usługi Copilot Studio
Dynamics 365 Business Central Wszystko (zobacz pełną listę na stronie aka.ms/bcAI). Nie Aktywowanie funkcji
Dynamics 365 Customer Insights - Data Tworzenie segmentów za pomocą usługi Copilot w rozwiązaniu Customer Insights - Data (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji opartych na narzędziu Copilot opracowanym przez Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Raport wstępny dla danych — omówienie (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji opartych na narzędziu Copilot opracowanym przez Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Uzyskiwanie odpowiedzi na pytania dotyczące możliwości z usługi Copilot (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji opartych na narzędziu Copilot opracowanym przez Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights (Data) Tworzenie sesji dialogowej z danymi korzystającymi z usługi Copilot w Customer Insights Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji opartych na narzędziu Copilot opracowanym przez Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Wyświetlanie konfiguracji systemu Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji opartych na narzędziu Copilot opracowanym przez Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Usługa Copilot pomaga w poznawaniu i robieniu więcej (przegląd) Nie Dostępność tej usługi pomocniczej w środowisku użytkownika zależy od ustawień administratora rozwiązania Power Platform. Dowiedz się, jak dodawać usługę Copilot do aplikacji opartych na modelu.


Ta funkcja to „pomocnik aplikacji w rozwiązaniu Customer Insights - Journeys” i dlatego jest włączona w centrum administracyjnym platformy Power Platform. Dowiedz się więcej: Odpowiedzialna sztuczna inteligencja — często zadawane pytania
Dynamics 365 Customer Insights - Journeys Tworzenie procesów pozyskiwania z wykorzystaniem AI Nie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Odświeżanie i ulepszanie swojego komunikatu Nie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Nadawanie odpowiedniego stylu wiadomościom e-mail z użyciem motywów wspomaganych przez AI Nie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Kierowanie właściwych klientów przy użyciu pomocnika zapytań

Nie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Używanie technologii AI do przyspieszania tworzenia wiadomości e-mail Nie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Używanie obrazów w zawartości Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Service Tworzenie wiadomości e-mail Nie Zarządzanie funkcjami usługi Copilot w rozwiązaniu Customer Service
Dynamics 365 Customer Service Tworzenie wersji roboczej odpowiedzi czatu Nie Zarządzanie funkcjami usługi Copilot w rozwiązaniu Customer Service
Dynamics 365 Customer Service Odpowiadanie na pytania Nie Zarządzanie funkcjami usługi Copilot w rozwiązaniu Customer Service
Dynamics 365 Customer Service Generowanie podsumowań przypadków i konwersacji Nie Zarządzanie funkcjami usługi Copilot w rozwiązaniu Customer Service
Power Apps Tworzenie aplikacji przy użyciu konwersacji Nie Zarządzanie ustawieniami funkcji
Power Apps Pomoc usługi Copilot podczas wypełniania formularzy w aplikacjach opartych na modelu Nie Zarządzanie ustawieniami funkcji
Power Apps Tworzenie wersji roboczej dobrze napisanego tekstu, wprowadzanie tekstu za pomocą funkcji usługi Copilot Nie, licencja użytkownika premium Tworzenie wersji roboczej dobrze napisanego tekstu, wprowadzanie tekstu za pomocą funkcji usługi Copilot
Power Apps Program Excel do tabeli Nie Zarządzanie ustawieniami funkcji
Power Apps Użycie języka naturalnego w celu edytowania aplikacji przy użyciu panelu usługi Copilot Nie Zarządzanie ustawieniami funkcji
Power Automate Narzędzie Copilot w przepływach w chmurze na stronie głównej i w projektancie (szczegółowe informacje można znaleźć w sekcji Wprowadzenie do usługi Copilot w przepływach w chmurze). Nie Skontaktuj się z pomocą techniczną, aby uruchomić skrypt programu PowerShell.
Power Pages Wszystkie (szczegółowe informacje są dostępne w sekcji Omówienie usługi Copilot AI w rozwiązaniu Power Pages). Nie Wyłączanie usługi Copilot w Power Pages

Dowiedz się więcej na stronie Udostępnianie opcjonalnych danych funkcjom AI narzędzia Copilot w usługach Dynamics 365 i Power Platform — często zadawane pytania.

Dostępność w różnych regionach i językach

Dostępność międzynarodowa usługi Copilot

Przenoszenie danych między regionami geograficznymi

Zabezpieczenia w firmie Microsoft

Ochrona prywatności w firmie Microsoft

Oświadczenie o ochronie prywatności firmy Microsoft

Odpowiedzialna sztuczna inteligencja