Często zadawane pytania dotyczące bezpieczeństwa i prywatności danych narzędzia Copilot w rozwiązaniach Dynamics 365 i Power Platform
Funkcje usług Copilot dla Dynamics 365 i Power Platform działają zgodnie z zestawem podstawowych praktyk z zakresu bezpieczeństwa i prywatności oraz Standardów odpowiedzialnego AI firmy Microsoft. Dane na platformach Dynamics 365 i Power Platform są chronione przez kompleksowe, wiodące w branży mechanizmy kontroli zgodności, bezpieczeństwa i prywatności.
Rozwiązanie Copilot opiera się na usłudze Microsoft Azure OpenAI Service i działa wyłącznie w chmurze platformy Azure. Usługa Azure OpenAI ma dostępność regionalną i zapewnia filtrowanie zawartości zgodnie ze standardem odpowiedzialnego AI. Usługa Copilot używa modeli OpenAI wraz ze wszystkimi możliwościami z zakresu zabezpieczeń platformy Microsoft Azure. OpenAI to niezależna organizacja. Nie udostępniamy organizacji OpenAI Twoich danych.
Funkcje usługi Copilot nie są dostępne we wszystkich lokalizacjach i językach platformy Azure. W zależności od miejsca hostowania środowiska może być konieczne wyrażenie zgody na przenoszenie danych między lokalizacjami geograficznymi w celu umożliwienia sobie korzystania z nich. Aby uzyskać więcej informacji, zapoznaj się z artykułami wymienionymi w sekcji Przenoszenie danych między lokalizacjami geograficznymi.
Co dzieje się z moimi danymi, gdy korzystam z usługi Copilot?
Masz pełną kontrolę nad swoimi danymi. Firma Microsoft nie udostępnia Twoich danych innym firmom, chyba że wyrażono na to zgodę. Ponadto nie wykorzystujemy danych klienta do trenowania usługi Copilot ani jej funkcji AI, chyba że udzielono nam na to zgody. Usługa Copilot przestrzega istniejących uprawnień i zasad dotyczących danych, a jej odpowiedzi są oparte wyłącznie na danych, do których masz dostęp osobiście. Więcej informacji na temat kontrolowania danych i sposobu ich obsługi można znaleźć w artykułach wymienionych w obszarze Usługa Copilot w aplikacjach Dynamics 365 i Power Platform.
Usługa Copilot monitoruje obelżywe i szkodliwe wykorzystanie usługi dzięki przejściowemu przetwarzaniu. Nie przechowujemy ani nie stosujemy mechanizmów przeprowadzanego przez ludzi przeglądu danych wejściowych i wyjściowych usługi Copilot w celach monitorowania pod kątem nadużyć.
W jaki sposób usługa Copilot używa moich danych?
Każda usługa lub funkcja korzysta z usługi Copilot w oparciu o dane, które podajesz lub konfigurujesz do przetwarzania przez usługę Copilot.
Monity (dane wejściowe) i odpowiedzi usługi Copilot (dane wyjściowe lub wyniki):
NIE są dostępne dla innych klientów.
NIE służą do trenowania ani ulepszania jakichkolwiek produktów lub usług innych firm (takich jak modele OpenAI).
NIE są używane do trenowania ani ulepszania modeli Microsoft AI, chyba że administrator dzierżawy wyraził zgodę na udostępnianie nam danych. Dowiedz się więcej na stronie Udostępnianie opcjonalnych danych funkcjom AI narzędzia Copilot w usługach Dynamics 365 i Power Platform — często zadawane pytania.
Dowiedz się więcej o zabezpieczeniach i prywatności danych usługi Azure OpenAI Service. Więcej ogólnych informacji na temat sposobu, w jaki firma Microsoft chroni Twoje dane i korzysta z nich można znaleźć w naszym Oświadczeniu o ochronie prywatności.
Gdzie trafiają moje dane?
Działalność Microsoft opiera się na zaufaniu. Dokładamy starań, aby zapewniać bezpieczeństwo, prywatność i zgodność we wszystkich obszarach naszej działalności — tak samo jest w przypadku AI. Dane klientów, w tym dane wejściowe i wyjściowe usługi Copilot, są przechowywane w granicach zaufania usługi Microsoft Cloud.
W niektórych scenariuszach, dotyczących na przykład funkcji obsługiwanych przez przeglądarkę Bing i wtyczki usług pomocniczych innych firm, dane klientów mogą być przesyłane poza granicę zaufania usługi Microsoft Cloud.
Czy usługa Copilot może uzyskać dostęp do zaszyfrowanej zawartości?
Dane są przekazywane do usługi Copilot na podstawie poziomu dostępu bieżącego użytkownika. Jeśli użytkownik ma dostęp do zaszyfrowanych danych w rozwiązaniu Dynamics 365 i na platformie Power Platform i przekaże je do usługi Copilot, wówczas usługa Copilot będzie mieć do nich dostęp.
Jak usługa Copilot chroni dane klientów?
Firma Microsoft jest w wyjątkowy sposób przygotowana do tego, by móc dostarczać technologie AI do użytku przez przedsiębiorstwa. Usługa Copilot jest obsługiwana przez usługę Azure OpenAI Service i jest zgodna z naszymi obecnymi zobowiązaniami wobec klientów w zakresie prywatności, zabezpieczeń i zgodności z przepisami.
Usługa opiera się na kompleksowym podejściu firmy Microsoft do zabezpieczeń, prywatności i zgodności. Usługa Copilot jest zintegrowana z usługami Microsoft, takimi jak Dynamics 365 i Power Platform, dzięki czemu dziedziczy ich zasady i procesy zabezpieczeń, prywatności i zgodności, takie jak uwierzytelnienie wieloskładnikowe i granice zgodności.
Wiele form zabezpieczeń dla skutecznej ochrony danych organizacji. Technologie po stronie usługi szyfrują przechowywaną i przenoszoną zawartość organizacji w celu zapewnienia niezawodnej ochrony. Połączenia są zabezpieczone przy użyciu zabezpieczeń TLS (Transport Layer Security), a przenoszenie danych między usługami Dynamics 365 Power Platform i Azure OpenAI odbywa się w sieci podstawowej Microsoft, co zapewnia zarówno rzetelność, jak i bezpieczeństwo. Dowiedz się więcej o szyfrowaniu w usłudze Microsoft Cloud.
Opracowano je z myślą o zapewnieniu ochrony danych zarówno na poziomie dzierżawy, jak i środowiska. Wiemy, że wyciek danych to coś, co spędza klientom sen z powiek. Modele AI firmy Microsoft nie są trenowane i nie uczą się na danych dzierżawcy ani monitach, chyba że administrator dzierżawy wyraził zgodę na udostępnianie nam danych. We własnych środowiskach możesz kontrolować dostęp za pomocą ustawionych uprawnień. Mechanizmy uwierzytelniania i autoryzacji rozdzielają żądania do udostępnionego modelu między dzierżawców. Usługa Copilot wykorzystuje dane, do których tylko Ty możesz uzyskać dostęp dzięki zastosowaniu tej samej technologii, która jest przez nas używana od lat w celu zabezpieczania danych klientów.
Czy odpowiedzi usługi Copilot zawsze są merytorycznie poprawne?
Tak jak w przypadku generatywnego AI, odpowiedzi usługi Copilot nie są w 100% merytorycznie poprawne. Choć nieustannie staramy się ulepszać odpowiedzi tak, by były one w jak największym stopniu oparte na faktach, to przed przesłaniem ich do innych osób użytkownicy powinni zaufać własnemu osądowi i zdrowemu rozsądkowi. Usługa Copilot zapewnia dostęp do przydatnych funkcji sporządzania kopii roboczych i podsumowań, dzięki którym możesz robić więcej i szybciej — funkcje te działają jednak w pełni automatycznie. Zawsze będziesz mieć możliwość przejrzenia zawartości wygenerowanej przez AI.
Nasze zespoły dokładają starań, aby w sposób aktywny rozwiązywać problemy m.in. z dostarczaniem nieprawidłowych i niezgodnych ze stanem faktycznym informacji, blokowaniem zawartości, bezpieczeństwem danych i rozpowszechnianiem szkodliwej i dyskryminującej zawartości zgodnie z naszymi zasadami odpowiedzialnego AI.
Oferujemy także wskazówki w środowisku użytkownika, by wzmacniać nawyki odpowiedzialnego postępowania i korzystania z zawartości generowanej przez AI.
Instrukcje i monity. W czasie korzystania z usługi Copilot monity i inne elementy z instrukcjami przypominają o przejrzeniu i edycji odpowiedzi odpowiednio do potrzeb, a także ręcznym sprawdzeniu faktów, danych i tekstu pod kątem ich dokładności przed użyciem zawartości wygenerowanej przez AI.
Przywoływane źródła. W pewnych przypadkach usługa Copilot przywołuje swoje źródła informacji, zarówno publiczne, jak i wewnętrzne, aby można było przejrzeć je samodzielnie w celu potwierdzenia odpowiedzi.
Aby uzyskać więcej informacji, zobacz temat Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące produktu w witrynie Microsoft Learn.
Jak usługa Copilot blokuje szkodliwą zawartość?
Usługa Azure OpenAI Service wykorzystuje system filtrowania zawartości, który współpracuje z modelami podstawowymi. Modele filtrowania zawartości dla kategorii Nienawiść i uczciwość, Treści seksualne, Przemoc i Samookaleczanie zostały specjalnie przeszkolone i przetestowane w różnych językach. Działanie tego systemu uwzględnia przetworzenie zarówno monitu wejściowego, jak i odpowiedzi przez modele klasyfikacji opracowane w celu identyfikowania i blokowania szkodliwej zawartości wyjściowej.
Kategoria Nienawiść i uczciwość odnosi się do wszelkiej zawartości, w której używa się pejoratywnego lub dyskryminującego języka w oparciu o atrybuty takie jak rasa, pochodzenie etniczne, narodowość, tożsamość płciowa i jej wyrażanie, orientacja seksualna, religia, status imigracyjny, stan sprawności, wygląd i wymiary ciała. Uczciwość wiąże się z upewnieniem się, że systemy AI traktują wszystkie grupy ludzi w taki sam sposób, bez przypisywania istniejących nierówności społecznych. Kategoria Treści seksualne obejmuje dyskusje dotyczące ludzkich organów rozrodczych, relacji uczuciowych, aktów przedstawianych w sposób erotyczny lub tkliwy, ciąży, stosunków seksualnych, w tym tych przedstawionych jako atak lub wymuszenie i przemoc seksualna, prostytucji, pornografii i wykorzystywania seksualnego. Kategoria Przemoc dotyczy języka odnoszącego się do działań fizycznych, których zamiarem jest wyrządzenie krzywdy lub odebranie życia, w tym do działań, broni i kwestii powiązanych. Kategoria samookaleczania dotyczy języka odnoszącego się do świadomych działań mających na celu uszkodzenie swojego ciała lub odebranie sobie życia.
Dowiedz się więcej o filtrowaniu zawartości usługi Azure OpenAI.
Czy usługa Copilot blokuje wstrzykiwanie monitów (ataki typu jailbreak)?
Ataki polegające na usunięciu zabezpieczeń to monity użytkownika zaprojektowane w celu sprowokowania generatywnego modelu AI do wykazywania zachowań, których w oparciu o szkolenie ma unikać, lub do łamania reguł, których ma przestrzegać. W przypadku usług Dynamics 365 i Power Platform ochrona przed wstrzykiwaniem monitów jest obowiązkowa. Więcej informacji o atakach polegających na usunięciu zabezpieczeń oraz jak używać Bezpieczeństwa zawartości platformy Azure AI w celu ich wykrywania.
Czy usługa Copilot blokuje pośrednie wstrzykiwanie monitów (ataki pośrednie)?
Ataki pośrednie, określane także mianem pośrednich ataków z wykorzystaniem monitów lub ataków polegających na wstrzykiwaniu monitów między domenami, stanowią potencjalną lukę w zabezpieczeniach, w związku z którą osoby trzecie umieszczają złośliwe instrukcje wewnątrz dokumentów, do których ma dostęp i które przetwarza system generatywnej AI. W przypadku usług Dynamics 365 i Power Platform ochrona przed pośrednim wstrzykiwaniem monitów jest obowiązkowa. Więcej informacji o atakach pośrednich oraz jak używać Bezpieczeństwa zawartości platformy Azure AI w celu ich wykrywania.
Jak firma Microsoft testuje i weryfikuje jakość usługi Copilot, w tym ochronę przed wstrzykiwaniem monitów oraz uzasadnione odpowiedzi?
Przed uruchomieniem każdy nowy produkt Copilot i iteracja modelu językowego muszą przejść wewnętrzny przegląd pod kątem standardów odpowiedzialnego AI. Przed ich udostępnieniem używamy procesu określanego mianem „red teaming”, w ramach którego zespół symuluje atak, znajdując i wykorzystując słabe punkty, by pomóc organizacji w poprawie jej zabezpieczeń. Ma to na celu ocenę potencjalnych zagrożeń, jakie niesie ze sobą szkodliwa zawartość i ataki jailbreak, oraz uzasadnionych odpowiedzi. Po wydaniu używamy automatycznych testów oraz narzędzi do ręcznego i automatycznego oceniania jakości odpowiedzi usługi Copilot.
Jak Microsoft ulepsza model podstawowy i ocenia ulepszenia w uzasadnionych odpowiedziach?
W kontekście technologii AI, zwłaszcza zaś takich rodzajów AI, które wykorzystują modele językowe, których przykładem jest model, na którym opiera się usługa Copilot, uzasadnianie pomaga technologii AI w generowaniu odpowiedzi, które są bardziej istotne i mają więcej sensu w świecie rzeczywistym. Uzasadnianie pomaga zagwarantować, że odpowiedzi AI są oparte na wiarygodnych informacjach i są możliwie najdokładniejsze i najbardziej istotne. Metryki uzasadnionych odpowiedzi pozwalają ocenić, na ile dokładnie fakty podane w uzasadnionej zawartości dostarczonej modelowi znajdują swoje odzwierciedlenie w ostatecznej odpowiedzi.
Modele podstawowe, takie jak GPT-4, są ulepszane z użyciem technik generowania rozszerzonego o pobieranie (RAG). Te techniki umożliwiają modelom użycie większej ilości informacji niż wykorzystane do ich trenowania w celu zrozumienia scenariusza użytkownika. Techniki RAG najpierw identyfikują dane istotne dla scenariusza, podobnie jak wyszukiwarka identyfikuje strony internetowe istotne dla wyszukiwania użytkownika. Wykorzystują różne sposoby identyfikowania zawartości odpowiedniej dla monitu użytkownika i powinny być używane do uzasadniania odpowiedzi. Sposoby te obejmują przeszukiwanie różnych typów indeksów, na przykład indeksów odwróconych, z zastosowaniem technik wyszukiwania informacji, takich jak dopasowywanie terminów, lub indeksów wektorowych przy użyciu porównywania odległości wektorowej pod kątem podobieństwa semantycznego. Po zidentyfikowaniu odpowiednich dokumentów RAG przekazuje dane do modelu wraz z bieżącą konwersacją, co daje modelowi więcej kontekstu do lepszego zrozumienia dostępnych informacji i wygenerowania odpowiedzi uzasadnionej w świecie rzeczywistym. Na koniec RAG sprawdza odpowiedź, aby upewnić się, że znajduje ona potwierdzenie w zawartości źródłowej dostarczonej modelowi. Funkcje generatywne AI usługi Copilot wykorzystują techniki RAG na wiele sposobów. Jednym z przykładów jest czat z użyciem danych, w przypadku którego czatbot otrzymuje dostęp do własnych źródeł danych użytkownika, które stanowią uzasadnienie.
Innym sposobem ulepszania modelu podstawowego jest szczegółowe dostosowanie. Duży zestaw danych obejmujący pary zapytanie-odpowiedź zostaje przedstawiony modelowi podstawowemu w celu ulepszenia jego pierwotnego trenowania za pomocą nowych próbek, które są ukierunkowane na konkretny scenariusz. Model można następnie wdrożyć jako oddzielny model — szczegółowo dostosowany pod kątem konkretnego scenariusza. O ile uzasadnianie sprowadza się do zapewnienia, że wiedza AI jest istotna w odniesieniu do świata rzeczywistego, o tyle szczegółowe dopracowanie ma na celu skonkretyzowanie wiedzy AI pod kątem danego zadania lub domeny. Microsoft stosuje technikę szczegółowego dopracowania na wiele sposobów. Używamy na przykład tworzenia przepływów usługi Power Automate na podstawie opisów w języku naturalnym formułowanych przez użytkownika.
Czy usługa Copilot spełnia wymagania dotyczące zgodności z przepisami?
Microsoft Copilot jest częścią ekosystemu usług Dynamics 365 i Power Platform i spełnia te same wymagania w zakresie zapewnienia zgodności z przepisami. Aby uzyskać więcej informacji na temat certyfikacji usług Microsoft pod kątem ich zgodności z przepisami, przejdź do Portalu zaufania usług. Ponadto działanie rozwiązania Copilot jest zgodne z naszym zobowiązaniem na rzecz odpowiedzialnego AI wyrażonym w treści standardu odpowiedzialnego AI. W miarę wprowadzania zmian w zakresie przepisów dotyczących AI firma Microsoft w dalszym ciągu dostosowuje się i spełnia nowe wymagania.
Dowiedz się więcej
Funkcja Copilot w aplikacjach Dynamics 365 i Power Platform
Dowiedz się więcej na stronie Udostępnianie opcjonalnych danych funkcjom AI narzędzia Copilot w usługach Dynamics 365 i Power Platform — często zadawane pytania.
Dostępność w różnych regionach i językach
Dostępność międzynarodowa usługi Copilot
Przenoszenie danych między regionami geograficznymi
- Sposób przenoszenia danych między regionami
- Konfigurowanie przenoszenia danych między lokalizacjami geograficznymi dla funkcji generatywnej AI poza Stanami Zjednoczonymi
- Przenoszenie danych usługi Copilot między lokalizacjami geograficznymi w rozwiązaniu Dynamics 365 Sales
- Przenoszenie danych funkcji usługi Copilot między regionami geograficznymi w rozwiązaniu Dynamics 365 Business Central
Zabezpieczenia w firmie Microsoft
- Wprowadzenie do zabezpieczeń platformy Azure
- Szyfrowanie w usłudze Microsoft Cloud
- Dane, prywatność i zabezpieczenia usługi Azure OpenAI Service — usługi Azure AI
Ochrona prywatności w firmie Microsoft
Oświadczenie o ochronie prywatności firmy Microsoft
Odpowiedzialna sztuczna inteligencja
- Standard odpowiedzialnego AI firmy Microsoft
- Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące usługi Microsoft Power Platform
- Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące usługi Dynamics 365
- Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące usługi Microsoft Copilot Studio