Data, ochrana osobních údajů a zabezpečení pro Microsoft 365 Copilot
Microsoft 365 Copilot je sofistikovaný modul pro zpracování a orchestraci, který poskytuje možnosti produktivity založené na umělé inteligenci tím, že koordinuje následující komponenty:
- Velké jazykové modely (LLMs)
- Obsah v Microsoft Graphu, jako jsou e-maily, chaty a dokumenty, ke kterým máte oprávnění k přístupu.
- Aplikace pro produktivitu Microsoft 365, které používáte každý den, například Word a PowerPoint.
Přehled o tom, jak tyto tři komponenty spolupracují, najdete v přehledu Microsoft 365 Copilot. Odkazy na další obsah související s Microsoft 365 Copilot najdete v dokumentaci k Microsoft 365 Copilot.
Důležité
- Microsoft 365 Copilot je v souladu s našimi stávajícími závazky týkajícími se ochrany osobních údajů, zabezpečení a dodržování předpisů pro komerční zákazníky Microsoftu 365, včetně obecného nařízení o ochraně osobních údajů (GDPR) a datová hranice Evropské unie (EU).
- Výzvy, odpovědi a data přístupná prostřednictvím Microsoft Graphu se nepoužívají k trénováním základních LLM, včetně těch, které používají Microsoft 365 Copilot.
- Microsoft Copilot pro Microsoft 365 funguje s několika formami ochrany, mezi které patří mimo jiné blokování škodlivého obsahu, zjišťování chráněného materiálua blokování injektáže výzev (útoky typu jailbreak).
Účelem informací v tomto článku je poskytnout odpovědi na následující otázky:
- Jak Microsoft 365 Copilot používá vaše proprietární organizační data?
- Jak Microsoft 365 Copilot chrání organizační informace a data?
- Jaká data se ukládají o interakcích uživatele se službou Microsoft Copilot pro Microsoft 365?
- Jaké má Microsoft 365 Copilot závazky ohledně rezidence dat?
- Jaké možnosti rozšíření jsou k dispozici pro Microsoft Copilot pro Microsoft 365
- Jak Microsoft 365 Copilot splňuje požadavky na dodržování právních předpisů?
- Platí ovládací prvky ochrany osobních údajů propojených prostředí v aplikacích Microsoft 365 Apps pro Microsoft 365 Copilot?
- Můžu důvěřovat obsahu, který Microsoft 365 Copilot vytváří? Kdo tento obsah vlastní?
- Jaké jsou závazky Microsoftu k zodpovědnému používání AI?
Poznámka
Microsoft 365 Copilot se bude průběžně vyvíjet s novými možnostmi. Pokud chcete mít přehled o Microsoft 365 Copilot nebo pokládat otázky, navštivte komunitu pro Microsoft 365 Copilot v rámci Microsoft Tech Community.
Jak Microsoft 365 Copilot používá vaše proprietární organizační data?
Microsoft 365 Copilot poskytuje hodnotu propojením LLM s daty organizace. Microsoft 365 Copilot přistupuje k obsahu a kontextu prostřednictvím Microsoft Graphu. Může generovat odpovědi ukotvené v datech vaší organizace, jako jsou uživatelské dokumenty, e-maily, kalendář, chaty, schůzky a kontakty. Microsoft 365 Copilot kombinuje tento obsah s pracovním kontextem uživatele, jako je schůzka, na které se uživatel právě nachází, e-mailová výměna, kterou uživatel měl na nějakém tématu, nebo chatové konverzace, které uživatel vedl minulý týden. Microsoft 365 Copilot používá tuto kombinaci obsahu a kontextu k poskytování přesných, relevantních a kontextových odpovědí.
Důležité
Výzvy, odpovědi a data přístupná prostřednictvím Microsoft Graphu se nepoužívají k trénováním základních LLM, včetně těch, které používají Microsoft 365 Copilot.
Microsoft 365 Copilot zobrazí jenom data organizace, ke kterým mají jednotliví uživatelé alespoň oprávnění k zobrazení. Je důležité, abyste používali modely oprávnění, které jsou dostupné ve službách Microsoft 365, jako je SharePoint, abyste zajistili, že správní uživatelé nebo skupiny budou mít ve vaší organizaci správný přístup ke správnému obsahu. To zahrnuje oprávnění, která uživatelům mimo vaši organizaci udělíte prostřednictvím řešení pro spolupráci mezi tenanty, jako jsou sdílené kanály v Microsoft Teams.
Když zadáte požadavky pomocí Microsoft Copilot pro Microsoft 365, informace obsažené ve vašich výzev, data, která načítají, a vygenerované odpovědi zůstanou v mezích Microsoft 365 služby v souladu s našimi aktuálními závazky v oblasti ochrany osobních údajů, zabezpečení a dodržování předpisů. Microsoft 365 Copilot využívá ke zpracování služby Azure OpenAI, ne veřejně dostupné služby OpenAI. Azure OpenAI do mezipaměti neukládá obsah zákazníků ani Copilotem upravené výzvy pro Copilot pro Microsoft 365. Další informace najdete v části Data uložená o interakcích uživatelů s Microsoft 365 Copilot dále v tomto článku.
Poznámka
- Pokud používáte moduly plug-in, které pomáhají službě Copilot pro Microsoft 365 poskytovat relevantnější informace, podívejte se na prohlášení o ochraně osobních údajů a podmínky používání modulu plug-in, abyste zjistili, jak bude nakládat s daty vaší organizace. Další informace najdete v tématu Rozšiřitelnost Microsoft 365 Copilot.
- Když používáte modul plug-in webového obsahu, Copilot pro Microsoft 365 analyzuje výzvu uživatele a identifikuje termíny, kde by vyhledávání na webu zlepšilo kvalitu odpovědi. Na základě těchto podmínek Copilot vygeneruje vyhledávací dotaz, který odešle do služby vyhledávání přes Bing. Další informace najdete v tématu Data, ochrana osobních údajů a zabezpečení webových dotazů ve službě Copilot pro Microsoft 365.
I když je moderování nesprávného použití, které zahrnuje kontrolu obsahu lidmi, dostupné v Azure OpenAI, služby Microsoft 365 Copilot ho nevyužívají. Informace o filtrování obsahu najdete v části Jak Copilot blokuje škodlivý obsah dále v tomto článku.
Poznámka
Zpětnou vazbu od zákazníků, která je nepovinná, můžeme použít ke zlepšování služby Microsoft 365 Copilot, stejně jako zpětnou vazbu od zákazníků používáme ke zlepšování dalších služeb Microsoftu 365 a aplikací Microsoftu 365. Tuto zpětnou vazbu nepoužíváme k trénování základních LLM používaných službou Microsoft 365 Copilot. Zákazníci můžou zpětnou vazbu spravovat prostřednictvím ovládacích prvků správce. Další informace najdete v tématu Správa zpětné vazby společnosti Microsoft pro vaši organizaci a Poskytnutí zpětné vazby ke službě Microsoft Copilot pro Microsoft 365.
Data uložená o interakcích uživatelů s Microsoft Copilot pro Microsoft 365
Když uživatel komunikuje s Microsoft Copilotem pro aplikace Microsoft 365 (například Word, PowerPoint, Excel, OneNote, Loop nebo Whiteboard), ukládáme data o těchto interakcích. Uložená data zahrnují výzvu uživatele a odpověď Copilota, včetně citací jakýchkoli informací použitých k přípravě odpovědi Copilota. Výzvu uživatele a odpověď copilotu na tuto výzvu označujeme jako "obsah interakcí" a záznam těchto interakcí je historie aktivit Copilot uživatele. Tato uložená data například poskytují uživatelům historii aktivit Copilot v Business Chat a schůzkách v Microsoft Teams. Tato data jsou zpracovávána a ukládána v souladu se smluvními závazky s ostatním obsahem vaší organizace v Microsoft 365. Data se při ukládání šifrují a nepoužívají se k trénování základních LLMs, včetně těch, které používá Microsoft 365 Copilot.
K zobrazení a správě těchto uložených dat můžou správci používat vyhledávání obsahu nebo Microsoft Purview. Správci také můžou pomocí Microsoft Purview nastavit zásady uchovávání informací pro data související s interakcemi chatu s Copilotem. Další informace najdete v následujících článcích:
- Přehled vyhledávání obsahu
- Microsoft Purview – ochrana dat a dodržování předpisů pro aplikace generativní AI
- Informace o uchovávání informací pro Copilot
V případě chatů v Microsoft Teams s Copilotem můžou správci k zobrazení uložených dat použít také rozhraní API pro export v rámci Microsoft Teams.
Odstranění historie interakcí uživatelů s Microsoft Copilot pro Microsoft 365
Vaši uživatelé můžou odstranit historii aktivit Copilotu, která zahrnuje výzvy a odpovědi, které funkce Copilot vrátí, tak, že přejdou na portál Můj účet. Další informace najdete v tématu Odstranění historie aktivit Microsoft 365 Copilot.
Microsoft 365 Copilot a datová hranice EU
Microsoft 365 volání Copilotu do LLM se směrují do nejbližších datových center v oblasti, ale můžou volat i do jiných oblastí, kde je kapacita dostupná během období vysokého využití.
Pro uživatele v Evropské unii (EU) máme další bezpečnostní opatření, která jsou v souladu s datovou hranicí EU. Provoz v EU zůstává v rámci datové hranice EU, zatímco celosvětový provoz je možné odesílat do EU a dalších zemí a oblastí pro zpracování LLM.
Microsoft 365 Copilot a rezidence dat
Copilot pro Microsoft 365 dodržuje závazky k rezidenci dat, jak je uvedeno v podmínkách produktu a dodatku k ochraně dat společnosti Microsoft. Dne 1. března 2024 jsme přidali Copilot pro Microsoft 365 jako pokrytou úlohu v závazcích k rezidenci dat v podmínkách produktu Microsoft.
Nabídky Microsoft Advanced Data Residency (ADR) a Multi-Geo Capabilities zahrnují od 1. března 2024 závazky k rezidenci dat pro zákazníky Copilot pro Microsoft 365. Pro zákazníky z EU je Copilot pro Microsoft 365 služba datové hranice EU. Zákazníci mimo EU mohou své dotazy zpracovávat v USA, EU nebo jiných oblastech.
Rozšiřitelnost Microsoft 365 Copilot
Přestože Microsoft 365 Copilot už umí používat aplikace a data v rámci ekosystému Microsoft 365, mnoho organizací je stále závislých na různých externích nástrojích a službách pro správu práce a spolupráci. Prostředí Microsoft 365 Copilot se při odpovídání na požadavek uživatele dokáží odkazovat na nástroje a služby třetích stran za použití konektorů Microsoft Graph nebo modulů plug-in. Data z konektorů Graphu je možné vrátit v odpovědích funkce Microsoft 365 Copilot, pokud má uživatel oprávnění k přístupu k daným informacím.
Pokud máte povolené moduly plug-in, Microsoft 365 Copilot určí, jestli potřebuje použít specifický modul plug-in, aby dokázal uživateli poskytnout relevantní odpověď. Pokud je modul plug-in potřeba, Microsoft 365 Copilot vygeneruje vyhledávací dotaz, který se odešle do modulu plug-in jménem uživatele. Dotaz je založený na výzvě uživatele, historii aktivit Copilot a datech, ke které má uživatel přístup v Microsoftu 365.
V části Integrované aplikaceCentra pro správu Microsoft 365 si můžou správci zobrazit oprávnění a přístup k datům, které modul plug-in vyžaduje, a také podmínky použití modulu plug-in a prohlášení o zásadách ochrany osobních údajů. Správci mají úplnou kontrolu nad výběrem povolených modulů plug-in v jejich organizaci. Uživatel má přístup pouze k modulům plug-in, které jeho správce povoluje a které si uživatel nainstaluje nebo jsou mu přiřazeny. Microsoft 365 Copilot používá jenom moduly plug-in, které uživatel zapne.
Další informace najdete v následujících článcích:
- Správa modulů plug-in pro Copilot v integrovaných aplikacích
- Rozšíření Microsoft 365 Copilot
- Jak může Microsoft 365 Copilot pracovat s externími daty
Jak Microsoft 365 Copilot chrání organizační údaje?
Model oprávnění v rámci vašeho tenanta Microsoft 365 může pomoci zajistit, že data nebudou neúmyslně unikat mezi uživateli, skupinami a tenanty. Microsoft 365 Copilot prezentuje pouze data, ke kterým má každý jednotlivec přístup pomocí stejných základních ovládacích prvků pro přístup k datům, jaké se používají v jiných službách Microsoft 365. Sémantický index respektuje hranici přístupu na základě identity uživatele, takže proces uzemnění přistupuje pouze k obsahu, ke kterému má aktuální uživatel oprávnění. Další informace najdete v Microsoft dokumentaci k zásadám ochrany osobních údajů a službám.
Pokud máte data zašifrovaná pomocí Microsoft Purview Information Protection, Microsoft 365 Copilot respektuje práva k používání, která byla uživateli přidělena. Toto šifrování je možné použít pomocí popisků citlivosti nebo omezením oprávnění v aplikacích v Microsoft 365 pomocí IRM (Správa přístupových práv k informacím). Další informace o používání Microsoft Purview s Microsoft Copilotem pro Microsoft 365 najdete v tématu Zabezpečení dat a ochrana dodržování předpisů Microsoft Purview pro aplikace generativní AI.
Už implementujeme několik forem ochrany, abychom zákazníkům pomohli zabránit v ohrožení Microsoft 365 služeb a aplikací nebo získání neoprávněného přístupu k jiným tenantům nebo samotnému systému Microsoft 365. Tady je několik příkladů těchto forem ochrany:
Logická izolace zákaznického obsahu v rámci každého tenanta pro služby Microsoft 365 se dosahuje prostřednictvím autorizace Microsoft Entra a řízení přístupu na základě role. Další informace najdete v tématu Microsoft 365 ovládací prvky izolace.
Microsoft využívá přísné fyzické zabezpečení, prověřování na pozadí a strategii vícevrstvého šifrování k ochraně důvěrnosti a integrity zákaznického obsahu.
Microsoft 365 využívá technologie na straně služby, které šifrují neaktivní uložený a přenášený obsah zákazníků, včetně Bitlockeru, šifrování podle souborů, protokolu TLS (Transport Layer Security) a zabezpečení Internet Protocol (IPsec). Konkrétní podrobnosti o šifrování v Microsoft 365 najdete v tématu Šifrování v Microsoft Cloudu.
Vaše kontrola nad vašimi daty je posílena závazkem Microsoftu dodržovat obecně platné zákony na ochranu osobních údajů, jako je GDPR, a standardy ochrany osobních údajů, jako je ISO/IEC 27018,’první mezinárodní pravidla pro ochranu osobních údajů v cloudu.
U obsahu, ke kterému se přistupuje prostřednictvím modulů plug-in služby Microsoft 365 Copilot, může šifrování vyloučit programový přístup, a tím omezit přístup modulu plug-in k obsahu. Další informace najdete v tématu Konfigurace práv k používání pro Azure Information Protection.
Splnění požadavků na dodržování právních předpisů
S tím, jak se mění nařízení v oblasti AI, se Microsoft bude dál přizpůsobovat budoucím zákonným požadavkům a reagovat na ně.
Microsoft 365 Copilot vychází z aktuálních závazků Microsoftu v oblasti zabezpečení dat a ochrany osobních údajů v podniku. V těchto závazcích se nic nemění. Microsoft 365 Copilot je integrovaný do Microsoft 365 a dodržuje všechny stávající závazky v oblasti ochrany osobních údajů, zabezpečení a dodržování předpisů pro komerční zákazníky Microsoft 365. Další informace najdete v tématu Microsoft Compliance.
Kromě dodržování předpisů upřednostňujeme otevřený dialog s našimi zákazníky, partnery a regulačními úřady, abychom lépe porozuměli obavám a vyřešili je, a tím podpořili prostředí důvěry a spolupráce. Bereme na vědomí, že ochrana osobních údajů, zabezpečení a transparentnost nejsou jenom funkce, ale požadavky v prostředí založeném na umělé inteligenci v Microsoftu.
Další informace
Další informace najdete v tématu Microsoft 365 Copilot a řízení ochrany osobních údajů pro propojená prostředí.
Dostupnost Microsoft 365 Copilot funkcí můžou ovlivnit některá řízení ochrany osobních údajů pro propojená prostředí v Microsoft 365 Apps. To zahrnuje ovládací prvky ochrany osobních údajů pro propojená prostředí, která analyzují váš obsah, a řízení ochrany osobních údajů pro volitelná propojená prostředí. Další informace o těchto ovládacích prvcích ochrany osobních údajů najdete v tématu Přehled ovládacích prvků ochrany osobních údajů pro Microsoft 365 Apps pro podnikové.
Nastavení předvoleb pro propojená prostředí, která analyzují váš obsah
Pokud vypnete propojená prostředí, která analyzují váš obsah na zařízeních ve vaší organizaci, nebudou Microsoft 365 Copilot funkce uživatelům dostupné v následujících aplikacích:
- Excel
- OneNote
- Outlook
- PowerPoint
- Word
To platí pro, když používáte nejnovější verzi těchto aplikací na zařízeních s Windows, Mac, iOS nebo Androidem.
K dispozici je také ovládací prvek ochrany osobních údajů, který vypne všechna propojená prostředí, včetně propojených prostředí, která analyzují váš obsah. Pokud toto řízení ochrany osobních údajů použijete, nebudou funkce Microsoft 365 Copilot dostupné v aplikacích a na výše popsaných zařízeních.
Řízení ochrany osobních údajů pro volitelná propojená prostředí
Pokud ve vaší organizaci vypnete volitelná propojená prostředí, nebudou uživatelům k dispozici Microsoft 365 Copilot funkce, které jsou volitelná propojená prostředí. Uživatelům například nebude k dispozici vyhledávání na webu.
K dispozici je také ovládací prvek ochrany osobních údajů, který vypne všechna propojená prostředí, včetně volitelných propojených prostředí. Pokud použijete toto řízení ochrany osobních údajů, nebudou Microsoft 365 Copilot funkce, které představují volitelná propojená prostředí, dostupné.
O obsahu, který Microsoft 365 Copilot vytváří
U odpovědí, které generuje generativní AI, není zaručeno, že budou 100% reálné. I když budeme dál vylepšovat odpovědi, měli by uživatelé při kontrole výstupu před jeho odesláním ostatním uživatelům používat svůj úsudek. Naše funkce služby Microsoft 365 Copilot poskytují užitečné koncepty a souhrny, které vám pomůžou dosáhnout lepších výsledků a zároveň vám dávají možnost zkontrolovat vygenerovanou AI místo úplné automatizace těchto úloh.
Neustále vylepšujeme algoritmy pro aktivní řešení problémů, jako jsou dezinformace, blokování obsahu, bezpečnost dat a prevence propagace škodlivého nebo diskriminačního obsahu v souladu s našimi zásadami zodpovědné umělé inteligence.
Microsoft si nenárokuje vlastnictví výstupu služby. To znamená, že nerozhodujeme o tom, jestli je výstup zákazníka chráněný autorskými právy nebo vymahatelný vůči jiným uživatelům. Důvodem je to, že systémy s generativním AI mohou vytvářet podobné odpovědi na podobné výzvy nebo dotazy od více zákazníků. V důsledku toho může mít několik zákazníků práva k obsahu, který je stejný nebo podstatně podobný, nebo si práva nárokovat.
Pokud třetí strana žaluje komerčního zákazníka za porušení autorských práv za použití služby Copilot společnosti Microsoft nebo výstupu, který vygeneruje, budeme zákazníka hájit a zaplatíme částku za případné nepříznivé rozsudky nebo vyrovnání vyplývající ze soudního sporu, pokud zákazník dodržoval omezení a používal filtry obsahu, které jsme do našich produktů zabudovali. Další informace najdete v článku Microsoft oznamuje nový závazek v oblasti autorských práv ve službě Copilot pro zákazníky.
Jak Copilot blokuje škodlivý obsah?
Služba Azure OpenAI zahrnuje systém filtrování obsahu, který funguje společně se základními modely. Modely filtrování obsahu pro kategorie Nenávist a nestrannost, Sexuální obsah, Násilí a Sebepoškozování byly speciálně vytrénovány a testovány v různých jazycích. Tento systém funguje tak, že spustí vstupní výzvu i odpověď prostřednictvím klasifikačních modelů, které jsou navržené tak, aby identifikovaly a blokovaly výstup škodlivého obsahu.
Škodou související s nenávistí a nestranností se rozumí veškerý obsah, který používá pejorativní nebo diskriminační jazyk založený na vlastnostech, jako je rasa, etnický původ, národnost, genderová identita a projevy, sexuální orientace, náboženství, imigrační status, vzhled, osobní vzhled a tělesné proporce. Nestrannost se zabývá zajištěním toho, aby systémy AI zacházely se všemi skupinami lidí spravedlivě a nepřispívaly ke stávající nerovnosti ve společnosti. Sexuální obsah zahrnuje diskuze o lidských reprodukčních orgánech, romantických vztazích, činech vykreslovaných erotickými nebo milostnými výrazy, těhotenství, fyzických sexuálních činech, včetně těch, které jsou vykreslovány jako napadení nebo nucené sexuální násilí, prostituce, pornografie a zneužívání. Násilí zahrnuje projevy související s fyzickými akcemi, jejichž cílem je ublížit nebo zabít, včetně akcí, zbraní a souvisejících entit. Projevy sebepoškozování označují úmyslné činy, které mají za cíl zranit nebo zabít sebe sama.
Přečtěte si další informace o filtrování obsahu v Azure OpenAI.
Poskytuje Copilot detekci chráněného materiálu?
Ano, Copilot pro Microsoft 365 poskytuje detekci chráněných materiálů, včetně textu podléhajícího autorským právům a kódu podléhajícího licenčním omezením. Ne všechna tato omezení rizik jsou relevantní pro všechny scénáře Copilot pro Microsoft 365.
Blokuje Copilot injektáže výzev (útoky jailbreak)?
Útoky jailbreak jsou výzvy uživatelů, které jsou navržené tak, aby vyvolaly u modelu generativní AI chování, které se protiví tréninku, nebo podnítily porušování pravidel, která má AI dodržovat. Funkce Microsoft Copilot pro Microsoft 365 je navržená tak, aby chránila před útoky pomocí injektáže výzev.. Přečtěte si další informace o útocích jailbreak a o tom, jak je pomocí funkce Bezpečnost obsahu Azure AI detekovat.
Závazek k zodpovědné AI
S tím, jak se umělá inteligence snaží transformovat naše životy, musíme společně definovat nová pravidla, normy a postupy pro použití a dopad této technologie. Společnost Microsoft se od roku 2017 vydala na cestu zodpovědné umělé inteligence, kdy jsme definovali naše principy a přístup k zajištění toho, aby se tato technologie používala způsobem, který je založen na etických principech, které lidi na prvním místě zavedly.
V Microsoftu se řídíme našimi principy AI, naším standardem odpovědné AI a desetiletími výzkumu umělé inteligence, uzemněním a zachováním ochrany osobních údajů ve strojovém učení. Multidisciplinární tým výzkumných pracovníků, inženýrů a odborníků na zásady kontroluje naše systémy umělé inteligence s ohledem na potenciální škody a zmírnění rizik – upřesňují trénovací data, filtrují tak, aby omezovali škodlivý obsah, blokují dotazy a výsledky u citlivých témat a používají technologie společnosti Microsoft, jako je InterpretML a Fairlearn, které pomáhají zjišťovat a opravovat předsudky v datech. Jasně objasňujeme, jak systém přijímá rozhodnutí tím, že si všímáme omezení, odkazujeme na zdroje a vyzýváme uživatele, aby zkontrolovali, ověřili fakta a upravili obsah na základě odborných znalostí daného předmětu. Další informace najdete v tématu Řízení AI: Podrobný plán pro budoucnost.
Naším cílem je pomáhat našim zákazníkům používat produkty AI zodpovědně, sdílet naše poznatky a budovat partnerství založená na důvěryhodnosti. U těchto nových služeb chceme našim zákazníkům poskytnout informace o zamýšleném použití, možnostech a omezeních naší služby platformy AI, aby měli znalosti potřebné k tomu, aby se mohli rozhodnout pro zodpovědné nasazení. Prostředky a šablony také sdílíme s vývojáři v organizacích a s nezávislými vývojáři softwaru (ISV), abychom jim pomohli vytvářet efektivní, bezpečná a transparentní řešení AI.