Časté otázky pro zabezpečení dat nástroje Copilot a ochranu soukromí pro Dynamics 365 a Power Platform
Funkce Copilot pro Dynamics 365 a Power Platform se řídí sadou základních postupů v oblasti zabezpečení a ochrany soukromí a Microsoft Standardem odpovědné umělé inteligence. Data Dynamics 365 a Power Platform jsou chráněna pomocí komplexních, špičkových kontrol dodržování předpisů, zabezpečení a ochrany soukromí.
Copilot je postaven na službě Microsoft Azure OpenAI Service a běží kompletně v cloudu Azure. Azure OpenAI nabízí regionální dostupnost a filtrování obsahu odpovědné AI. Copilot používá modely OpenAI se všemi možnostmi zabezpečení platformy Microsoft Azure. OpenAI je nezávislá organizace. Vaše data s OpenAI nesdílíme.
Funkce nástroje Copilot nejsou dostupné ve všech geografických oblastech a jazycích platformy Azure. Podle toho, kde je vaše prostředí hostováno, možná budete muset povolit přesun dat mezi geografickými oblastmi, abyste je mohli používat. Další informace najdete v článcích uvedených v části Přesun dat mezi geografickými oblastmi.
Co se stane s mými daty, když použiji Copilot?
Máte plnou kontrolu nad svými daty. Microsoft nesdílí vaše data s třetí stranou, pokud k tomu nedáte povolení. Microsoft nepoužívá vaše zákaznická data k trénování nástroje Copilot nebo jeho funkcí AI, pokud jste mu k tomu nedali souhlas. Copilot se řídí stávajícími oprávněními a zásadami pro data a jeho odpovědi jsou založené pouze na datech, ke kterým máte osobní přístup. Další informace o tom, jak můžete ovládat svá data a jak se s nimi zachází, najdete v článcích uvedených v části Copilot v aplikacích Dynamics 365 a Power Platform.
Copilot monitoruje zneužití nebo škodlivé použití služby s přechodným zpracováním. Neukládáme vstupy a výstupy nástroje Copilot ani neprovádíme jejich vizuální kontroly za účelem sledování zneužití.
Jak Copilot používá moje data?
Každá služba nebo funkce využívá nástroj Copilot na základě dat, která jste poskytli nebo nakonfigurovali ke zpracování nástrojem Copilot.
Vaše výzvy (vstupy) a odpovědi nástroje Copilot (výstupy nebo výsledky):
NEJSOU k dispozici ostatním zákazníkům.
NEJSOU používány k tréninku nebo zlepšování produktů či služeb třetích stran (jako jsou modely OpenAI).
NEPOUŽÍVAJÍ se k trénování nebo zlepšování Microsoft modelů umělé inteligence, pokud se správce vašeho nájemce nepřihlásí ke sdílení dat s námi. Další informace naleznete v FAQ pro volitelné sdílení dat pro funkce Copilot AI v Dynamics 365 a Power Platform.
Přečtěte si další informace o Azure OpenAI Ochrana soukromí a zabezpečení dat služeb. Chcete-li se dozvědět více o tom, jak Microsoft chrání a používá vaše data obecněji, přečtěte si naše Prohlášení o ochraně osobních údajů.
Kam se přesouvají moje data?
Microsoft běží na důvěře. Zavázali jsme se k zajištění zabezpečení, soukromí a souladu ve všem, co děláme, a náš přístup k umělé inteligenci se nijak neliší. Zákaznická data, včetně vstupů a výstupů Copilot, jsou uložena v rámci Microsoft mezi důvěryhodnosti cloudu.
V některých scénářích, jako jsou funkce využívající Bing a plug-iny druhého pilota třetích stran, mohou být data zákazníků přenášena mimo Microsoft hranice důvěryhodnosti cloudu.
Může Copilot přistupovat k šifrovanému obsahu?
Data jsou poskytována nástroji Copilot na základě úrovně přístupu aktuálního uživatele. Pokud má uživatel přístup k zašifrovaným datům v Dynamics 365 a Power Platform a poskytne je nástroji Copilot, pak k nim Copilot získá přístup.
Jak Copilot chrání data zákazníků?
Microsoft má jedinečnou pozici pro poskytování podnikové AI. Copilot využívá službu Azure OpenAI Service a splňuje naše stávající závazky vůči zákazníkům v oblasti ochrany soukromí, zabezpečení a dodržování předpisů.
Postaveno na komplexním přístupu Microsoft k zabezpečení, soukromí a dodržování předpisů. Copilot je integrován do Microsoft služeb jako Dynamics 365 a Power Platform a zdědí jejich zásady a procesy zabezpečení, soukromí a dodržování předpisů, jako je vícefaktorové ověřování a hranice dodržování předpisů.
Více forem ochrany pro zabezpečení organizačních dat. Technologie na straně služby šifrují organizační obsah v klidovém stavu i při přenosu, čímž jsou zajištěna spolehlivá bezpečnostní opatření. Připojení jsou chráněna pomocí Transport vrstva Security (TLS) a přenosy dat mezi Dynamics 365, Power Platform a Azure OpenAI probíhají přes Microsoft páteřní síť, což zajišťuje jak spolehlivost, tak bezpečnost. Přečtěte si další informace o šifrování v Microsoft Cloud.
Řešení je navrženo tak, aby chránilo vaše data jak na úrovni klienta, tak na úrovni prostředí. Víme, že únik dat zákazníky znepokojuje. Microsoft Modely umělé inteligence nejsou trénovány a neučí se z dat vašich tenantů ani z vašich výzev, pokud se váš administrátor tenanta nepřihlásil ke sdílení dat s námi. V rámci svých prostředí můžete ovládat přístup pomocí oprávnění, která nastavíte. Mechanismy ověřování a autorizace oddělují požadavky na sdílený model mezi klienty. Copilot využívá data, ke kterým máte přístup pouze vy, pomocí stejné technologie, kterou používáme již léta k zabezpečení zákaznických dat.
Jsou odpovědi Copilota vždy správné?
Stejně jako u jakékoli generativní umělé inteligence nejsou odpovědi Copilota 100% věcné. Přestože pokračujeme ve zlepšování odpovědí na dotazy založené na faktech, měli byste se stále řídit vlastním úsudkem a výstup před odesláním ostatním uživatelům zkontrolovat. Copilot poskytuje užitečné koncepty a shrnutí, se kterými toho zvládnete více, ale je plně automatický. Vždy máte možnost obsah generovaný umělou inteligencí zkontrolovat.
Naše týmy se snaží proaktivně řešit problémy, jako jsou dezinformace, blokování obsahu, bezpečnost dat a zabránění propagaci škodlivého nebo diskriminačního obsahu, v souladu s našimi principy odpovědné AI.
V rámci uživatelského prostředí také nabízíme pokyny k posílení zodpovědného používání obsahu generovaného AI a navržených akcí.
Pokyny a výzvy. Při používání Copilota vám výzvy a další prvky připomenou, abyste podle potřeby zkontrolovali a upravili odpovědi a ručně zkontrolovali přesnost faktů, dat a textu, než obsah generovaný AI použijete.
Citované zdroje. Pokud je to možné, Copilot cituje své informační zdroje, ať už veřejné nebo interní, abyste je mohli sami zkontrolovat a ověřit své odpovědi.
Další informace naleznete v nejčastějších dotazech k odpovědné AI pro svůj produkt na webu Microsoft Learn.
Jak Copilot blokuje škodlivý obsah?
Služba Azure OpenAI Service zahrnuje systém filtrování obsahu, který funguje vedle základních modelů. Modely filtrování obsahu pro kategorie Nenávist a férovost, Sexuální, Násilí a Sebepoškozování byly speciálně trénovány a testovány v různých jazycích. Tento systém funguje tak, že spouští vstupní výzvu i odpověď prostřednictvím klasifikačních modelů, které jsou navrženy tak, aby identifikovaly a blokovaly výstup škodlivého obsahu.
Poškozování související s nenávistí a férovostí se týká jakéhokoli obsahu, který používá pejorativní nebo diskriminační jazyk na základě atributů, jako je rasa, etnická příslušnost, národnost, genderová identita a výraz, sexuální orientace, náboženství, imigrační status, stav způsobilosti, osobní vzhled a velikost těla. Férovost se týká zajištění toho, aby systémy AI zacházely se všemi skupinami lidí spravedlivě a nepřispívaly k existujícím společenským nerovnostem. Sexuální obsah zahrnuje diskuse o lidských reprodukčních orgánech, romantické vztahy, eroticky nebo milostně vyobrazené akty, těhotenství, fyzické sexuální akty, včetně těch, které jsou vyobrazeny jako napadení nebo vynucený akt sexuálního násilí, prostituce, pornografie a zneužívání. Násilí popisuje jazyk související s fyzickými akcemi, které mají ublížit nebo zabít, včetně akcí, zbraní a souvisejících entit. Sebepoškozování označuje úmyslné jednání, jehož cílem je zranit se nebo se zabít.
Přečtěte si další informace o Azure OpenAI filtrování obsahu.
Blokuje Copilot injektáže výzev (útoky jailbreak)?
Útoky z útěku z vězení jsou uživatelské výzvy, které jsou navrženy tak, aby vyprovokovaly generativní model umělé inteligence, aby se choval způsobem, na který byl vycvičen, nebo porušil pravidla, která mu bylo řečeno, aby se řídil. Služby v řešeních Dynamics 365 a Power Platform musí poskytovat ochranu před injektáží výzev. Přečtěte si další informace o útocích z útěku z vězení a o tom, jak je pomocí Azure AI Content Safety detekovat.
Blokuje Copilot nepřímé injektáže zadání (nepřímé útoky)?
Nepřímé útoky, označované také jako nepřímé útoky zadání nebo útoky injektáže zadání mezi doménami, jsou potenciální zranitelností, kdy třetí strany umísťují škodlivé pokyny do dokumentů, ke kterým může generativní systém umělé inteligence přistupovat a zpracovávat je. Služby v řešeních Dynamics 365 a Power Platform je nutné chránit před nepřímou injektáží zadání. Přečtěte si další informace o nepřímých útocích a o tom, jak je detekovat pomocí Azure AI Content Safety.
Jak Microsoft testuje a ověřuje kvalitu Copilota, včetně rychlé ochrany před vstřikováním a uzemněných reakcí?
Každá nová iterace produktu a jazykového modelu nástroje Copilot musí před spuštěním projít interní kontrolou odpovědné AI. Před vydáním používáme proces zvaný „Red Teaming“ (ve kterém tým simuluje nepřátelský útok, nalézá a využívá slabá místa, aby pomohl organizaci zlepšit její obranu) k vyhodnocení potenciálních rizik škodlivého obsahu, scénáře jailbreak a fundovaných odpovědí. Po vydání používáme automatizované testování a nástroje pro ruční a automatické vyhodnocení k posouzení kvality odpovědí nástroje Copilot.
Jak Microsoft vylepšuje základní model a měří zlepšení v uzemněných odpovědích?
V kontextu AI, zejména AI, která se zabývá jazykovými modely, jako je ten, na kterém je založen nástroj Copilot, pomáhá uzemnění generovat AI odpovědi, které jsou relevantnější a dávají smysl v reálném světě. Uzemnění pomáhá zajistit, aby odpovědi AI byly založeny na spolehlivých informacích a byly co nejpřesnější a nejrelevantnější. Metriky fundovaných odpovědí posuzují, jak přesně jsou fakta uvedená v obsahu uzemnění poskytnutém modelu reprezentována v konečné odpovědi.
Základní modely jako GPT-4 jsou vylepšeny technikami rozšířeného generování načítání (RAG). Tyto techniky umožňují modelům používat více informací, než na jaké byly trénovány, aby porozuměly scénáři uživatele. RAG funguje tak, že nejprve identifikuje data, která jsou relevantní pro daný scénář, podobně jako vyhledávač identifikuje webové stránky, které jsou relevantní pro hledané výrazy uživatele. Využívá několik přístupů k identifikaci toho, jaký obsah je relevantní pro výzvu uživatele a měl by být použit k uzemnění odpovědi. Přístupy zahrnují vyhledávání podle různých typů indexů, jako jsou invertované indexy používající techniky načítání informací, jako je shoda pojmů, nebo vektorové indexy využívající porovnání vzdáleností vektorů pro sémantickou podobnost. Poté, co RAG identifikuje relevantní dokumenty, předá data modelu spolu s aktuální konverzací, čímž poskytne modelu více kontextu, aby lépe porozuměl informacím, které již má, a vygeneroval odpověď, která je zakotvena v reálném světě. Nakonec RAG zkontroluje odpověď, aby se ujistil, že je podporována zdrojovým obsahem, který byl poskytnut modelu. Funkce generativní AI nástroje Copilot začleňují RAG mnoha způsoby. Jedním z příkladů je chat s využitím dat, kde je chatbot založen na vlastních zdrojích dat zákazníka.
Další metoda pro vylepšení základních modelů je známá jako vyladění. Velká datová sada párů dotaz-odpověď je ukázána základnímu modelu s cílem rozšířit jeho původní trénink o nové vzorky, které jsou zaměřeny na konkrétní scénář. Model lze poté nasadit jako samostatný model – model, který je vyladěn pro daný scénář. Zatímco ukotvení je o tom, aby byly znalosti AI relevantní pro skutečný svět, vyladění je o tom, aby byly znalosti AI specifičtější pro konkrétní úkol nebo doménu. Microsoft používá jemné doladění několika způsoby. Například používáme vytváření toků Power Automate z popisů v přirozeném jazyce poskytnutých uživatelem.
Splňuje Copilot požadavky na dodržování předpisů?
Microsoft Copilot je součástí ekosystému Dynamics 365 a Power Platform a splňuje stejné požadavky na dodržování předpisů. Další informace o regulačních certifikacích Microsoft služeb najdete na Portál důvěryhodnosti služeb. Copilot navíc dodržuje náš závazek k zodpovědné AI, který je poslán do akce prostřednictvím našich Standardů odpovědné AI společnosti Microsoft. Jak se regulace v AI vyvíjí, Microsoft se nadále přizpůsobuje a reaguje na nové požadavky.
Další informace
Nástroj Copilot v aplikacích Dynamics 365 a Power Platform
Další informace naleznete v FAQ pro volitelné sdílení dat pro funkce Copilot AI v Dynamics 365 a Power Platform.
Regionální a jazyková dostupnost
Mezinárodní dostupnost druhého pilota
Přesun dat mezi geografickými oblastmi
- Jak funguje přesun dat mezi regiony
- Nakonfigurujte přesun dat napříč geografickými lokalitami pro generativní funkce umělé inteligence mimo Spojené státy
- Přesun dat Copilot napříč geografickými oblastmi v Dynamics 365 Sales
- Přesun dat druhého pilota napříč geografickými oblastmi v Dynamics 365 Business Central
Zabezpečení v Microsoft
- Úvod do zabezpečení Azure
- Šifrování v Microsoft Mrak
- Data, soukromí a zabezpečení pro Azure OpenAI Služba – služby Azure AI
Soukromí na Microsoft
Microsoft Prohlášení o ochraně osobních údajů