Nejčastější dotazy k zabezpečení dat a ochraně osobních údajů nástroje Copilot pro Dynamics 365 a Power Platform
Funkce Copilot pro Dynamics 365 a Power Platform se řídí souborem základních postupů v oblasti zabezpečení a ochrany osobních údajů a standardy odpovědné AI společnosti Microsoft. Dynamics 365 a Power Platform jsou chráněna pomocí komplexních, špičkových kontrolních opatření v oblasti dodržování předpisů, zabezpečení a ochrany osobních údajů.
Copilot je postaven na službě Microsoft Azure OpenAI Service a běží kompletně v cloudu Azure. Služba Azure OpenAI Service nabízí regionální dostupnost a filtrování obsahu odpovědné AI. Copilot používá modely OpenAI se všemi funkcemi zabezpečení Microsoft Azure. OpenAI je nezávislá organizace. Vaše data nesdílíme se společností OpenAI.
Funkce nástroje Copilot nejsou k dispozici ve všech zeměpisných oblastech a jazycích platformy Azure. V závislosti na tom, kde je vaše prostředí hostováno, může být nutné povolit přesun dat mezi jednotlivými geografickými oblastmi, abyste je mohli používat. Další informace naleznete v článcích uvedených v části Přesun dat mezi geografickými oblastmi.
Co se stane s mými daty, když používám nástroj Copilot?
Data máte pod kontrolou. Microsoft nesdílí vaše data s třetí stranou, pokud jste k tomu neudělili oprávnění. Vaše zákaznická data nepoužíváme k trénování nástroje Copilot nebo jeho funkcí AI, pokud nám k tomu neudělíte souhlas. Nástroj Copilot dodržuje stávající oprávnění a zásady týkající se dat a jeho odpovědi vám jsou založeny pouze na datech, ke kterým máte přístup vy osobně. Další informace o tom, jak můžete ovládat svá data a jak se s nimi zachází, najdete v článcích uvedených v části Copilot v aplikacích Dynamics 365 a Power Platform.
Copilot monitoruje zneužití nebo škodlivé použití služby s přechodným zpracováním. Vstupy a výstupy nástroje Copilot neukládáme ani neprovádíme jejich vizuální kontrolu pro účely sledování zneužití.
Jak Copilot používá moje data?
Každá služba nebo funkce využívá nástroj Copilot na základě dat, která jí poskytnete nebo nastavíte ke zpracování.
Vaše výzvy (vstupy) a odpovědi (výstupy nebo výsledky) nástroje Copilot:
NEJSOU k dispozici ostatním zákazníkům.
NEJSOU používány k tréninku nebo zlepšování produktů či služeb třetích stran (jako jsou modely OpenAI).
NEJSOU používány k trénování nebo vylepšování modelů AI společnosti Microsoft, pokud se správce klienta nepřihlásil ke sdílení dat s námi. Další informace naleznete v tématu Nejčastější dotazy týkající se volitelného sdílení dat pro funkce Copilot AI v Dynamics 365 a Power Platform.
Další informace o datech, ochraně osobních údajů a zabezpečení pro službu Azure OpenAI Service. Další informace o tom, jak Microsoft chrání a používá vaše data, najdete v našem prohlášení o ochraně osobních údajů.
Kam jsou odesílána moje data?
Microsoft je založen na důvěře. Dbáme na zabezpečení, ochranu osobních údajů a dodržování předpisů ve všem, co děláme. Náš přístup k AI není výjimkou. Zákaznická data, včetně vstupů a výstupů nástroje Copilot, jsou uložena v rámci hranice důvěryhodnosti platformy Microsoft Cloud.
V některých scénářích, například u funkcí využívajících Bing a modulů plug-in kopilota třetích stran, mohou být zákaznická data přenášena mimo hranice důvěryhodnosti platformy Microsoft Cloud.
Má Copilot přístup k šifrovanému obsahu?
Data poskytovaná nástroji Copilot jsou poskytována na základě úrovně přístupu aktuálního uživatele. Pokud má uživatel přístup k zašifrovaným datům v Dynamics 365 a Power Platform a uživatel je poskytl nástroji Copilot, pak k nim Copilot může přistupovat.
Jak Copilot chrání zákaznická data?
Společnost Microsoft má jedinečnou pozici pro poskytování AI připravené pro podniky. Copilot je založen na službě Azure OpenAI Service a dodržuje naše stávající závazky vůči zákazníkům v oblasti ochrany osobních údajů, zabezpečení a právních předpisů.
Využívá komplexní přístup společnosti Microsoft k zabezpečení, ochraně osobních údajů a dodržování předpisů. Copilot je integrován ve službách společnosti Microsoft, jako jsou Dynamics 365 a Power Platform, a dědí zásady a procesy v oblasti zabezpečení, ochrany osobních údajů a dodržování předpisů těchto produktů, jako je vícefaktorové ověřování a hranice dodržování předpisů.
Více forem ochrany pro zabezpečení organizačních dat. Technologie na straně služby šifrují uložený i přenášený obsah organizace, čímž zajišťují robustní zabezpečení. Připojení jsou chráněna protokolem TLS (Transport Layer Security). Přenosy dat mezi Dynamics 365, Power Platform a Azure OpenAI probíhají přes páteřní síť Microsoftu, což zaručuje spolehlivost i bezpečnost. Přečtěte si další informace o šifrování v řešení Microsoft Cloud.
Jsou navržen tak, aby chránil vaše data na úrovni klienta i prostředí. Víme, že únik dat zákazníky znepokojuje. Modely AI od Microsoftu nejsou trénovány na datech klientů ani na vašich výzvách a neučí se z nich, pokud se správce klienta nepřihlásil k volitelnému sdílení dat. V rámci prostředí můžete řídit přístup pomocí nastavených oprávnění. Mechanismy ověřování a autorizace rozdělují požadavky na sdílený model mezi klienty. Copilot využívá data, ke kterým máte přístup pouze vy, pomocí stejné technologie, kterou používáme již léta k zabezpečení zákaznických dat.
Jsou odpovědi Copilota vždy věcné?
Stejně jako v případě jakékoli jiné generativní AI, odpovědi Copilota nejsou zcela věcné. Přestože pokračujeme ve zlepšování odpovědí na dotazy založené na faktech, měli byste se řídit vlastním úsudkem a před odesláním výstupu ostatním jej zkontrolovat. Copilot poskytuje užitečné návrhy a shrnutí, které vám pomohou zvládnout více, ale je plně automatický. Obsah vytvořený AI můžete kdykoli zkontrolovat.
Naše týmy se snaží proaktivně řešit problémy, jako jsou dezinformace, blokování obsahu, bezpečnost dat a zabránění propagaci škodlivého nebo diskriminačního obsahu, v souladu s našimi principy odpovědné AI.
V rámci uživatelského prostředí také nabízíme pokyny k posílení odpovědného používání obsahu a navrhovaných akcí generovaných AI.
Pokyny a výzvy. Při používání nástroje Copilot vám výzvy a další instruktážní prvky připomínají, abyste podle potřeby zkontrolovali a upravili odpovědi a ručně zkontrolovali správnost faktů, dat i textu před tím, než použijete obsah vytvořený AI.
Citované zdroje. Pokud je to možné, Copilot uvádí veřejné nebo interní zdroje informací, abyste je mohli sami zkontrolovat a potvrdit odpovědi.
Další informace naleznete v nejčastějších dotazech k odpovědné AI pro váš produkt na portálu Microsoft Learn.
Jak Copilot blokuje škodlivý obsah?
Služba Azure OpenAI Service obsahuje systém filtrování obsahu, který funguje společně se základními modely. Modely filtrování obsahu pro kategorie Nenávist a nestrannost, Sexuální, Násilí a Sebepoškozování byly speciálně vytrénovány a testovány v různých jazycích. Tento systém funguje tak, že vstupní výzva i odpověď prochází klasifikačními modely, které jsou navrženy k rozpoznání a blokování výstupu škodlivého obsahu.
Škody související s nenávistí a nestranností se týkají jakéhokoli obsahu, který používá hanlivé nebo diskriminační výrazy na základě vlastností, jako je rasa, etnický původ, národnost, genderová identita a její vyjádření, sexuální orientace, náboženství, imigrační status, schopnost, vzhled a tělesná velikost. Nestrannost se zabývá tím, aby systémy AI zacházely se všemi skupinami lidí spravedlivě a nepřispívaly k existujícím společenským nerovnostem. Sexuální obsah zahrnuje diskuse o lidských reprodukčních orgánech, romantické vztahy, akty zobrazované v erotickém nebo milostném duchu, těhotenství, fyzické sexuální akty, včetně těch, které jsou zobrazovány jako napadení nebo vynucený akt sexuálního násilí, prostituce, pornografie a zneužívání. Násilí označuje jazyk související s fyzickými činy, jejichž cílem je ublížit nebo zabít, včetně činností, zbraní a souvisejících entit. Sebepoškozování označuje úmyslné jednání, jehož cílem je zranit se nebo se zabít.
Další informace o filtrování obsahu Azure OpenAI.
Blokuje Copilot injektáže výzev (útoky jailbreak)?
Útoky jailbreak jsou výzvy uživatele, jejichž cílem je vyprovokovat model generativní AI k chování, kterému se má vyhnout, nebo k porušení pravidel, které by měl dodržovat. Služby v řešeních Dynamics 365 a Power Platform je nutné chránit před injektáží výzev. Přečtěte si další informace o útocích jailbreak a o tom, jak je detekovat pomocí služby Bezpečnost obsahu Azure AI.
Blokuje Copilot nepřímé injektáže výzev (nepřímé útoky)?
Nepřímé útoky, označované také jako útoky nepřímými výzvami nebo mezidoménové útoky nepřímými výzvami, představují potenciální zranitelnost, kdy třetí strany umístí škodlivé instrukce do dokumentů, ke kterým může systém generativní AI přistupovat a zpracovávat je. Služby v řešeních Dynamics 365 a Power Platform je nutné chránit před injektáží nepřímých výzev. Přečtěte si další informace o nepřímých útocích a o tom, jak je detekovat pomocí služby Bezpečnost obsahu Azure AI.
Jak Microsoft testuje a ověřuje kvalitu nástroje Copilot, včetně ochrany proti injektáži výzev a uzemněných odpovědí?
Každý nový produkt a iterace jazykového modelu nástroje Copilot musí před uvedením na trh projít interní kontrolou odpovědné AI. Před vydáním používáme proces zvaný „red teaming“ (při němž tým simuluje nepřátelský útok, hledá a využívá slabá místa, aby pomohl organizaci zlepšit její obranu) k posouzení potenciálních rizik v oblasti škodlivého obsahu, scénářů útoků jailbreak a uzemněných odpovědí. Po vydání používáme automatizované testování a manuální i automatizované nástroje pro hodnocení kvality odpovědí nástroje Copilot.
Jak Microsoft vylepšuje základní model a měří zlepšení uzemněných odpovědí?
Zejména v kontextu AI, která pracuje s jazykovými modely, jako je ten, na kterém je založen nástroj Copilot, pomáhá uzemnění AI generovat odpovědi, které jsou relevantnější a dávají smysl v reálném světě. Uzemnění pomáhá zajistit, aby odpovědi AI vycházely ze spolehlivých informací a byly co nejpřesnější a nejrelevantnější. Metriky uzemnění odpovědi hodnotí, jak přesně jsou v konečné odpovědi zastoupena fakta uvedená v obsahu odůvodnění, který je poskytnut modelu.
Základní modely, jako je GPT-4, jsou vylepšeny technikou RAG (Retrieval Augmented Generation). Tyto techniky umožňují modelům využít k pochopení scénáře uživatele více informací, než na kterých byly vyškoleny. RAG funguje tak, že nejprve identifikuje data, která jsou relevantní pro daný scénář, podobně jako vyhledávač identifikuje webové stránky, které jsou relevantní pro hledané výrazy uživatele. Využívá více přístupů k určení obsahu, který je relevantní pro výzvu uživatele a který by měl být použit k uzemnění odpovědi. Mezi přístupy patří vyhledávání podle různých typů indexů, jako jsou inverzní indexy využívající techniky vyhledávání informací, jako je porovnávání termínů, nebo vektorové indexy využívající porovnávání vektorové vzdálenosti pro sémantickou podobnost. Poté, co identifikuje příslušné dokumenty, předá RAG data modelu spolu s aktuální konverzací, čímž modelu poskytne více kontextu, aby lépe porozuměl informacím, které již má k dispozici, a vygeneroval odpověď, která je „uzemněná“ v reálném světě. Nakonec technika RAG zkontroluje odpověď, aby se ujistila, že je podpořena zdrojovým obsahem, který poskytl modelu. Funkce generativní AI nástroje Copilot využívají techniku RAG několika způsoby. Jedním z příkladů je chat s využitím dat, kdy je chatbot uzemněn pomocí vlastních zdrojů dat zákazníka.
Další metodou vylepšování základních modelů je tzv. dolaďování. Základnímu modelu se ukáže velký soubor dat párů dotaz-odpověď, aby se jeho původní trénink rozšířil o nové vzorky, které jsou zaměřeny na konkrétní scénář. Model lze poté nasadit jako samostatný model – model doladěný pro daný scénář. Zatímco uzemnění se snaží o to, aby znalosti AI odpovídaly reálnému světu, doladění se týká toho, aby znalosti AI byly specifičtější pro konkrétní úkol nebo oblast. Microsoft používá doladění několika způsoby. Používáme například vytváření toků Power Automate z popisů v přirozeném jazyce zadaných uživatelem.
Splňuje Copilot požadavky týkající se dodržování předpisů?
Microsoft Copilot je součástí ekosystému Dynamics 365 a Power Platform a splňuje stejné požadavky na dodržování předpisů. Další informace o regulačních certifikacích služeb Microsoftu najdete na portálu Service Trust Portal. Copilot navíc dodržuje náš závazek k odpovědné AI, který je realizován prostřednictvím našich standardů odpovědné AI. Vzhledem k vývoji regulace v oblasti AI se Microsoft i nadále přizpůsobuje a reaguje na nové požadavky.
Další informace
Copilot v aplikacích Dynamics 365 a Power Platform
Další informace naleznete v tématu Nejčastější dotazy týkající se volitelného sdílení dat pro funkce Copilot AI v Dynamics 365 a Power Platform.
Regionální a jazyková dostupnost
Mezinárodní dostupnost nástroje Copilot
Přesun dat mezi geografickými oblastmi
- Jak funguje přesun dat mezi regiony
- Konfigurace přesunu dat napříč geografickými lokalitami pro generativní funkce AI mimo Spojené státy
- Přesun dat nástroje Copilot mezi geografickými oblastmi v Dynamics 365 Sales
- Přesun dat nástroje Copilot mezi geografickými oblastmi v Dynamics 365 Business Central
Zabezpečení ve společnosti Microsoft
- Úvod do zabezpečení Azure
- Šifrování v řešení Microsoft Cloud
- Data, soukromí a zabezpečení pro službu Azure OpenAI Service – služby Azure AI
Zásady ochrany osobních údajů v Microsoftu
Prohlášení o zásadách ochrany osobních údajů společnosti Microsoft