Sdílet prostřednictvím


Nejčastější dotazy k zabezpečení dat a ochraně osobních údajů nástroje Copilot pro Dynamics 365 a Power Platform

Funkce Copilot pro Dynamics 365 a Power Platform se řídí souborem základních postupů v oblasti zabezpečení a ochrany osobních údajů a standardy odpovědné AI společnosti Microsoft. Dynamics 365 a Power Platform jsou chráněna pomocí komplexních, špičkových kontrolních opatření v oblasti dodržování předpisů, zabezpečení a ochrany osobních údajů.

Copilot je postaven na službě Microsoft Azure OpenAI Service a běží kompletně v cloudu Azure. Služba Azure OpenAI Service nabízí regionální dostupnost a filtrování obsahu odpovědné AI. Copilot používá modely OpenAI se všemi funkcemi zabezpečení Microsoft Azure. OpenAI je nezávislá organizace. Vaše data nesdílíme se společností OpenAI.

Funkce nástroje Copilot nejsou k dispozici ve všech zeměpisných oblastech a jazycích platformy Azure. V závislosti na tom, kde je vaše prostředí hostováno, může být nutné povolit přesun dat mezi jednotlivými geografickými oblastmi, abyste je mohli používat. Další informace naleznete v článcích uvedených v části Přesun dat mezi geografickými oblastmi.

Co se stane s mými daty, když používám nástroj Copilot?

Data máte pod kontrolou. Microsoft nesdílí vaše data s třetí stranou, pokud jste k tomu neudělili oprávnění. Vaše zákaznická data nepoužíváme k trénování nástroje Copilot nebo jeho funkcí AI, pokud nám k tomu neudělíte souhlas. Nástroj Copilot dodržuje stávající oprávnění a zásady týkající se dat a jeho odpovědi vám jsou založeny pouze na datech, ke kterým máte přístup vy osobně. Další informace o tom, jak můžete ovládat svá data a jak se s nimi zachází, najdete v článcích uvedených v části Copilot v aplikacích Dynamics 365 a Power Platform.

Copilot monitoruje zneužití nebo škodlivé použití služby s přechodným zpracováním. Vstupy a výstupy nástroje Copilot neukládáme ani neprovádíme jejich vizuální kontrolu pro účely sledování zneužití.

Jak Copilot používá moje data? 

Každá služba nebo funkce využívá nástroj Copilot na základě dat, která jí poskytnete nebo nastavíte ke zpracování.

Vaše výzvy (vstupy) a odpovědi (výstupy nebo výsledky) nástroje Copilot:

  • NEJSOU k dispozici ostatním zákazníkům.

  • NEJSOU používány k tréninku nebo zlepšování produktů či služeb třetích stran (jako jsou modely OpenAI).

  • NEJSOU používány k trénování nebo vylepšování modelů AI společnosti Microsoft, pokud se správce klienta nepřihlásil ke sdílení dat s námi.

Přečtěte si další informace o ochraně osobních údajů a zabezpečení služby Azure OpenAI Service. Další informace o tom, jak Microsoft chrání a používá vaše data, najdete v našem prohlášení o ochraně osobních údajů.

Kam jsou odesílána moje data?

Microsoft je založen na důvěře. Dbáme na zabezpečení, ochranu osobních údajů a dodržování předpisů ve všem, co děláme. Náš přístup k AI není výjimkou. Zákaznická data, včetně vstupů a výstupů nástroje Copilot, jsou uložena v rámci hranice důvěryhodnosti platformy Microsoft Cloud.

V některých scénářích, například u funkcí využívajících Bing a modulů plug-in kopilota třetích stran, mohou být zákaznická data přenášena mimo hranice důvěryhodnosti platformy Microsoft Cloud.

Má Copilot přístup k šifrovanému obsahu?

Data poskytovaná nástroji Copilot jsou poskytována na základě úrovně přístupu aktuálního uživatele. Pokud má uživatel přístup k zašifrovaným datům v Dynamics 365 a Power Platform a uživatel je poskytl nástroji Copilot, pak k nim Copilot může přistupovat.

Jak Copilot chrání zákaznická data?

Společnost Microsoft má jedinečnou pozici pro poskytování AI připravené pro podniky. Copilot je založen na službě Azure OpenAI Service a dodržuje naše stávající závazky vůči zákazníkům v oblasti ochrany osobních údajů, zabezpečení a právních předpisů.

  • Využívá komplexní přístup společnosti Microsoft k zabezpečení, ochraně osobních údajů a dodržování předpisů. Copilot je integrován ve službách společnosti Microsoft, jako jsou Dynamics 365 a Power Platform, a dědí zásady a procesy v oblasti zabezpečení, ochrany osobních údajů a dodržování předpisů těchto produktů, jako je vícefaktorové ověřování a hranice dodržování předpisů.

  • Více forem ochrany pro zabezpečení organizačních dat. Technologie na straně služby šifrují uložený i přenášený obsah organizace, čímž zajišťují robustní zabezpečení. Připojení jsou chráněna protokolem TLS (Transport Layer Security). Přenosy dat mezi Dynamics 365, Power Platform a Azure OpenAI probíhají přes páteřní síť Microsoftu, což zaručuje spolehlivost i bezpečnost. Přečtěte si další informace o šifrování na platformě Microsoft Cloud.

  • Jsou navržen tak, aby chránil vaše data na úrovni klienta i prostředí. Víme, že únik dat zákazníky znepokojuje. Modely AI od Microsoftu nejsou trénovány na datech klientů ani na vašich výzvách a neučí se z nich, pokud se správce klienta nepřihlásil k volitelnému sdílení dat. V rámci prostředí můžete řídit přístup pomocí nastavených oprávnění. Mechanismy ověřování a autorizace rozdělují požadavky na sdílený model mezi klienty. Copilot využívá data, ke kterým máte přístup pouze vy, pomocí stejné technologie, kterou používáme již léta k zabezpečení zákaznických dat.

Jsou odpovědi nástroje Copilot vždy věcné?

Stejně jako v případě jakékoli jiné generativní AI není zaručeno, že odpovědi nástroje Copilot budou zcela věcné. Přestože pokračujeme ve zlepšování odpovědí na dotazy založené na faktech, měli byste se řídit vlastním úsudkem a před odesláním výstupu ostatním jej zkontrolovat. Copilot poskytuje užitečné návrhy a shrnutí, které vám pomohou zvládnout více, ale je plně automatický. Obsah vytvořený AI můžete kdykoli zkontrolovat.

Naše týmy se snaží proaktivně řešit problémy, jako jsou dezinformace, blokování obsahu, bezpečnost dat a zabránění propagaci škodlivého nebo diskriminačního obsahu, v souladu s našimi principy odpovědné AI.

V rámci uživatelského prostředí také nabízíme pokyny k posílení odpovědného používání obsahu a navrhovaných akcí generovaných AI.

  • Pokyny a výzvy. Při používání nástroje Copilot vám výzvy a další instruktážní prvky připomínají, abyste podle potřeby zkontrolovali a upravili odpovědi a ručně zkontrolovali správnost faktů, dat i textu před tím, než použijete obsah vytvořený AI.

  • Citované zdroje. Pokud je to možné, Copilot uvádí veřejné nebo interní zdroje informací, abyste je mohli sami zkontrolovat a potvrdit odpovědi.

Další informace naleznete v nejčastějších dotazech k odpovědné AI pro váš produkt na portálu Microsoft Learn.

Jak Copilot blokuje škodlivý obsah?

Služba Azure OpenAI Service obsahuje systém filtrování obsahu, který funguje společně se základními modely. Modely filtrování obsahu pro kategorie Nenávist a nestrannost, Sexuální, Násilí a Sebepoškozování byly speciálně vytrénovány a testovány v různých jazycích. Tento systém funguje tak, že vstupní výzva i odpověď prochází klasifikačními modely, které jsou navrženy k rozpoznání a blokování výstupu škodlivého obsahu.

Škody související s nenávistí a nestranností se týkají jakéhokoli obsahu, který používá hanlivé nebo diskriminační výrazy na základě vlastností, jako je rasa, etnický původ, národnost, genderová identita a její vyjádření, sexuální orientace, náboženství, imigrační status, schopnost, vzhled a tělesná velikost. Nestrannost se zabývá tím, aby systémy AI zacházely se všemi skupinami lidí spravedlivě a nepřispívaly k existujícím společenským nerovnostem. Sexuální obsah zahrnuje diskuse o lidských reprodukčních orgánech, romantické vztahy, akty zobrazované v erotickém nebo milostném duchu, těhotenství, fyzické sexuální akty, včetně těch, které jsou zobrazovány jako napadení nebo vynucený akt sexuálního násilí, prostituce, pornografie a zneužívání. Násilí označuje jazyk související s fyzickými činy, jejichž cílem je ublížit nebo zabít, včetně činností, zbraní a souvisejících entit. Sebepoškozování označuje úmyslné jednání, jehož cílem je zranit se nebo se zabít.

Zjistěte další informace o filtrování obsahu Azure OpenAI.

Blokuje Copilot injektáže výzev (útoky jailbreak)?

Útoky jailbreak jsou výzvy uživatele, jejichž cílem je vyprovokovat model generativní AI k chování, kterému se má vyhnout, nebo aby porušil pravidla, která má dodržovat. Služby v řešeních Dynamics 365 a Power Platform je nutné chránit před injektáží výzev. Přečtěte si další informace o útocích jailbreak a o tom, jak je odhalit pomocí Bezpečnosti obsahu Azure AI.

Blokuje Copilot nepřímé injektáže výzev (nepřímé útoky)?

Nepřímé útoky, označované také jako útoky nepřímými výzvami nebo mezidoménové útoky nepřímými výzvami, představují potenciální zranitelnost, kdy třetí strany umístí škodlivé instrukce do dokumentů, ke kterým může systém generativní AI přistupovat a zpracovávat je. Služby v řešeních Dynamics 365 a Power Platform je nutné chránit před injektáží nepřímých výzev. Přečtěte si další informace o nepřímých útocích a o tom, jak je odhalit pomocí Bezpečnosti obsahu Azure AI.

Jak Microsoft testuje a ověřuje kvalitu nástroje Copilot, včetně ochrany proti injektáži výzev a uzemněných odpovědí?

Každý nový produkt a iterace jazykového modelu nástroje Copilot musí před uvedením na trh projít interní kontrolou odpovědné AI. Před vydáním používáme proces zvaný „red teaming“ (při němž tým simuluje nepřátelský útok, hledá a využívá slabá místa, aby pomohl organizaci zlepšit její obranu) k posouzení potenciálních rizik v oblasti škodlivého obsahu, scénářů útoků jailbreak a uzemněných odpovědí. Po vydání používáme automatizované testování a manuální i automatizované nástroje pro hodnocení kvality odpovědí nástroje Copilot.

Jak Microsoft vylepšuje základní model a měří zlepšení uzemněných odpovědí?

Zejména v kontextu AI, která pracuje s jazykovými modely, jako je ten, na kterém je založen nástroj Copilot, pomáhá uzemnění AI generovat odpovědi, které jsou relevantnější a dávají smysl v reálném světě. Uzemnění pomáhá zajistit, aby odpovědi AI vycházely ze spolehlivých informací a byly co nejpřesnější a nejrelevantnější. Metriky uzemnění odpovědi hodnotí, jak přesně jsou v konečné odpovědi zastoupena fakta uvedená v obsahu odůvodnění, který je poskytnut modelu.

Základní modely, jako je GPT-4, jsou vylepšeny technikou RAG (Retrieval Augmented Generation). Tyto techniky umožňují modelům využít k pochopení scénáře uživatele více informací, než na kterých byly vyškoleny. RAG funguje tak, že nejprve identifikuje data, která jsou relevantní pro daný scénář, podobně jako vyhledávač identifikuje webové stránky, které jsou relevantní pro hledané výrazy uživatele. Využívá více přístupů k určení obsahu, který je relevantní pro výzvu uživatele a který by měl být použit k uzemnění odpovědi. Mezi přístupy patří vyhledávání podle různých typů indexů, jako jsou inverzní indexy využívající techniky vyhledávání informací, jako je porovnávání termínů, nebo vektorové indexy využívající porovnávání vektorové vzdálenosti pro sémantickou podobnost. Poté, co identifikuje příslušné dokumenty, předá RAG data modelu spolu s aktuální konverzací, čímž modelu poskytne více kontextu, aby lépe porozuměl informacím, které již má k dispozici, a vygeneroval odpověď, která je „uzemněná“ v reálném světě. Nakonec technika RAG zkontroluje odpověď, aby se ujistila, že je podpořena zdrojovým obsahem, který poskytl modelu. Funkce generativní AI nástroje Copilot využívají techniku RAG několika způsoby. Jedním z příkladů je chat s využitím dat, kdy je chatbot uzemněn pomocí vlastních zdrojů dat zákazníka.

Další metodou vylepšování základních modelů je tzv. dolaďování. Základnímu modelu se ukáže velký soubor dat párů dotaz-odpověď, aby se jeho původní trénink rozšířil o nové vzorky, které jsou zaměřeny na konkrétní scénář. Model lze poté nasadit jako samostatný model – model doladěný pro daný scénář. Zatímco uzemnění se snaží o to, aby znalosti AI odpovídaly reálnému světu, doladění se týká toho, aby znalosti AI byly specifičtější pro konkrétní úkol nebo oblast. Microsoft používá doladění několika způsoby. Používáme například vytváření toků Power Automate z popisů v přirozeném jazyce zadaných uživatelem.

Splňuje Copilot požadavky týkající se dodržování předpisů?

Microsoft Copilot je součástí ekosystému Dynamics 365 a Power Platform a splňuje stejné požadavky na dodržování předpisů. Další informace o regulačních certifikacích služeb Microsoftu najdete na portálu Service Trust Portal. Copilot navíc dodržuje náš závazek k odpovědné AI, který je realizován prostřednictvím našich standardů odpovědné AI. Vzhledem k vývoji regulace v oblasti AI se Microsoft i nadále přizpůsobuje a reaguje na nové požadavky.

Zjistěte další informace o dostupnosti řešení Dynamics 365, Power Platform a Copilot, umístění dat zákazníků a dodržování globálních, regionálních i oborových požadavků na správu dat.

Další informace

Copilot v aplikacích Dynamics 365 a Power Platform

Produkt Funkce Vyžadována spravovaná prostředí? Jak funkci vypnout
AI Builder Scénáře ve verzi Preview Ne Scénáře ve verzi Preview
Dynamics 365 Business Central Vše (viz úplný seznam na adrese aka.ms/bcAI.) Ne Aktivace funkcí
Dynamics 365 Customer Insights - Data Vytváření segmentů pomocí nástroje Copilot pro Customer Insights - Data (Preview) Ne Customer Insights - Data má vlastní příznak pro všechny funkce Copilota od Azure OpenAI.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Data
Dynamics 365 Customer Insights - Data Přehled sestavy přípravy dat (Preview) Ne Customer Insights - Data má vlastní příznak pro všechny funkce Copilota od Azure OpenAI.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Data
Dynamics 365 Customer Insights - Data Získání odpovědí na otázky týkající se možností Copilota (Preview) Ne Customer Insights - Data má vlastní příznak pro všechny funkce Copilota od Azure OpenAI.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Data
Dynamics 365 Customer Insights (Data) Dialog s daty pomocí Copilota v nástroji Customer Insights Ne Customer Insights - Data má vlastní příznak pro všechny funkce Copilota od Azure OpenAI.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Data
Dynamics 365 Customer Insights - Data Zobrazení konfigurace systému Ne Customer Insights - Data má vlastní příznak pro všechny funkce Copilota od Azure OpenAI.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot vám pomáhá učit se a zvládat více úkolů (Preview) Ne Zda je tento kopilot ve vašem prostředí k dispozici, závisí na nastavení správce Power Platform. Zjistěte, jak přidat Copilota pro aplikace řízené modelem.


Tato možnost je „kopilot aplikace v Customer Insights - Journeys“ a proto je povolena v centru pro správu Power Platform. Další informace: Nejčastější dotazy k odpovědné AI
Dynamics 365 Customer Insights - Journeys Vytváření cest pomocí asistence s AI Ne Customer Insights - Journeys má své vlastní příznaky pro funkce Copilota.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Aktualizace a zdokonalení zprávy Ne Customer Insights - Journeys má své vlastní příznaky pro funkce Copilota.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Stylizace e-mailů pomocí témat s podporou AI Ne Customer Insights - Journeys má své vlastní příznaky pro funkce Copilota.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Zacílení na správné zákazníky pomocí asistenta dotazu

Ne Customer Insights - Journeys má své vlastní příznaky pro funkce Copilota.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Využití AI k zahájení tvorby e-mailů Ne Customer Insights - Journeys má své vlastní příznaky pro funkce Copilota.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Použití obrázků v obsahu Ne Customer Insights - Journeys má své vlastní příznaky pro funkce Copilota.

Další informace: Vyjádření souhlasu s použitím nástroje Copilot v aplikaci Customer Insights - Journeys
Power Apps Vytváření aplikací prostřednictvím konverzace Ne Správa nastavení funkcí
Power Apps Asistence Copilota pro vyplňování formulářů v aplikacích založených na modelu Ne Správa nastavení funkcí
Power Apps Koncept dobře napsaného vstupního textu pomocí nástroje Copilot Ne, uživatelská licence Premium Koncept dobře napsaného vstupního textu pomocí nástroje Copilot
Power Apps Excel na tabulku Ne Správa nastavení funkcí
Power Apps Použití přirozeného jazyka k úpravám aplikace pomocí panelu Copilot Ne Správa nastavení funkcí
Power Automate Copilot v cloudových tocích na domovské stránce a v návrháři (podrobnosti najdete v tématu Začínáme s Copilotem v cloudových tocích). Ne Pokud chcete spustit skript PowerShellu, obraťte se na podporu.
Power Pages Vše (Podrobnosti najdete v přehledu nástroje Copilot v Power Pages.) Ne Vypnutí nástroje Copilot v Power Pages

Regionální a jazyková dostupnost

Mezinárodní dostupnost nástroje Copilot

Přesun dat mezi geografickými oblastmi

Zabezpečení ve společnosti Microsoft

Zásady ochrany osobních údajů v Microsoftu

Prohlášení o ochraně osobních údajů společnosti Microsoft

Odpovědná AI