Zdieľať cez


Najčastejšie otázky týkajúce sa zabezpečenia a ochrany osobných údajov funkcie Copilot pre Dynamics 365 a Power Platform

Funkcie Copilot pre Dynamics 365 a Power Platform sa riadia súborom základných postupov zabezpečenia a ochrany osobných údajov, ako aj štandardom zodpovedného používania umelej inteligencie spoločnosti Microsoft. Údaje v systéme Dynamics 365 a službe Power Platform sú chránené komplexnými špičkovými kontrolami dodržiavania súladu, zabezpečenia a ochrany osobných údajov.

Funkcia Copilot je založená na službe Microsoft Azure OpenAI a je úplne prevádzkovaná v cloude služby Azure. Azure OpenAI ponúka regionálnu dostupnosť a filtrovanie obsahu na báze zodpovedného používania umelej inteligencie. Copilot používa modely OpenAI so všetkými funkciami zabezpečenia služby Microsoft Azure. OpenAI je nezávislá organizácia. Vaše údaje s organizáciou OpenAI nezdieľame.

Funkcie Copilot nie sú v niektorých geografických oblastiach a jazykoch služby Azure dostupné. V závislosti od toho, na ktorom hostiteľskom systéme sa vaše prostredie nachádza, bude možno potrebné povoliť pohyb údajov naprieč geografickými oblasťami v záujme ich používania. Ďalšie informácie nájdete v článkoch uvedených v časti Pohyb údajov naprieč geografickými oblasťami.

Čo sa stane s mojimi údajmi, keď používam funkciu Copilot?

Svoje údaje máte pod kontrolou. Microsoft nezdieľa vaše údaje s treťou stranou, pokiaľ na to neudelíte povolenie. Okrem toho nepoužívame zákaznícke údaje na trénovanie funkcie Copilot ani jej funkcií umelej inteligencie, pokiaľ nám na to neposkytnete súhlas. Copilot dodržiava existujúce povolenia a politiky týkajúce sa údajov a odpovede na vaše podnety sú založené len na údajoch, ku ktorým máte osobne prístup. Ďalšie informácie o tom, ako môžete kontrolovať svoje údaje a ako sa s nimi zaobchádza, nájdete v článkoch uvedených v časti Copilot v aplikáciách systému Dynamics 365 a službe Power Platform.

Copilot monitoruje urážlivé alebo škodlivé používania služby s prechodným spracovaním. Neuchovávame ani nevykonávame okamžitú kontrolu vstupov a výstupov funkcie Copilot na účely monitorovania zneužívania.

Ako Copilot používa moje údaje? 

Každá služba alebo funkcia používa funkciu Copilot na základe údajov, ktoré poskytnete alebo nastavíte tak, aby ich funkcia Copilot mohla spracúvať.

Vaše príkazy (vstupy) a odpovede funkcie Copilot (výstupy alebo výsledky):

  • NIE SÚ dostupné pre iných zákazníkov.

  • NEPOUŽÍVAJÚ SA na trénovanie ani zlepšovanie produktov či služieb tretích strán (napríklad modely OpenAI).

  • NEPOUŽÍVAJÚ SA na trénovanie ani zlepšovanie modelov AI spoločnosti Microsoft, pokiaľ váš správca nájomníka nevyjadrí explicitný súhlas so zdieľaním údajov s nami.

Získajte ďalšie informácie o zabezpečení a ochrane osobných údajov v službe Azure OpenAI. Ak sa chcete dozvedieť viac o tom, ako spoločnosť Microsoft všeobecnejšie chráni a používa vaše údaje, prečítajte si naše Vyhlásenie o používaní osobných údajov.

Kam idú moje údaje?

Kroky spoločnosti Microsoft sú založené na dôvere. Zaviazali sme sa k zabezpečeniu, ochrane osobných údajov a dodržiavaniu predpisov vo všetkom, čo robíme, a náš prístup k umelej inteligencii sa nijako nelíši. Zákaznícke údaje vrátane vstupov a výstupov funkcie Copilot sú uložené v rámci hraníc dôveryhodnosti platformy Microsoft Cloud.

V niektorých scenároch, ako sú funkcie využívajúce Bing a doplnky kopilotov tretích strán, môžu byť zákaznícke údaje prenášané mimo hraníc dôveryhodnosti platformy Microsoft Cloud.

Má Copilot prístup k šifrovanému obsahu?

Copilot má prístup k údajom na základe úrovne prístupu aktuálneho používateľa. Ak má používateľ v systéme Dynamics 365 a službe Power Platform prístup k šifrovaným údajom a poskytne ich funkcii Copilot, potom k nim má Copilot prístup.

Ako Copilot chráni zákaznícke údaje?

Microsoft má jedinečnú pozíciu na poskytovanie umelej inteligencie pripravenej pre podniky. Funkcia Copilot používa službu Azure OpenAI a spĺňa tak naše existujúce záväzky voči zákazníkom v oblasti ochrany osobných údajov, zabezpečenia a dodržiavania regulačných predpisov.

  • Je postavená na komplexnom prístupe spoločnosti Microsoft k zabezpečeniu, ochrane osobných údajov a dodržiavaniu predpisov. Copilot je integrovanou súčasťou služieb spoločnosti Microsoft, ako sú Dynamics 365 a Power Platform. Preberá ich politiky a procesy týkajúce sa zabezpečenia, ochrany osobných údajov a dodržiavania predpisov, ako sú viacfaktorové overovanie a hranice oblastí dodržiavania súladu.

  • Viaceré formy ochrany na zabezpečenie údajov organizácie. Technológie na strane služieb šifrujú obsah organizácií, keď sa nepoužíva aj keď sa prenáša, vďaka čomu sa zaisťuje robustné zabezpečenie. Pripojenia sú zabezpečené pomocou protokolu TLS (Transport Layer Security) a k prenosom údajov medzi produktmi Dynamics 365, Power Platform a Azure OpenAI dochádza prostredníctvom siete hlavného spojenia od spoločnosti Microsoft, aby bola zaistená spoľahlivosť aj bezpečnosť. Získajte ďalšie informácie o šifrovaní na platforme Microsoft Cloud.

  • Navrhnuté na ochranu vašich údajov na úrovni nájomníka aj na úrovni prostredia. Uvedomujeme si, že zákazníkov znepokojuje únik údajov. Modely AI spoločnosti Microsoft nie sú trénované a neučia sa z vašich údajov nájomníka ani z vašich príkazov, pokiaľ váš správca nájomníka nevyjadril explicitný súhlas so zdieľaním údajov s nami. Vo svojich prostrediach môžete riadiť prístup prostredníctvom povolení, ktoré nastavíte. Mechanizmy overovania a oprávňovania oddeľujú požiadavky na zdieľaný model medzi nájomníkmi. Copilot využíva údaje, ku ktorým máte prístup iba vy, pomocou tej istej technológie, ktorú už roky používame na zabezpečenie zákazníckych údajov.

Sú odpovede funkcie Copilot vždy presné?

Podobne ako je to v prípade každej generatívnej umelej inteligencie, odpovede funkcie Copilot nie sú zaručene na 100 % presné. Aj keď neustále zlepšujeme odpovede na otázky založené na faktoch, mali by ste stále používať svoj úsudok a kontrolovať výstup pred jeho odoslaním ostatným. Copilot poskytuje užitočné koncepty a súhrny, ktoré vám pomôžu urobiť viac, ale je to plne automatické. Vždy máte možnosť skontrolovať obsah vygenerovaný umelou inteligenciou.

Naše tímy usilovne pracujú v záujme proaktívneho riešenia problémov, ako sú mylné informácie a dezinformácie, blokovanie obsahu, bezpečnosť údajov a propagácia škodlivého alebo diskriminačného obsahu, a to v súlade s našimi princípmi zodpovedného používania umelej inteligencie.

V rámci používateľského prostredia tiež ponúkame pokyny na posilnenie zodpovedného používania obsahu vygenerovaného umelou inteligenciou a navrhovaných akcií.

  • Pokyny a príkazy. Keď používate funkciu Copilot, príkazy a ďalšie inštruktážne prvky vám pripomínajú skontrolovať a upraviť odpovede podľa potreby, ako aj manuálne skontrolovať správnosť faktov, údajov a textu, skôr než použijete obsah vygenerovaný umelou inteligenciou.

  • Citované zdroje. V prípade potreby Copilot cituje svoje informačné zdroje, či už verejné, alebo interné, aby ste ich mohli sami skontrolovať a potvrdiť odpovede.

Ďalšie informácie nájdete v časti Najčastejšie otázky týkajúce sa zodpovedného používania umelej inteligencie pre svoj produkt na portáli Microsoft Learn.

Ako blokuje funkcia Copilot škodlivý obsah?

Služba Azure OpenAI zahŕňa systém filtrovania obsahu, ktorý funguje popri základných modeloch. Modely filtrovania obsahu pre kategórie Nenávisť a spravodlivosť, Sexuálny obsah, Násilie a Sebapoškodzovanie boli špeciálne trénované a testované v rôznych jazykoch. Tento systém funguje tak, že spúšťa vstupný príkaz aj odpoveď prostredníctvom modelov klasifikácie, ktoré sú navrhnuté na identifikáciu a blokovanie výstupu škodlivého obsahu.

Škody súvisiace s nenávisťou a spravodlivosťou sa týkajú akéhokoľvek obsahu, ktorý používa pejoratívny alebo diskriminačný jazyk na základe atribútov, ako sú rasa, etnický pôvod, národnosť, rodová identita a prejav, sexuálna orientácia, náboženstvo, imigračný status, stav schopností, osobný vzhľad a konfekčná veľkosť. Spravodlivosť sa týka zabezpečenia toho, aby systémy umelej inteligencie zaobchádzali so všetkými skupinami ľudí spravodlivo bez toho, aby prispievali k existujúcim spoločenským nerovnostiam. Sexuálny obsah zahŕňa diskusie o ľudských reprodukčných orgánoch, romantických vzťahoch, aktoch zobrazených v erotických alebo láskyplných výrazoch, tehotenstve, fyzických sexuálnych praktikách vrátane tých, ktoré sú zobrazené ako napadnutie alebo vynútený akt sexuálneho násilia, prostitúcia, pornografia a zneužívanie. Násilie opisuje jazyk súvisiaci s fyzickým konaním, ktorého cieľom je ublížiť alebo zabiť, vrátane konania, zbraní a súvisiacich predmetov. Jazyk sebapoškodzovania sa vzťahuje na úmyselné činy, ktorých cieľom je zraniť alebo zabiť seba.

Získajte ďalšie informácie o filtrovaní obsahu v rámci služby Azure OpenAI.

Blokuje funkcia Copilot vkladanie chýb do príkazov (útoky typu jailbreak)?

Útoky typu jailbreak sú príkazy používateľov navrhnuté tak, aby vyprovokovali generatívny model AI k správaniu, na ktoré nebol natrénovaný, alebo k porušeniu pravidiel, ktoré mal dodržiavať. Od služieb v rámci systému Dynamics 365 a služby Power Platform sa vyžaduje, aby poskytovali ochranu pred vkladaním chýb do príkazov. Získajte ďalšie informácie o útokoch typu jailbreak a o tom, ako ich odhaliť pomocou platformy Azure AI Content Safety.

Blokuje funkcia Copilot nepriame vkladanie chýb do príkazov (nepriame útoky)?

Nepriame útoky, označované aj ako nepriame útoky na príkazy alebo útoky vkladania chýb do príkazov medzi doménami, predstavujú potenciálnu zraniteľnosť, keď tretie strany umiestňujú škodlivé pokyny do dokumentov, ku ktorým môže systém generatívnej AI získať prístup a spracovať ich. Od služieb v rámci systému Dynamics 365 a služby Power Platform sa vyžaduje, aby poskytovali ochranu pred nepriamym vkladaním chýb do príkazov. Získajte ďalšie informácie o nepriamych útokoch a o tom, ako ich odhaliť pomocou platformy Azure AI Content Safety.

Ako spoločnosť Microsoft testuje a overuje kvalitu funkcie Copilot vrátane ochrany pred vkladaním chýb do príkazov a opodstatnených odpovedí?

Každá nová iterácia produktu a jazykového modelu funkcie Copilot musí pred spustením prejsť internou kontrolou zodpovedného používania umelej inteligencie. Pred vydaním používame proces nazývaný „červený tím“ (tím simuluje nepriateľský útok, hľadá a využíva slabé miesta, aby pomohol organizácii zlepšiť jej obranu). Cieľom je posúdiť potenciálne riziká vyskytujúce sa v škodlivom obsahu, scenároch typu jailbreak a opodstatnených odpovediach. Po vydaní používame automatizované testovanie a nástroje manuálneho a automatizovaného hodnotenia na posúdenie kvality odpovedí funkcie Copilot.

Ako spoločnosť Microsoft vylepšuje základný model a meria zlepšenia v opodstatnených odpovediach?

V kontexte umelej inteligencie, najmä tej, ktorá sa zaoberá jazykovými modelmi, ako je ten, na ktorom je založená funkcia Copilot, opodstatnenie pomáha umelej inteligencii generovať odpovede, ktoré sú relevantnejšie a dávajú zmysel v skutočnom svete. Opodstatnenie pomáha zaistiť, že odpovede umelej inteligencie sú založené na spoľahlivých informáciách a sú čo najpresnejšie a najrelevantnejšie. Metriky opodstatnených odpovedí posudzujú, ako presne sú fakty uvedené v opodstatnenom obsahu poskytnutom modelu zastúpené v konečnej odpovedi.

Základné modely ako GPT-4 sú vylepšené technikami rozšíreného generovania načítania (RAG – Retrieval Augmented Generation). Tieto techniky umožňujú modelom používať viac informácií, než na akých boli trénované, aby pochopili scenár používateľa. Technika RAG funguje tak, že najprv identifikuje údaje, ktoré sú relevantné pre daný scenár, podobne ako vyhľadávací nástroj identifikuje webové stránky, ktoré sú relevantné pre hľadané výrazy používateľa. Používa viacero prístupov na identifikáciu toho, aký obsah je relevantný pre príkaz používateľa a mal by sa použiť na opodstatnenie odpovede. Prístupy zahŕňajú vyhľadávanie vzhľadom na rôzne typy indexov, ako sú invertované indexy využívajúce techniky získavania informácií, napríklad porovnávanie výrazov, alebo vektorové indexy využívajúce porovnania vzdialeností vektorov na sémantickú podobnosť. Po identifikácii relevantných dokumentov technika RAG odovzdá údaje modelu spolu s aktuálnou konverzáciou, čím model získa viac kontextu na lepšie porozumenie informáciám, ktoré už má, a na vygenerovanie odpovede, ktorá je opodstatnená v skutočnom svete. Nakoniec technika RAG skontroluje odpoveď s cieľom uistiť sa, že ju podporuje zdrojový obsah, ktorý poskytla modelu. Funkcie generatívnej umelej inteligencie funkcie Copilot začleňujú techniku RAG viacerými spôsobmi. Jedným príkladom je konverzácia s využitím údajov, keď je chatbot opodstatnený prostredníctvom vlastných zdrojov údajov zákazníka.

Ďalšia metóda na vylepšenie základných modelov je známa ako ladenie. Veľká množina údajov dvojíc dotaz – odpoveď sa zobrazuje základnému modelu, aby sa rozšíril jeho pôvodný tréning o nové vzorky, ktoré sú zamerané na konkrétny scenár. Model sa dá potom nasadiť ako samostatný model – taký, ktorý je vyladený pre daný scenár. Zatiaľ čo opodstatnenie spočíva v tom, aby boli vedomosti umelej inteligencie relevantné pre skutočný svet, ladenie spočíva v tom, aby boli vedomosti umelej inteligencie špecifickejšie pre konkrétnu úlohu alebo doménu. Microsoft používa ladenie viacerými spôsobmi. Napríklad používame vytváranie postupu služby Power Automate z opisov v prirodzenom jazyku, ktoré poskytol používateľ.

Spĺňa funkcia Copilot požiadavky na dodržiavanie regulačných predpisov?

Microsoft Copilot je súčasťou ekosystému produktov Dynamics 365 a Power Platform a spĺňa rovnaké požiadavky na dodržiavanie regulačných predpisov. Ďalšie informácie o regulačných certifikáciách pre služby spoločnosti Microsoft nájdete na portáli Service Trust Portal. Funkcia Copilot zároveň rešpektuje náš záväzok voči zodpovednému používaniu umelej inteligencie, ktorý sme si stanovili v štandarde zodpovedného používania umelej inteligencie. Spolu s tým, ako sa v priestore umelej inteligencie vyvíjajú regulácie, sa Microsoft naďalej prispôsobuje novým požiadavkám a reaguje na ne.

Získajte ďalšie informácie o dostupnosti produktov Dynamics 365, Power Platform a Copilot, ako aj o umiestnení zákazníckych údajov a o dodržiavaní globálnych, regionálnych a odvetvových požiadaviek na správu údajov.

Ďalšie informácie

Copilot v aplikáciách systému Dynamics 365 a službe Power Platform

Produkt Funkcia Vyžadujú sa spravované prostredia? Ako vypnúť funkciu
AI Builder Scenáre vo verzii Preview Nie Scenáre vo verzii Preview
Dynamics 365 Business Central Všetko (pozrite si úplný zoznam na stránke aka.ms/bcAI) Nie Aktivácia funkcií
Dynamics 365 Customer Insights - Data Vytváranie segmentov pomocou funkcie Copilot v aplikácii Customer Insights - Data (verzia Preview) Nie Customer Insights - Data má svoj vlastný príznak pre všetky funkcie Copilot prostredníctvom služby Azure OpenAI.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Data
Dynamics 365 Customer Insights - Data Prehľad zostavy prípravy údajov (verzia Preview) Nie Customer Insights - Data má svoj vlastný príznak pre všetky funkcie Copilot prostredníctvom služby Azure OpenAI.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Data
Dynamics 365 Customer Insights - Data Získanie odpovedí na otázky týkajúce sa možností z funkcie Copilot (verzia Preview) Nie Customer Insights - Data má svoj vlastný príznak pre všetky funkcie Copilot prostredníctvom služby Azure OpenAI.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Data
Dynamics 365 Customer Insights (Data) Zobrazenie dialógového okna s údajmi pomocou funkcie Copilot v aplikácii Customer Insights Nie Customer Insights - Data má svoj vlastný príznak pre všetky funkcie Copilot prostredníctvom služby Azure OpenAI.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Data
Dynamics 365 Customer Insights - Data Zobrazenie konfigurácie systému Nie Customer Insights - Data má svoj vlastný príznak pre všetky funkcie Copilot prostredníctvom služby Azure OpenAI.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Pomoc funkcie Copilot pri vzdelávaní a dosahovaní výsledkov (recenzia) Nie O tom, či je tento kopilot dostupný vo vašom prostredí, sa rozhoduje v nastaveniach správcu služby Power Platform. Zistite, ako pridať funkciu Copilot pre modelom riadené aplikácie.


Táto funkcia predstavuje „kopilota aplikácie v aplikácii Customer Insights - Journeys“, a preto je povolená v centre spravovania služby Power Platform. Ďalšie informácie: Najčastejšie otázky týkajúce sa zodpovedného používania umelej inteligencie
Dynamics 365 Customer Insights - Journeys Vytváranie činností pomocou umelej inteligencie Nie Customer Insights - Journeys má svoje vlastné príznaky pre funkcie Copilot.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Obnovenie a zdokonalenie správy Nie Customer Insights - Journeys má svoje vlastné príznaky pre funkcie Copilot.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Formátovanie e-mailov pomocou motívov s podporou umelej inteligencie Nie Customer Insights - Journeys má svoje vlastné príznaky pre funkcie Copilot.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Zacielenie na správnych zákazníkov pomocou asistenta pre dotazy

Nie Customer Insights - Journeys má svoje vlastné príznaky pre funkcie Copilot.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Začatie vytvárania e-mailov pomocou umelej inteligencie Nie Customer Insights - Journeys má svoje vlastné príznaky pre funkcie Copilot.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Používanie obrázkov vo svojom obsahu Nie Customer Insights - Journeys má svoje vlastné príznaky pre funkcie Copilot.

Ďalšie informácie: Udelenie súhlasu s používaním funkcie Copilot v aplikácii Customer Insights - Journeys
Power Apps Zostavenie aplikácií prostredníctvom konverzácie Nie Správa nastavení funkcie
Power Apps Pomoc funkcie Copilot pri vypĺňaní formulárov v modelom riadených aplikáciách Nie Správa nastavení funkcie
Power Apps Koncept dobre napísaného vstupného textu pomocou funkcie Copilot Nie, prémiová používateľská licencia Koncept dobre napísaného vstupného textu pomocou funkcie Copilot
Power Apps Excel do tabuľky Nie Správa nastavení funkcie
Power Apps Úprava aplikácie pomocou panela funkcie Copilot s použitím prirodzeného jazyka Nie Správa nastavení funkcie
Power Automate Copilot v postupoch v cloude na domovskej stránke a v návrhárovi (podrobnosti nájdete v časti Začíname používať funkciu Copilot v postupoch v cloude) Nie Ak chcete spustiť skript PowerShell, obráťte sa na oddelenie podpory.
Power Pages Všetko (podrobnosti nájdete v časti Prehľad funkcie Copilot v službe Power Pages) Nie Vypnutie funkcie Copilot v službe Power Pages

Regionálna a jazyková dostupnosť

Medzinárodná dostupnosť funkcie Copilot

Pohyb údajov naprieč geografickými oblasťami

Zabezpečenie v spoločnosti Microsoft

Ochrana osobných údajov v spoločnosti Microsoft

Vyhlásenie spoločnosti Microsoft o používaní osobných údajov

Zodpovedné používanie umelej inteligencie