Ochrana osobních údajů, zabezpečení a zodpovědné použití pro Copilot Microsoft Fabric (Preview)

Díky funkci Copilot a dalších generovaných funkcí umělé inteligence ve verzi Preview přináší Microsoft Fabric nový způsob transformace a analýzy dat, generování přehledů a vytváření vizualizací a sestav.

Než vaše firma začne používat Copilot v Prostředcích infrastruktury, můžete mít dotazy ohledně toho, jak to funguje, jak udržuje vaše obchodní data v bezpečí a dodržuje požadavky na ochranu osobních údajů a jak používat generující AI zodpovědně.

Tento článek obsahuje odpovědi na běžné otázky související se zabezpečením a ochranou osobních údajů obchodních dat, které vaší organizaci pomůžou začít pracovat s Copilotem v Prostředcích infrastruktury.

Přehled

Vaše obchodní data jsou zabezpečená.

  • Funkce Copilotu používají službu Azure OpenAI, která je plně řízena Microsoftem. Vaše data se nepoužívají k trénování modelů a nejsou k dispozici pro ostatní zákazníky.
  • Zachovejte kontrolu nad tím, kde se vaše data zpracovávají. Data zpracovávaná pomocí Copilotu v prostředcích infrastruktury zůstanou v geografické oblasti vašeho tenanta, pokud explicitně nepovolíte zpracování dat mimo vaši oblast – například umožnit uživatelům používat Copilot, když Azure OpenAI není ve vaší oblasti k dispozici nebo dostupnost je omezená kvůli vysoké poptávce. Přečtěte si další informace o nastavení správce pro Copilot.
  • Data se ukládají po dobu až 30 dnů a zaměstnanci Microsoftu je mohou zkontrolovat za účelem monitorování zneužití.

Než je použijete, zkontrolujte výstupy Copilotu.

  • Odpovědi z copilotu můžou obsahovat nepřesný nebo málo kvalitní obsah, proto si před použitím v práci nezapomeňte projít výstupy.
  • Kontroly výstupů by měly provádět lidé, kteří mohou smysluplně vyhodnotit přesnost a vhodnost obsahu.
  • Funkce Copilotu dnes fungují nejlépe v anglickém jazyce. Jiné jazyky nemusí fungovat stejně.

Důležité

Projděte si doplňkové podmínky verze Preview pro Prostředky infrastruktury, které zahrnují podmínky použití pro microsoft Generative AI Service Preview.

Jak copilot funguje

V tomto článku copilot odkazuje na řadu funkcí a funkcí generující umělé inteligence v prostředcích infrastruktury, které využívají službu Azure OpenAI.

Obecně platí, že tyto funkce jsou navržené tak, aby generovaly přirozený jazyk, kód nebo jiný obsah na základě:

a) vstupy, které poskytnete, a,

b) podkladová data , ke kterým má funkce přístup.

Například Power BI, Data Factory a Datová Věda nabízejí chaty Copilot, kde můžete klást otázky a získávat odpovědi, které jsou kontextové na vašich datech. Copilot pro Power BI může také vytvářet sestavy a další vizualizace. Copilot pro Data Factory může transformovat vaše data a vysvětlit, jaké kroky se použily. Datová Věda nabízí funkce Copilot mimo podokno chatu, například vlastní příkazy magie IPythonu v poznámkových blocích. Chaty Copilot mohou být přidány do jiných prostředí v Prostředcích infrastruktury spolu s dalšími funkcemi, které využívají Azure OpenAI pod kapotou.

Tyto informace se odesílají do služby Azure OpenAI, kde se zpracovávají a vygeneruje se výstup. Data zpracovávaná službou Azure OpenAI proto můžou zahrnovat:

Podkladová data můžou zahrnovat kombinaci schématu datové sady, konkrétních datových bodů a dalších informací relevantních pro aktuální úkol uživatele. V jednotlivých částech prostředí najdete podrobnosti o tom, jaká data jsou v tomto scénáři přístupná pro funkce Copilotu.

Interakce s Copilotem jsou specifické pro každého uživatele. To znamená, že Copilot má přístup pouze k datům, ke kterým má aktuální uživatel oprávnění, a jeho výstupy jsou viditelné jenom tomuto uživateli, pokud tento uživatel nesdílí výstup s ostatními, například sdílení vygenerované sestavy Power BI nebo vygenerovaného kódu. Copilot nepoužívá data od jiných uživatelů ve stejném tenantovi nebo jiných tenantech.

Copilot ke zpracování všech dat, včetně uživatelských vstupů, podkladových dat a výstupů Copilotu, používá Azure OpenAI , nikoli veřejně dostupné služby OpenAI. Copilot v současné době používá kombinaci modelů GPT, včetně GPT 3.5. Microsoft hostuje modely OpenAI v prostředí Microsoft Azure a služba nepracuje se službami od OpenAI, jako je ChatGPT nebo OpenAI API. Vaše data se nepoužívají k trénování modelů a nejsou k dispozici pro ostatní zákazníky. Přečtěte si další informace o Azure OpenAI.

Data z Copilotu v prostředcích infrastruktury ukládá Microsoft po dobu až 30 dnů (jak je uvedeno v podmínkách použití verze Preview), které pomáhají monitorovat a bránit zneužívajícím nebo škodlivým účelům nebo výstupům služby. Autorizovaní zaměstnanci Microsoftu můžou zkontrolovat data, která aktivovala naše automatizované systémy, aby prozkoumali a ověřili potenciální zneužití.

Proces Copilot

Tyto funkce se řídí stejným obecným procesem:

  1. Copilot obdrží výzvu od uživatele. Tato výzva může být ve formě otázky, kterou uživatel zadá do podokna chatu, nebo ve formě akce, jako je například výběr tlačítka s textem Vytvořit sestavu.
  2. Zkopírovaný předzpracuje výzvu prostřednictvím přístupu označovaného jako uzemnění. V závislosti na scénáři to může zahrnovat načtení relevantních dat, jako je schéma datové sady nebo historie chatu z aktuální relace uživatele pomocí Copilotu. Uzemnění zlepšuje specificitu výzvy, takže uživatel získá odpovědi, které jsou relevantní a použitelné pro konkrétní úkol. Načítání dat je vymezeno na data, která jsou přístupná ověřenému uživateli na základě jejich oprávnění. Další informace najdete v části Co data copilot používá a jak je zpracovává? v tomto článku.
  3. Copilot přebírá odpověď z Azure OpenAI a postprocessuje ji. V závislosti na scénáři může tento postprocesing zahrnovat zodpovědné kontroly AI, filtrování pomocí kon režim stanu race Azure nebo další omezení specifická pro firmy.
  4. Copilot vrátí odpověď uživateli ve formě přirozeného jazyka, kódu nebo jiného obsahu. Odpověď může být například ve formě chatovací zprávy nebo vygenerovaného kódu, nebo to může být kontextově vhodný formulář, například sestava Power BI nebo buňka poznámkového bloku Synapse.
  5. Uživatel před použitím zkontroluje odpověď. Odpovědi typu Copilot můžou obsahovat nepřesný nebo málo kvalitní obsah, takže je důležité, aby odborníci na danou problematiku před použitím nebo sdílením kontrolovali výstupy.

Stejně jako každá funkce v prostředcích infrastruktury je vytvořená pro určité scénáře a osoby – od datových inženýrů až po datové analytiky – každá funkce Copilot v Prostředcích infrastruktury byla také vytvořena s jedinečnými scénáři a uživateli. Informace o možnostech, zamýšlených použitích a omezeních jednotlivých funkcí najdete v části věnované prostředí, ve kterém pracujete.

Definice

Výzva nebo vstup

Text nebo akce odeslané uživateli do Copilotu. Může to být ve formě otázky, kterou uživatel zadá do podokna chatu, nebo ve formě akce, jako je například výběr tlačítka s textem Vytvořit sestavu.

Uzemnění

Technika předběžného zpracování, kdy Copilot načte další data, která jsou kontextová s výzvou uživatele, a pak tato data odešle spolu s výzvou uživatele do Azure OpenAI, aby se vygenerovala relevantnější a použitelná odpověď.

Odpověď nebo výstup

Obsah, který copilot vrátí uživateli. Odpověď může být například ve formě chatovací zprávy nebo vygenerovaného kódu nebo může být kontextově vhodný obsah, jako je sestava Power BI nebo buňka poznámkového bloku Synapse.

Jaká data copilot používá a jak se zpracovávají?

K vygenerování odpovědi používá Copilot:

  • Výzva nebo vstup uživatele a v případě potřeby
  • Další data, která se načítají prostřednictvím procesu zemnění.

Tyto informace se odesílají do služby Azure OpenAI, kde se zpracovávají a vygeneruje se výstup. Data zpracovávaná službou Azure OpenAI proto můžou zahrnovat:

  • Výzva nebo vstup uživatele
  • Uzemnění dat
  • Odpověď nebo výstup AI.

Podkladová data můžou zahrnovat kombinaci schématu datové sady, konkrétních datových bodů a dalších informací relevantních pro aktuální úkol uživatele. V jednotlivých částech prostředí najdete podrobnosti o tom, jaká data jsou v tomto scénáři přístupná pro funkce Copilotu.

Interakce s Copilotem jsou specifické pro každého uživatele. To znamená, že Copilot má přístup pouze k datům, ke kterým má aktuální uživatel oprávnění, a jeho výstupy jsou viditelné jenom tomuto uživateli, pokud tento uživatel nesdílí výstup s ostatními, například sdílení vygenerované sestavy Power BI nebo vygenerovaného kódu. Copilot nepoužívá data od jiných uživatelů ve stejném tenantovi nebo jiných tenantech.

Copilot používá azure OpenAI ( nikoli veřejně dostupné služby OpenAI) ke zpracování všech dat, včetně uživatelských vstupů, zeměných dat a výstupů Copilot. Copilot v současné době používá kombinaci modelů GPT, včetně GPT 3.5. Microsoft hostuje modely OpenAI v prostředí Microsoft Azure a služba nepracuje s žádnými službami od OpenAI (například ChatGPT nebo OpenAI API). Vaše data se nepoužívají k trénování modelů a nejsou k dispozici pro ostatní zákazníky. Přečtěte si další informace o Azure OpenAI.

Data z Copilotu v prostředcích infrastruktury ukládá Microsoft po dobu až 30 dnů (jak je uvedeno v podmínkách použití verze Preview), které pomáhají monitorovat a bránit zneužívajícím nebo škodlivým účelům nebo výstupům služby. Autorizovaní zaměstnanci Microsoftu můžou zkontrolovat data, která aktivovala naše automatizované systémy, aby prozkoumali a ověřili potenciální zneužití.

Rezidence dat a dodržování předpisů

Zachovejte kontrolu nad tím, kde se vaše data zpracovávají. Data zpracovávaná pomocí Copilotu v prostředcích infrastruktury zůstanou v geografické oblasti vašeho tenanta, pokud explicitně nepovolíte zpracování dat mimo vaši oblast – například umožnit uživatelům používat Copilot, když Azure OpenAI není ve vaší oblasti k dispozici nebo dostupnost je omezená kvůli vysoké poptávce. (Podívejte se , kde je aktuálně k dispozici Azure OpenAI.)

Pokud chcete povolit zpracování dat jinde, může správce zapnout nastavení Data odesílaná do Azure OpenAI, která se dají zpracovat mimo geografickou oblast vašeho tenanta, hranici dodržování předpisů nebo instanci národního cloudu. Přečtěte si další informace o nastavení správce pro Copilot.

Co mám vědět, aby se copilot používal zodpovědně?

Microsoft se zavazuje zajistit, aby naše systémy AI byly řízeny našimi zásadami AI a zodpovědnými standardy AI. Mezi tyto zásady patří možnost našich zákazníků efektivně používat tyto systémy a v souladu s jejich zamýšlenými použitími. Náš přístup k zodpovědné umělé inteligenci se neustále vyvíjí tak, aby aktivně řešil nově vznikající problémy.

Funkce Copilotu v Prostředcích infrastruktury jsou vytvořené tak, aby splňovaly standard Zodpovědné AI, což znamená, že jsou zkontrolovány multidisenzačními týmy o potenciálních škodách a následně jsou upřesněny tak, aby zahrnovaly zmírnění těchto škod.

Než použijete Copilot, mějte na paměti omezení copilotu:

  • Odpovědi typu Copilot můžou obsahovat nepřesný nebo málo kvalitní obsah, proto si před použitím v práci nezapomeňte projít výstupy.
  • Lidé, kteří mají možnost smysluplně vyhodnotit přesnost a vhodnost obsahu, by měli zkontrolovat výstupy.
  • Funkce Copilotu v současné době fungují nejlépe v anglickém jazyce. Jiné jazyky nemusí fungovat stejně.

Copilot for Fabric workloads

Ochrana osobních údajů, zabezpečení a zodpovědné použití pro:

Poznámky podle verze

Tady se zobrazí další informace o budoucích verzích nebo aktualizacích funkcí.

Další kroky