Споделяне чрез


ЧЗВ за защитата и поверителността на данните в Copilot за Dynamics 365 и Power Platform

Функциите на Copilot за Dynamics 365 и Power Platform следват набор от основни практики за защита и поверителност, както и стандарта на отговорния ИИ на Microsoft. Данните от Dynamics 365 и Power Platform са защитени от всеобхватни, водещи в отрасъла контроли за съответствие, защита и поверителност.

Copilot е изграден върху услугата Microsoft Azure OpenAI и се изпълнява изцяло в облака на Azure. Услугата Azure OpenAI предлага регионална наличност и отговорно филтриране на съдържание от AI. Copilot използва модели на OpenAI с всички възможности за защита на Microsoft Azure. OpenAI е независима организация. Ние не споделяме вашите данни с OpenAI.

Функциите на Copilot не са налични във всички географски региони и езици на Azure. В зависимост от това къде се хоства вашата среда, може да се наложи да разрешите движението на данни между различни географски области, за да ги използвате. За повече информация вижте статиите, изброени под Движение на данни между различни географски области.

Какво се случва с данните ми, когато използвам Copilot?

Вие контролирате своите данни. Microsoft не споделя данните ви с трети лица, освен ако не сте дали разрешение за това. Освен това не използваме вашите клиентски данни, за да обучаваме Copilot или неговите функции на AI, освен ако не ни предоставите съгласие за това. Copilot спазва съществуващите разрешения и правила за данни и отговорите му към вас са само въз основа на данни, до които лично имате достъп. За повече информация относно това как можете да контролирате данните си и как се обработват те вижте статиите, изброени в Copilot в приложенията на Dynamics 365 и Power Platform.

Copilot следи за злоупотреба или опасна употреба на услугата с временна обработка. Ние не съхраняваме и не извършваме пряк преглед на входни и изходни данни на Copilot с цел следене за злоупотреби.

Как Copilot използва моите данни? 

Всяка услуга или функция използва Copilot въз основа на данните, които предоставяте или сте конфигурирали да се обработват от Copilot.

Вашите заявки (входни данни) и отговорите на Copilot (изходни данни или резултати):

  • НЕ са достъпни за други клиенти;

  • НЕ се използват за обучение или подобряване на продукти или услуги на трети лица (като например модели на OpenAI);

  • НЕ се използват за обучение или подобряване на модели на AI на Microsoft, освен ако администраторът на клиента ви не включи опцията за споделяне на данни с нас.

Научете повече за поверителността и защитата на данните на услугата Azure OpenAI. За да научите повече за това как Microsoft защитава и използва вашите данни по-общо, прочетете нашата Декларация за поверителност.

Къде отиват данните ми?

В Microsoft държим на отговорността. Ние сме ангажирани със защитата, поверителността и съответствието във всичко, което правим, и нашият подход към AI не е по-различен. Клиентските данни, включително входните и изходните данни в Copilot, се съхраняват в границите на доверие на Microsoft Cloud.

В някои случаи, като например при функции, поддържани от Bing и добавки за подпомагане от ИИ на трети лица, клиентските данни може да се предават извън границата на доверие в Microsoft Cloud.

Има ли Copilot достъп до шифровано съдържание?

Данните се предоставят на Copilot само въз основа на нивото на достъп на текущия потребител. Ако даден потребител има достъп до шифрованите данни в Dynamics 365 и Power Platform и потребителят ги предостави на Copilot, тогава Copilot ще има достъп до тях.

Как Copilot защитава клиентските данни?

Microsoft има уникалната възможност да предостави готов за корпоративно използване AI. Copilot се предоставя от услугата Azure OpenAI и спазва нашите съществуващи ангажименти за поверителност, защита и нормативно съответствие към нашите клиенти.

  • Създаден с прилагане на всестранния подход на Microsoft към защитата, поверителността и съответствието. Copilot е интегриран в услуги на Microsoft, като Dynamics 365 и Power Platform, и наследява техните правила и процеси за защита, поверителност и съответствие, като например многофакторно удостоверяване и граници на съответствие.

  • Множество форми на защита за опазване на данните на организацията. Технологиите от страна на услугата шифроват организационно съдържание както в неактивно състояние, така и при пренос за стабилна защита. Връзките са защитени със Защита на транспортния слой (TLS) и прехвърлянето на данни между Dynamics 365, Power Platform и Azure OpenAI се извършва през опорната мрежа на Microsoft, за да се гарантира надеждност и безопасност. Научете повече за шифроването в Microsoft Cloud.

  • Архитектура, която защитава данните на ниво клиент и среда. Знаем, че изтичането на данни е източник на притеснения за клиентите. Моделите на AI на Microsoft не се обучават и не се учат от вашите данни за клиента или вашите заявки освен ако администраторът на клиента ви не е избрал опцията да споделя данни с нас. Във вашите среди можете да контролирате достъпа чрез разрешения, които сте задали. Механизмите за удостоверяване и упълномощаване разделят заявките към споделения модел между клиентите. Copilot използва данни, до които имате достъп само вие, като използва същата технология, с която от години защитаваме данните на клиентите.

Отговорите от Copilot винаги ли са фактически верни?

Както при всеки генеративен AI няма гаранция, че отговорите от Copilot са 100% фактически верни. Макар че продължаваме да подобряваме отговорите на запитвания, основани на факти, все пак трябва самостоятелно да преценявате и преглеждате резултатите, преди да ги изпратите на други хора. Copilot предоставя полезни чернови и резюмета, за да ви помогне да правите повече, но е напълно автоматичен. Винаги имате възможност да прегледате генерираното от AI съдържание.

Екипите ни работят усилено, за да могат своевременно да се справят с различни проблеми, като например подвеждаща и невярна информация, блокиране на съдържание, безопасност на данните и популяризиране на опасно или дискриминационно съдържание, както е посочено в нашите принципи за отговорен ИИ.

Освен това предлагаме насоки относно практическата работа, за да подкрепим отговорното използване на съдържанието, генерирано от AI, и предложените действия.

  • Инструкции и заявки. Когато използвате Copilot, заявките и други елементи с инструкции ви напомнят да преглеждате и редактирате отговорите според необходимостта и ръчно да проверявате точността на фактите, данните и текста, преди да използвате генерираното от AI съдържание.

  • Цитирани източници. Когато е приложимо, Copilot цитира своите източници на информация, независимо дали са публични, или вътрешни, така че да можете сами да ги прегледате, за да потвърдите отговорите.

За повече информация вижте често задаваните въпроси за отговорен ИИ за вашия продукт в Microsoft Learn.

Как Copilot блокира опасното съдържание?

Услугата Azure OpenAI включва система за филтриране на съдържанието, която работи заедно с основните модели. Моделите за филтриране на съдържание за категориите „Омраза и справедливост“, „Сексуално съдържание“, „Насилие“ и „Самонараняване“ са специално обучени и тествани на различни езици. Тази система работи, като изпълнява както входната заявка, така и отговора чрез модели за класифициране, които са предназначени да идентифицират и блокират извеждането на вредно съдържание.

Вреди, свързани с омраза и справедливост, се отнасят до всяко съдържание, което използва пейоративен или дискриминационен език въз основа на признаци, като раса, етническа принадлежност, националност, полова идентичност и изразяване, сексуална ориентация, религия, имиграционен статус, статус на способности, личен външен вид и размер на тялото. Справедливостта се отнася до това да се гарантира, че AI системите третират всички групи хора по справедлив начин, без да допринасят за съществуващите обществени неравенства. Сексуалното съдържание включва дискусии за човешки репродуктивни органи, романтични връзки, действия, представени в еротични или нежни термини, бременност, физически сексуални действия, включително такива, представени като нападение или принудителен акт на сексуално насилие, проституция, порнография и злоупотреба. Насилието описва език, свързан с физически действия, които имат за цел да наранят или убият, включително действия, оръжия и свързани обекти. Езикът, свързан със самонараняване, се отнася до умишлени действия, които имат за цел самонараняване или самоубийство.

Научете повече за филтрирането на съдържание на Azure OpenAI.

Copilot блокира ли инжектиранията на подкани (джейлбрейк атаки)?

Джейлбрейк атаките са заявки от потребители, които са предназначени да провокират генеративния AI модел да прояви поведение, което е бил обучен да избягва, или да наруши правилата, които е настроен да спазва. Услугите в Dynamics 365 и Power Platform са задължени да защитават от инжектиране на заявки. Научете повече за джейлбрейк атаките и как да използвате функцията за защита на съдържание от AI на Azure, за да ги откривате.

Copilot блокира ли непреки инжектирания на подкани (непреки атаки)?

Непреките атаки, наричани още непреки атаки с подкани или междудомейнови атаки с инжектиранията на подкани, са потенциална уязвимост където трети страни поставят злонамерени инструкции в документи, до които системата на генеративния ИИ може да има достъп и които може да обработва. Услугите в Dynamics 365 и Power Platform са задължени да защитават от непреки инжектирания на подкани. Научете повече за непреките атаките и как да използвате функцията за защита на съдържание от AI на Azure, за да ги откривате.

Как Microsoft тества и валидира качеството на Copilot, включително защита от инжектиране на заявки и обосновани отговори?

Всеки нов продукт на Copilot и итерация на езиков модел трябва да преминат през вътрешна проверка за отговорен ИИ, преди да може да бъдат пуснати. Преди пускане използваме процес, наречен „червен екип“ (при който екип симулира вражеска атака, като открива и използва слабости, за да помогне на организацията да подобри защитата си), за да оценим потенциалните рискове от вредно съдържание, сценарии за джейлбрейк и обосновани отговори. След пускането ние използваме автоматизирано тестване и ръчни и автоматизирани инструменти за оценка, за да оценим качеството на отговорите от Copilot.

Как Microsoft подобрява базовия модел и измерва подобренията в обоснованите отговори?

В контекста на AI, особено AI, който се занимава с езикови модели като този, на който се базира Copilot, обвързването помага на AI да генерира отговори, които са по-подходящи и имат смисъл в реалния свят. Обвързването помага да се гарантира, че отговорите на AI се основават на надеждна информация и са възможно най-точни и подходящи. Метриките за обоснован отговор оценяват доколко точно фактите, посочени в съдържанието за обвързване, предоставено на модела, са представени в крайния отговор.

Базовите модели, като GPT-4, са подобрени от техниките за генериране с добавено извличане (RAG). Тези техники позволяват на моделите да използват повече информация, отколкото са били обучени, за да разберат сценария на потребителя. RAG работи, като първо идентифицира данни, които са подходящи за сценария, подобно на това как търсачката идентифицира уеб страници, които са подходящи за думите за търсене на потребителя. Техниката използва множество подходи, за да идентифицира какво съдържание е подходящо за потребителската заявка и какво да се използва за обосноваване на отговора. Подходите включват търсене спрямо различни типове индекси, като например обърнати индекси чрез техники за извличане на информация, като съпоставяне на термини, или векторни индекси, използващи сравнения на векторни разстояния за семантично сходство. След като идентифицира съответните документи, RAG предава данните на модела заедно с текущия разговор, като дава на модела повече контекст, за да разбере по-добре информацията, която вече има, и да генерира отговор, който е обоснован в реалния свят. Накрая RAG проверява отговора, за да се увери, че се поддържа от изходното съдържание, предоставено на модела. Генеративните функции на AI на Copilot включват RAG по множество начини. Един пример е чатът с използване на данни, където чатботът е базиран на собствените източници на данни на клиента.

Друг метод за подобряване на базовите модели се нарича фина настройка. Голям набор от данни от двойки заявка-отговор се показва на базов модел, за да се увеличи първоначалното му обучение с нови извадки, които са насочени към конкретен сценарий. След това моделът може да бъде внедрен като отделен модел – такъв, който е фино настроен за съответния сценарий. Докато обвързването има за цел да направи знанията на AI уместни за реалния свят, целта на фината настройка е да прецизира знанията на AI за конкретна задача или област. Microsoft използва фина настройка по много начини. Например използваме създаване на потоци в Power Automate от описания на естествен език, предоставени от потребителя.

Copilot изпълнява ли нормативните изисквания за съответствие?

Microsoft Copilot е част от екосистемата на Dynamics 365 и Power Platform и отговаря на същите изисквания за нормативно съответствие. За повече информация за нормативното сертифициране за услугите на Microsoft посетете Service Trust Portal. Също така Copilot спазва ангажимента ни за отговорен ИИ, който е приложен чрез нашия стандарт за отговорен ИИ. С развитието на нормативната уредба относно AI Microsoft продължава да се адаптира и да реагира в съответствие с новите изисквания.

Научете повече за наличността на Dynamics 365, Power Platform и Copilot, за местоположенията на клиентските данни и за съответствието с глобалните, регионалните и специфичните за съответния отрасъл изисквания за управление на данните.

Научете повече

Copilot в приложения на Dynamics 365 и Power Platform

Продукт Функция Изискват ли се „Управлявани среди“? Как да изключите функцията
AI Builder Сценарии на етап преглед Не Сценарии на етап преглед
Dynamics 365 Business Central Всички (вижте пълния списък на aka.ms/bcAI.) Не Активиране на функции
Dynamics 365 Customer Insights - Data Създаване на сегменти с Copilot в Customer Insights - Data (преглед) Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Общ преглед на отчета за подготовка на данни (преглед) Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Получаване на отговори на въпроси относно възможностите от Copilot (преглед) Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights (данни) Провеждане на диалог с данни с помощта на Copilot в Customer Insights Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Преглед на конфигурацията на системата Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot ви помага да учите и да правите повече (преглед) Не Дали тази функция за подпомагане от ИИ е налице във вашата среда, се определя от настройките за администратори на Power Platform. Научете как да добавите Copilot за приложения, управлявани от модел.


Тази възможност е „подпомагане от ИИ в приложение в Customer Insights - Journeys“ и затова е активирана в центъра за администриране на Power Platform. Научете повече: ЧЗВ за отговорен ИИ
Dynamics 365 Customer Insights - Journeys Създаване на пътешествия с помощта на AI Не Customer Insights - Journeys има собствени флагове за функциите на Copilot.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Освежаване и усъвършенстване на вашето съобщение Не Customer Insights - Journeys има собствени флагове за функциите на Copilot.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Промяна на стила на имейлите ви с теми, подпомагани от AI Не Customer Insights - Journeys има собствени флагове за функциите на Copilot.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Насочване към подходящите клиенти чрез подпомагане за заявки

Не Customer Insights - Journeys има собствени флагове за функциите на Copilot.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Използване на AI за стартиране на създаване на имейли Не Customer Insights - Journeys има собствени флагове за функциите на Copilot.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Използване на изображения във вашето съдържание Не Customer Insights - Journeys има собствени флагове за функциите на Copilot.

Научете повече: Предоставяне на съгласие за използване на Copilot в Customer Insights - Journeys
Power Apps Създаване на приложения чрез разговор Не Управление на настройки на функцията
Power Apps Подпомагане от Copilot за попълване на формуляр в приложения, управлявани от модел Не Управление на настройки на функцията
Power Apps Изготвяне на добре написан входен текст с Copilot Не, премиален потребителски лиценз Изготвяне на добре написан входен текст с Copilot
Power Apps Excel към таблица Не Управление на настройки на функцията
Power Apps Използване на естествен език за редактиране на приложение чрез панела на Copilot Не Управление на настройки на функцията
Power Automate Copilot в потоци за облак на началната страница и в дизайнера (вижте Първи стъпки с Copilot в потоци за облак за подробности.) Не Свържете се с екипа за поддръжка за изпълнение на скрипт на PowerShell.
Power Pages Всички (вижте Общ преглед на Copilot в Power Pages за подробности.) Не Изключване на Copilot в Power Pages

Регионална и езикова наличност

Международна наличност на Copilot

Движение на данни между различни географски области

Защита в Microsoft

Поверителност в Microsoft

Декларацията за поверителност на Microsoft

Отговорен ИИ