Споделяне чрез


Често задавани въпроси за Copilot сигурност на данните и поверителност за Dynamics 365 и Power Platform

Copilot for Dynamics 365 и Power Platform функциите следват набор от основни практики за сигурност и поверителност и стандарта Microsoft Responsible AI. Данните в Dynamics 365 и Power Platform са защитени от всеобхватни, водещи в отрасъла контроли за съответствие, сигурност и поверителност.

Copilot е изграден на Microsoft Azure OpenAI Service и работи изцяло в облака на Azure. Azure OpenAI предлага регионална наличност и отговорно филтриране на съдържанието от AI. Copilot използва OpenAI модели с всички възможности за сигурност на Microsoft Azure. OpenAI е независима организация. Не споделяме вашите данни с OpenAI.

Функциите на Copilot не са налични за всички географски региони и езици на Azure. В зависимост от това къде се хоства вашата среда, може да се наложи да разрешите прехвърлянето на данни между различни географски области, за да използвате съответните функции. За повече информация вижте статиите, изброени под Движение на данни в различни географски райони.

Какво се случва с данните ми, когато използвам Copilot?

Вие контролирате своите данни. Microsoft не споделя данните ви не с трети лица, освен ако не сте дали разрешение за това. Освен това не използваме клиентските ви данни за обучение на Copilot или неговите функции на AI, освен ако не сте ни предоставили съгласие да правим това. Copilot спазва съществуващите разрешения и правила за данните и отговорите на услугата за вас се основават само на данни, до които лично имате достъп. За повече информация относно това как можете да контролирате данните си и как се обработват данните ви, вижте статиите, изброени под Copilot в приложенията на Dynamics 365 и Power Platform.

Copilot следи за злоупотреба или опасна употреба на услугата с временна обработка. Не съхраняваме входните и изходните данни на Copilot с цел наблюдение за злоупотреби, нито те се преглеждат от хора.

Как Copilot използва моите данни? 

Всяка услуга или функция използва Copilot въз основа на данните, които предоставите или които конфигурирате за достъп от Copilot.

Вашите подкани (входни данни) и отговорите на Copilot (изходни данни или резултати):

  • НЕ са достъпни за други клиенти;

  • НЕ се използват за обучение или подобряване на продукти или услуги на трети лица (като например модели на OpenAI);

  • НЕ се използват за обучение или подобряване на модели на AI на Microsoft, освен ако администраторът на ползвания от вас клиент не е включил опцията за споделяне на данни с нас.

Научете повече за поверителността и защитата OpenAI на данните на услугата на Azure. За да научите повече за това как Microsoft защитава и използва вашите данни по-общо, прочетете нашата Декларация за поверителност.

Къде отиват данните ми?

За Microsoft доверието е изключително важно. Ние сме се ангажирали да обезпечаваме сигурност, поверителност и съответствие за всички свои дейности и подходът ни към AI не е по-различен. Клиентските данни, включително входните и изходните данни за Copilot, се съхраняват в границите на доверие на Microsoft Cloud.

В някои случаи, като например при функции, поддържани от Bing и добавки за подпомагане от ИИ от други производители, клиентските данни може да се предават извън границите на доверие на Microsoft Cloud.

Има ли Copilot достъп до шифровано съдържание?

Данните се предоставят на Copilot въз основа на нивото на достъп на текущия потребител. Ако даден потребител има достъп до шифровани данни в Dynamics 365 и Power Platform и ги предостави на Copilot, тогава Copilot има достъп до тях.

Как Copilot защитава клиентските данни?

Microsoft има уникалната възможност да предостави готов за корпоративно използване AI. Copilot се предоставя от услугата Azure OpenAI и спазва съществуващите ангажименти, които сме поели към клиентите си, за поверителност, сигурност и спазване на законодателството.

  • Изграден върху цялостния подход на Microsoft към сигурността, поверителността и съответствието. Copilot е интегриран в услугите на Microsoft, като Dynamics 365 и Power Platform, и наследява техните правила и процеси за сигурност, поверителност и съответствие, като например многофакторно удостоверяване и граници на съответствие.

  • Множество форми на защита защитават организационните данни. Технологиите от страна на услугата шифроват съдържанието от организацията, докато се съхранява и докато се предава, за да се постигне повишена сигурност. Връзките са защитени с протокол „Защита на транспортния слой“ (TLS) и прехвърлянето на данни между Dynamics 365, Power Platform и Azure OpenAI се извършва през опорната мрежа на Microsoft, гарантирайки надеждност и безопасност. Научете повече за шифроването в облака на Microsoft.

  • Проектиран да защитава вашите данни както на ниво клиент, така и на ниво околна среда. Знаем, че изтичането на данни е източник на притеснения за клиентите. Моделите на AI на Microsoft не се обучават и не се учат от вашите данни в клиента и от подканите ви, освен ако администраторът на клиента ви не е избрал да споделя данни с нас. В средите си можете да контролирате достъпа чрез разрешения, които сте задали. Механизмите за удостоверяване и оторизация отделят заявките от различните клиенти към споделения модел. Copilot използва данни, до които имате достъп само вие, при което се прилага същата технология, с която от години защитаваме данните на клиентите.

Отговорите от Copilot винаги ли са фактически верни?

Както при всеки генеративен AI, няма гаранция, че отговорите на Copilot са 100% фактически верни. Продължаваме да подобряваме отговорите на запитвания, основани на факти, но все пак трябва самостоятелно да преценявате и преглеждате резултатите, преди да ги изпратите на други хора. Copilot предоставя полезни чернови и резюмета, за да ви помага да вършите повече, но е напълно автоматичен. Винаги имате възможност да прегледате генерираното от AI съдържание.

Нашите екипи работят проактивно за справяне с проблеми като дезинформация и дезинформация, блокиране на съдържание, безопасност на данните и популяризиране на вредно или дискриминационно съдържание в съответствие с нашите принципи за отговорен изкуствен интелект.

Освен това предоставяме насоки по време на практическата работа, за да подкрепим отговорното използване на съдържанието и предложените действия, генерирани от AI.

  • Инструкции и подкани. Когато използвате Copilot, подкани и други инструкции ви напомнят да преглеждате и редактирате отговорите според необходимостта, както и ръчно да проверявате точността на фактите, данните и текста, преди да използвате генерираното от AI съдържание.

  • Цитирани източници. Където е приложимо, Copilot цитира своите източници на информация, независимо дали са публични, или вътрешни, така че да можете сами да ги прегледате, за да потвърдите отговорите му.

За повече информация вижте често задаваните въпроси за отговорен AI за вашия продукт в Microsoft Learn.

Copilot блокира ли инжектиранията на подкани (джейлбрейк атаки)?

Jailbreak атаките са потребителски подкани, които са предназначени да провокират генеративния AI модел да се държи по начини, по които е бил обучен да не го прави, или да нарушава правилата, които му е казано да следва. Услугите в Dynamics 365 и Power Platform са задължени да предпазват от инжектиране на подкани. Научете повече за Jailbreak атаките и как да използвате Azure AI Content Safety, за да ги откривате.

Как Microsoft тества и проверява качеството на Copilot, включително незабавна защита от инжектиране на подкани и уместни отговори?

Всеки нов продукт на Copilot и итерация на езиков модел трябва да преминат през вътрешен преглед за отговорен AI, преди да могат да бъдат пуснати. Преди пускане използваме процес, наречен „работа на червения екип“ (при който екип симулира вражеска атака, намирайки и експлоатирайки слабости, за да помогне на организацията да подобри защитата си), за да оценим потенциалните рискове от вредно съдържание, сценариите за джейлбрейк и уместните отговори. След пускането използваме автоматизирано тестване и ръчни и автоматизирани инструменти за оценка, за да оценим качеството на отговорите на Copilot.

Как Microsoft подобрява базовия модел и измерва подобренията на уместните отговори?

В контекста на AI, особено AI, който се занимава с езикови модели като този, на който се основава Copilot, заземяването помага на AI да генерира отговори, които са по-подходящи и имат смисъл в реалния свят. Повишаването на уместността помага да се гарантира, че отговорите на AI се основават на надеждна информация и са възможно най-точни и подходящи. Метриките за уместни отговори оценяват доколко точно фактите, посочени в съдържанието за повишаване на уместността, което е предоставено на модела, са представени в крайния отговор.

Базовите модели, като GPT-4, се подобряват чрез техники за генериране, подобрено чрез извличане (RAG). Тези техники позволяват на моделите да използват и друга информация в допълнение към тази, с която са били обучени, за да разберат сценария на потребителя. RAG функционира, като първо идентифицира данните, които са подходящи за съответния сценарий, подобно на начина, по който търсачка идентифицира уеб страниците, които са подходящи за думите за търсене на потребителя. RAG използва множество подходи, за да установи кое съдържание е подходящо за потребителската подкана и следва да се използва за повишаване на уместността на отговора. Тези подходи включват търсене в различни типове индекси, като например инвертирани индекси, използващи техники за извличане на информация като съпоставяне на термини, или векторни индекси, използващи векторни сравнения на разстояние за семантично сходство. След като идентифицира подходящите документи, RAG предава данните на модела заедно с текущия разговор, което дава на модела повече контекст, за да разбере по-добре информацията, която вече има, и да генерира отговор, който е основан на реалността. Накрая RAG проверява отговора, за да се увери, че се подкрепя от изходното съдържание, предоставено на модела. Функциите на генеративен AI на Copilot включват RAG по няколко начина. Един пример е чатът с използване на данни, където уместността на чатбота е повишена чрез собствените източници на данни на клиента.

Друг метод за подобряване на основополагащите модели е известен като фина настройка. На базовия модел се предоставя голям набор от данни с двойки заявка – отговор, за да се допълни първоначалното му обучение с нови примери, насочени към конкретен сценарий. След това моделът може да бъде внедрен като отделен модел, който е фино настроен за този сценарий. Докато повишаването на уместността има за цел да направи знанията на AI релевантни за реалния свят, фината настройка служи да направи знанията на AI по-специфични за конкретна задача или област. Microsoft използва фината настройка по много начини. Например използваме създаване на потоци в Power Automate от описания на естествен език, предоставени от потребителя.

Как Copilot блокира опасното съдържание?

Услугата Azure OpenAI включва система за филтриране на съдържанието, която работи заедно с основните модели. Моделите за филтриране на съдържание за категориите „Справедливост и насаждане на омраза“, „Сексуално съдържание“, „Насилие“ и „Самонараняване“ са специално обучени и тествани на различни езици. Тази система работи, като обработва входната подкана и отговора с класификационни модели, които са предназначени да идентифицират и блокират резултатите, включващи опасно съдържание.

Опасното съдържание, свързано със справедливост и насаждане на омраза, представлява всяко съдържание, което използва обиден или дискриминационен език въз основа на признаци като раса, етническа принадлежност, националност, полова идентичност и изразяване, сексуална ориентация, религия, имиграционен статус, увреждания, външен вид и размери на тялото. Справедливостта се отнася до това да се гарантира, че системите с ИИ третират всички групи хора справедливо, без да допринасят за съществуващите обществени неравенства. Сексуалното съдържание включва дискусии за човешките репродуктивни органи, романтични взаимоотношения, действия, изобразени в еротични или любящи термини, бременност, физически сексуални действия, включително тези, представени като нападение или принудителен акт на сексуално насилие, проституция, порнография и злоупотреба. Насилието описва език, свързан с физически действия, които имат за цел да навредят или убият, включително действия, оръжия и свързани с тях лица. Езикът на самонараняването се отнася до умишлени действия, които имат за цел да наранят или убият себе си.

Научете повече за филтрирането на OpenAI съдържание в Azure.

Copilot изпълнява ли нормативните изисквания за съответствие?

Microsoft Copilot е част от екосистемата на Dynamics 365 и Power Platform и изпълнява същите изисквания за съответствие с нормативните изисквания. За повече информация относно регулаторните сертификати на услугите на Microsoft посетете Портал за сигурност науслугите. Освен това, Copilot се придържа към нашия ангажимент за отговорен AI, който се прилага чрез нашия стандарт за отговорен AI. С развитието на нормативната уредба относно AI Microsoft продължава да се адаптира и да изпълнява новите изисквания.

Научете повече за наличността на Dynamics 365 Power Platform и Copilot, местоположенията на клиентските данни и съответствието с глобалните, регионалните и специфичните за отрасъла изисквания за управление на данните.

Научете повече

Copilot в приложения на Dynamics 365 и Power Platform

Продукт Функция Изискват ли се управлявани среди? Как да изключите функцията
AI Builder Сценарии във визуализация Не Сценарии във визуализация
Dynamics 365 Customer Insights - Data Създаване на сегменти с Copilot за Customer Insights - Data (предварителен преглед) Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Общ преглед на подготвителния отчет за данни (предварителен преглед) Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Получете отговори на въпроси относно възможностите от Copilot (предварителен преглед) Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights (данни) Диалогов прозорец с данни с помощта на Copilot в "Информация за клиентите" Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Преглед на конфигурацията на системата Не Customer Insights - Data има собствен флаг за всички свои функции на Copilot от Azure OpenAI.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot ви помага да научите и да направите повече (преглед) Не Дали това подпомагане от ИИ е налице във вашата среда, се определя от настройките на администратора на Power Platform. Научете как да добавите Copilot за приложения, базирани на модели.


Тази възможност е "app copilot in Customer Insights - Journeys" и затова е активирана в Power Platform центъра за администриране. Научете повече: Отговорен AI FAQ
Dynamics 365 Customer Insights - Journeys Създавайте пътувания с помощта на AI помощ Не Customer Insights - Journeys има свои собствени флагове за функциите на Copilot.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Обновете и усъвършенствайте посланието си Не Customer Insights - Journeys има свои собствени флагове за функциите на Copilot.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Стилизирайте имейлите си с теми, подпомагани от AI Не Customer Insights - Journeys има свои собствени флагове за функциите на Copilot.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Насочване към правилните клиенти с помощта на помощ за заявки

Не Customer Insights - Journeys има свои собствени флагове за функциите на Copilot.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Използвайте AI, за да стартирате създаването на имейли Не Customer Insights - Journeys има свои собствени флагове за функциите на Copilot.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Използване на изображения във вашето съдържание Не Customer Insights - Journeys има свои собствени флагове за функциите на Copilot.

Научете повече: Дайте съгласие за използване на Copilot в Customer Insights - Journeys
Power Apps Създаване на приложения чрез разговор Не Управление на настройките на функции
Power Apps Помощ за копилот за попълване на формуляри в приложения, управлявани от модела Не Управление на настройките на функции
Power Apps Проект добре написан, входен текст с Copilot Не, премиален потребителски лиценз Проект добре написан, входен текст с Copilot
Power Apps Excel в таблица Не Управление на настройките на функции
Power Apps Използване на естествен език за редактиране на приложение с помощта на панела Copilot No Управление на настройките на функции
Power Automate Copilot в облачните потоци на началната страница и в дизайнера (Вижте Първи стъпки с Copilot в потоците в облака за подробности.) No Свържете се с поддръжката, за да изпълните скрипт на PowerShell.
Power Pages Всички (Вижте преглед на Copilot в Power Pages за подробности.) No Изключете Copilot в Power Pages

Регионална и езикова наличност

Copilot международна наличност

Движение на данни между различни географски области

Сигурността в Microsoft

Поверителността в Microsoft

Декларация за поверителност на Microsoft

Отговорен AI