Поширені запитання про безпеку та конфіденційність даних Copilot для Dynamics 365 та Power Platform

Copilot for Dynamics 365 і Power Platform функції відповідають набору основних практик безпеки та конфіденційності, а також стандарту відповідального штучного інтелекту Microsoft. Дані Dynamics 365 і Power Platform захищено найкращими в галузі комплексними засобами контролю безпеки, конфіденційності та відповідності вимогам.

Copilot побудований на Microsoft Azure OpenAI Service і повністю працює в хмарі Azure. Служба Azure OpenAI пропонує регіональну доступність і фільтрування вмісту відповідно до принципів відповідального використання ШІ. Copilot використовує OpenAI моделі з усіма можливостями Microsoft Azure безпеки. OpenAI – незалежна організація. Ми не передаємо ваші дані компанії OpenAI.

Функції Copilot доступні не в усіх географічних регіонах Azure й не всіма мовами. Залежно від того, де розміщено ваше середовище, для їх використання може знадобитися дозволити переміщення даних між регіонами. Щоб дізнатися більше, перегляньте статті, перелічені в розділі Переміщення даних між географічними регіонами.

Що відбувається з моїми даними, коли я використовую Copilot?

Ви контролюєте використання своїх даних. Microsoft не передає ваші дані третім сторонам, якщо ви не надали на це дозвіл. Крім того, ми не використовуємо ваші дані (дані клієнта) для навчання технології Copilot і її функцій ШІ, якщо ви не надали на це згоду. Copilot дотримується наявних дозволів і політик щодо даних і генерує для вас відповіді лише на основі даних, до яких ви особисто маєте доступ. Для отримання додаткової інформації про те, як ви можете керувати своїми даними та як вони обробляються, перегляньте статті, перелічені в розділі Copilot у програмах Dynamics 365 та Power Platform.

Copilot відстежує неналежне чи шкідливе використання служби без збереження даних. Ми не зберігаємо вхідні й вихідні дані Copilot і не перевіряємо їх для виявлення зловживань.

Як Copilot використовує мої дані? 

Кожна служба або функція використовує Copilot на основі даних, які ви надали або налаштували для обробки системою Copilot.

Ваші запити (вхідні дані) і відповіді Copilot (вихідні дані або результати):

  • НЕ доступні іншим клієнтам.

  • НЕ використовуються для навчання або вдосконалення сторонніх продуктів або служб (як-от моделі OpenAI).

  • НЕ використовуються для навчання або вдосконалення ШІ-моделей Microsoft (якщо адміністратор осередку не ввімкнув передавання даних нам).

Дізнайтеся більше про конфіденційність і безпеку OpenAI даних служби Azure. Щоб дізнатися більше про те, як корпорація Майкрософт захищає та використовує ваші дані в цілому, ознайомтеся з нашою Декларацією про конфіденційність.

Куди передаються мої дані?

Microsoft працює на основі принципу довіри. Ми прагнемо до безпеки, конфіденційності та відповідності вимогам в усьому, що робимо, і наш підхід до ШІ не відрізняється. Дані клієнта, включно з вхідними запитами та результатами Copilot, зберігаються в межах довіри Microsoft Cloud.

Іноді, наприклад під час використання функцій на базі Bing і сторонніх плагінів-помічників, дані можуть передаватися за межі довіри Microsoft Cloud.

Чи може Copilot отримувати доступ до зашифрованого вмісту?

Copilot отримує дані на основі рівня доступу поточного користувача. Якщо користувач має доступ до зашифрованих даних у Dynamics 365 і Power Platform і дозволив їх використання в Copilot, то Copilot матиме до них доступ.

Як Copilot захищає дані клієнтів?

Корпорація Microsoft має унікальний набір технологій для надання ШІ корпоративного рівня. Copilot працює на базі служби Azure OpenAI та відповідає нашим зобов’язанням перед клієнтами щодо конфіденційності, безпеки та відповідності нормативним вимогам.

  • Створено на основі комплексного підходу корпорації Майкрософт до безпеки, конфіденційності та відповідності вимогам. Copilot інтегровано в такі служби Microsoft, як Dynamics 365 і Power Platform. Від них ця система успадковує політики та процеси, що стосуються безпеки, відповідності вимогам і конфіденційності, зокрема багатофакторну автентифікацію й межі нормативного регіону.

  • Численні форми захисту захищають організаційні дані. Для шифрування корпоративного вмісту під час зберігання й передавання використовуються сервісні технології, що забезпечує надійний захист. З’єднання захищаються протоколом TLS. Дані між Dynamics 365, Power Platform і Azure OpenAI передаються через магістральну мережу Microsoft, що гарантує надійність і безпеку. Дізнайтеся більше про шифрування в Microsoft Cloud.

  • Розроблено для захисту ваших даних як на рівні клієнта, так і на рівні навколишнього середовища. Ми знаємо, що клієнти турбуються через можливі витоки даних. ШІ-моделі Microsoft не навчаються на даних у вашому осередку або на ваших запитах, якщо адміністратор не ввімкнув передавання даних нам. У своїх середовищах ви можете керувати доступом да даних, налаштувавши необхідні дозволи. Механізми автентифікації й авторизації розподіляють запити до загальної моделі між осередками. Copilot застосовує виключно доступні вам дані, використовуючи ту саму технологію, яка вже довгі роки захищає дані наших клієнтів.

Чи завжди відповіді Copilot відповідають дійсності?

Як і у випадку з будь-яким генеративним ШІ, відповіді Copilot не обов’язково на 100% відповідають дійсності. Хоча ми продовжуємо вдосконалювати відповіді на запити стосовно фактів, ви все одно маєте покладатися на власний розсуд і перевіряти результати, перш ніж надсилати їх іншим особам. Copilot надає корисні чернетки та зведення, які допомагають вам устигати більше. Проте це повністю автоматична система. Ви завжди можете переглянути вміст, згенерований ШІ.

Наші команди працюють над проактивним вирішенням таких проблем, як дезінформація та дезінформація, блокування контенту, безпека даних і просування шкідливого або дискримінаційного контенту відповідно до наших відповідальних принципів штучного інтелекту.

Крім того, ми пропонуємо інструкції в інтерфейсі, щоб сприяти відповідальному використанню пропонованих дій і вмісту, згенерованих ШІ.

  • Інструкції та підказки. Підказки та інші інформаційні елементи в Copilot нагадують про необхідність переглядати та редагувати відповіді, а також вручну перевіряти точність фактів, даних і тексту, перш ніж використовувати згенерований ШІ вміст.

  • Цитовані джерела. Якщо це доречно, Copilot посилається на свої джерела інформації (як відкриті, так і внутрішні): ви можете ознайомитися з ними самостійно й перевірити точність відповідей.

Додаткову інформацію див. в поширених запитання про відповідальне використання ШІ для свого продукту на сайті Microsoft Learn.

Чи блокує Copilot ін’єкції зловмисних запитів (джейлбрейк-атаки)?

Джейлбрейк-атаки — це підказки користувачам, які призначені для того, щоб спровокувати генеративну модель штучного інтелекту поводитися так, як вона була навчена цього не робити, або порушувати правила, яких їй було сказано дотримуватися. Відповідно до наших вимог служби в Dynamics 365 і Power Platform має бути захищено від ін’єкцій зловмисних запитів. Дізнайтеся більше про джейлбрейк-атаки та про те, як використовувати Azure AI Content Safety для їх виявлення.

Як Microsoft тестує та перевіряє якість Copilot, зокрема релевантність відповідей і захист від ін’єкцій зловмисних запитів?

Перед випуском на ринок кожен новий продукт Copilot і кожна ітерація мовної моделі проходять внутрішню перевірку на відповідність принципам відповідального використання ШІ. Ми також проводимо тестування за участю «червоних команд» (спеціалісти імітують зловмисну атаку та виявляють і використовують слабкі місця, щоб допомогти організації покращити свої механізми захисту) і оцінюємо потенційні ризики в сценаріях із небезпечним вмістом і джейлбрейк-атаками, а також релевантність відповідей. Після випуску ми використовуємо автоматизоване тестування, а також засоби ручного й автоматизованого оцінювання для визначення якості відповідей Copilot.

Як Microsoft удосконалює базову модель і вимірює покращення релевантності відповідей?

У контексті штучного інтелекту, особливо штучного інтелекту, який має справу з мовними моделями, подібними до тієї, на якій базується Copilot, заземлення допомагає штучному інтелекту генерувати відповіді, які є більш релевантними та мають сенс у реальному світі. Така попередня підготовка гарантує, що ШІ-відповіді ґрунтуються на надійній інформації, максимально точні й релевантні. Показники релевантності відповіді дають змогу оцінити, наскільки точно факти, викладені в наданому моделі для попередньої підготовки вмісті, представлено в остаточній відповіді.

Для покращення базових моделей, як-от GPT-4, використовуються методики доповнення відповіді результатами пошуку (Retrieval Augmented Generation, RAG). Ці методики дають моделям змогу використовувати для розуміння сценарію користувача додаткову інформацію, а не лише ту, на основі якої їх навчено. Принцип роботи RAG полягає у визначенні даних, релевантних для сценарію. Це схоже на те, як пошукова система визначає сторінки, які відповідають пошуковому запиту користувача. Щоб визначити те, який вміст має відношення до запиту користувача й має використовуватися для попередньої підготовки відповіді, застосовується кілька підходів. Це, зокрема, пошук за різними типами індексів, наприклад інвертованими індексами з використанням таких прийомів видобування інформації, як зіставлення термінів, або векторними індексами з використанням порівнянь векторних відстаней для визначення семантичної подібності. Після виявлення релевантних документів технологія RAG передає моделі дані разом із поточною розмовою. Завдяки цьому модель отримує додатковий контекст для розуміння вже наявної в неї інформації та генерації релевантної відповіді. У кінці RAG перевіряє відповідь із погляду відповідності вихідному вмісту, наданому моделі. Функції генеративного ШІ Copilot застосовують RAG різними способами. Один із них — чат із даними, коли для попередньої підготовки відповіді чат-бота використовуються джерела даних клієнта.

Інший метод удосконалення фундаментальних моделей відомий як тонке налаштування. Базовій моделі надається великий набір даних типу «запит – відповідь», який доповнює інформацію, що використовувалася для її навчання, новими зразками, орієнтованими на конкретний сценарій. Потім цю модель можна розгорнути як окремий екземпляр, адаптований під цей сценарій. Попередня підготовка має на меті зробити вміст ШІ релевантнішим для реального світу, а тонке налаштування — специфічнішим для певного завдання або предметної галузі. Microsoft використовує тонке налаштування різними способами, наприклад для створення циклів Power Automate за описами користувачів.

Як Copilot блокує шкідливий вміст?

Служба Azure OpenAI має систему фільтрування вмісту, яка працює разом з основними моделями. Моделі фільтрування спеціально навчено розпізнавати вміст у категоріях «Ненависть і справедливість», «Контент сексуального характеру», «Насильство» та «Заподіяння собі шкоди», а також протестовано різними мовами. Система фільтрування проганяє вхідний запит і відповіді через моделі класифікації, призначені для виявлення та блокування виведення небезпечного вмісту.

Під категорію «Ненависть і справедливість» підпадає вміст зі зневажливими або дискримінаційними висловлюваннями, пов’язаними з расовою, етнічною або національною приналежністю, гендерною ідентичність і гендерним самовираженням, сексуальною орієнтацією, релігією та розмірами тіла. Справедливість пов’язана з тим, щоб системи штучного інтелекту ставилися до всіх груп людей однаково, не сприяючи існуючій соціальній нерівності. Контент сексуального характеру включає обговорення репродуктивних органів людини, романтичних стосунків, дій, які зображуються в еротичних або ласкавих виразах, вагітності, фізичних статевих актів, зокрема тих, що зображуються як напад або примус до сексуального насильства, проституції, порнографії та жорстокого поводження. Насильство – це мова, пов’язана з фізичними діями, спрямованими на заподіяння шкоди або вбивства, зокрема діями, зброєю та пов’язаними з ними об’єктами. Самоушкодження – це навмисні дії, спрямовані на те, щоб завдати собі тілесних ушкоджень або вбити себе.

Дізнайтеся більше про фільтрування OpenAI вмісту Azure.

Чи відповідає Copilot нормативним вимогам?

Як частина екосистеми Dynamics 365 і Power Platform технологія Microsoft Copilot відповідає тим самим нормативним вимогам. Для отримання додаткових відомостей про нормативну сертифікацію служб Microsoft відвідайте портал довіри служб. Крім того, Copilot дотримується наших зобов’язань щодо відповідального штучного інтелекту, які втілюються в життя за допомогою нашого стандарту відповідального штучного інтелекту. Зі зміною законодавства у сфері ШІ корпорація Microsoft продовжуватиме адаптувати свої технології до нових вимог.

Дізнайтеся більше про доступність Dynamics 365 Power Platform і Copilot, розташування даних клієнтів і відповідність глобальним, регіональним і галузевим вимогам щодо керування даними.

Докладніше

Copilot у програмах Dynamics 365 і Power Platform

Продукт Функція Потрібно використовувати керовані середовища? Вимкнення функції
AI Builder Сценарії в попередньому перегляді Ні Сценарії в попередньому перегляді
Dynamics 365 Customer Insights - Data Створення сегментів за допомогою Copilot для Customer Insights - Data (попередній перегляд) Ні Customer Insights - Data має власну позначку для всіх своїх функцій Copilot на платформі служби Azure OpenAI.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Огляд звіту про підготовку даних (попередній перегляд) Ні Customer Insights - Data має власну позначку для всіх своїх функцій Copilot на платформі служби Azure OpenAI.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Отримайте відповіді на запитання про можливості від Copilot (попередній перегляд) Ні Customer Insights - Data має власну позначку для всіх своїх функцій Copilot на платформі служби Azure OpenAI.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights (дані) Ведіть діалог з даними за допомогою Copilot в Customer Insights Ні Customer Insights - Data має власну позначку для всіх своїх функцій Copilot на платформі служби Azure OpenAI.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Переглянути конфігурацію системи Ні Customer Insights - Data має власну позначку для всіх своїх функцій Copilot на платформі служби Azure OpenAI.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot допомагає вчитися та робити більше (огляд) Ні Доступність цього помічника у вашому середовищі залежить від параметрів адміністратора Power Platform. Дізнайтеся, як додати Copilot для додатків на основі моделі.


Ця функція є "copilot додатку Customer Insights - Journeys", і саме тому вона ввімкнена в Power Platform центрі адміністрування. Дізнайтеся більше: Відповідальний ШІ FAQ
Dynamics 365 Customer Insights - Journeys Створюйте подорожі за допомогою штучного інтелекту Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Оновіть і вдосконаліть своє повідомлення Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Стилізуйте свої листи за допомогою тем за допомогою штучного інтелекту Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Націлюйтеся на потрібних клієнтів за допомогою допомоги запитів

Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Використовуйте штучний інтелект для створення листів Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Використовуйте зображення у своєму контенті Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Дізнайтесь більше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Power Apps Створюйте додатки за допомогою розмови Ні Керування налаштуваннями функцій
Power Apps Допомога Copilot для заповнення форм у програмах на основі моделі Ні Керування налаштуваннями функцій
Power Apps Чернетка добре написаного тексту за допомогою Copilot Ні, ліцензія Premium на користувача Чернетка добре написаного тексту за допомогою Copilot
Power Apps Excel в таблицю Ні Керування налаштуваннями функцій
Power Apps Використання природної мови для редагування програми за допомогою панелі Copilot No Керування налаштуваннями функцій
Power Automate Copilot у хмарних потоках на домашній сторінці та в конструкторі (докладніше див. Початок роботи з Copilot у хмарних потоках .) No Зверніться до служби підтримки, щоб запустити сценарій PowerShell.
Power Pages Усі (Детальніше див. огляд Power Pages Copilot.) No Вимкніть Copilot у Power Pages

Регіональна доступність і підтримувані мови

Міжнародна доступність Copilot

Переміщення даних між географічними регіонами

Безпека в Microsoft

Конфіденційність у Microsoft

Декларація корпорації Майкрософт про конфіденційність

Відповідальне використання ШІ