Поділитися через


Поширені запитання про безпеку та конфіденційність даних Copilot у Dynamics 365 і Power Platform

Функції Copilot для Dynamics 365 і Power Platform відповідають принципам безпеки та конфіденційності, а також стандарту відповідального використання ШІ Microsoft. Дані Dynamics 365 і Power Platform захищено найкращими в галузі комплексними засобами контролю безпеки, конфіденційності та відповідності вимогам.

Copilot розроблено на базі служби Microsoft Azure OpenAI. Це рішення повністю працює в хмарі Azure. Служба Azure OpenAI пропонує регіональну доступність і фільтрування вмісту відповідно до принципів відповідального використання ШІ. Copilot використовує моделі OpenAI з усіма можливостями безпеки Microsoft Azure. OpenAI – незалежна організація. Ми не передаємо ваші дані компанії OpenAI.

Функції Copilot доступні не в усіх географічних регіонах Azure й не всіма мовами. Залежно від того, де розміщено ваше середовище, для їх використання може знадобитися дозволити переміщення даних між регіонами. Додаткову інформацію див. в статтях у розділі Переміщення даних між географічними регіонами.

Що відбувається з моїми даними, коли я використовую Copilot?

Ви контролюєте використання своїх даних. Microsoft не передає ваші дані третім сторонам, якщо ви не надали на це дозвіл. Крім того, ми не використовуємо ваші дані (дані клієнта) для навчання технології Copilot і її функцій ШІ, якщо ви не надали на це згоду. Copilot дотримується наявних дозволів і політик щодо даних і генерує для вас відповіді лише на основі даних, до яких ви особисто маєте доступ. Додатку інформацію про контроль даних і їх обробку див. в статтях, наведених у розділі Copilot у програмах Dynamics 365 і Power Platform.

Copilot відстежує неналежне чи шкідливе використання служби без збереження даних. Ми не зберігаємо вхідні й вихідні дані Copilot і не переглядаємо їх вручну для виявлення зловживань.

Як Copilot використовує мої дані?

Кожна служба або функція використовує Copilot на основі даних, які ви надали або вказали для обробки системою Copilot.

Ваші запити (вхідні дані) і відповіді Copilot (вихідні дані або результати):

Дізнайтеся більше про безпеку та конфіденційність даних служби Azure OpenAI. Загальні дані про те, як Microsoft захищає та використовує дані, див. в нашій Декларації про конфіденційність.

Куди передаються мої дані?

Довіра – один із ключових принципів Microsoft. Ми прагнемо до безпеки, конфіденційності та відповідності вимогам в усьому, що робимо, і наш підхід до ШІ не відрізняється. Дані клієнтів, включно з вхідними запитами та результатами Copilot, зберігаються в межах довіри Microsoft Cloud.

Іноді, наприклад під час використання функцій на базі Bing і сторонніх плагінів-помічників, дані клієнта можуть передаватися за межі довіри Microsoft Cloud.

Чи може Copilot отримувати доступ до зашифрованого вмісту?

Copilot отримує дані з урахуванням рівня доступу поточного користувача. Якщо користувач має доступ до зашифрованих даних у Dynamics 365 і Power Platform і дозволив їх використання в Copilot, то Copilot матиме до них доступ.

Як Copilot захищає дані клієнтів?

Корпорація Microsoft має унікальний набір технологій для надання ШІ корпоративного рівня. Copilot працює на базі служби Azure OpenAI та відповідає нашим зобов’язанням перед клієнтами щодо конфіденційності, безпеки та відповідності нормативним вимогам.

  • Використання комплексного підходу Microsoft до безпеки, відповідності вимогам і конфіденційності. Copilot інтегровано в такі служби Microsoft, як Dynamics 365 і Power Platform. Від них ця система успадковує політики та процеси, що стосуються безпеки, відповідності вимогам і конфіденційності, зокрема багатофакторну автентифікацію й межі нормативного регіону.

  • Різноманітні форми захисту для безпеки організаційних даних. Для шифрування корпоративного вмісту під час зберігання й передавання використовуються сервісні технології, що забезпечують надійний захист. З’єднання захищено протоколом TLS. Дані між Dynamics 365, Power Platform і Azure OpenAI передаються через магістральну мережу Microsoft, що гарантує надійність і безпеку. Дізнайтеся більше про шифрування в Microsoft Cloud.

  • Архітектура, спрямована на захист даних як на рівні осередку, так і на рівні середовища. Ми знаємо, що клієнти турбуються через можливі витоки даних. ШІ-моделі Microsoft не навчаються на даних у вашому осередку або на ваших запитах, якщо адміністратор не ввімкнув передавання даних нам. У своїх середовищах ви можете керувати доступом до даних, надаючи відповідні дозволи. Механізми автентифікації й авторизації розподіляють запити до загальної моделі між осередками. Copilot працює виключно з доступними вам даними, застосовуючи ту саму технологію, яка вже довгі роки захищає дані наших клієнтів.

Чи завжди відповіді Copilot достовірні?

Як і в будь-якого генеративного ШІ, відповіді Copilot не на 100% достовірні. Хоча ми продовжуємо вдосконалювати відповіді на запити стосовно фактів, ви все одно маєте покладатися на власний розсуд і перевіряти результати, перш ніж надсилати їх іншим особам. Copilot надає корисні чернетки та зведення, щоб ви встигали більше. Проте це повністю автоматична система. Ви завжди можете перевірити вміст, згенерований ШІ.

Наші спеціалісти вирішувати проактивно борються з неправдивою інформацією та дезінформацією, блокуванням вмісту, безпекою даних і розповсюдженням шкідливого або дискримінаційного вмісту, згідно з нашими принципами відповідального використання ШІ.

Крім того, ми пропонуємо інструкції в інтерфейсі, щоб сприяти відповідальному використанню пропонованих дій і вмісту, згенерованих ШІ.

  • Інструкції та підказки. Підказки та інші інформаційні елементи в Copilot нагадують про необхідність переглядати та редагувати відповіді, а також вручну перевіряти точність фактів, даних і тексту, перш ніж використовувати згенерований ШІ вміст.

  • Цитовані джерела. Якщо це доречно, Copilot посилається на свої джерела інформації (як відкриті, так і внутрішні): ви можете ознайомитися з ними самостійно й перевірити точність відповідей.

Додаткову інформацію див. в поширених запитання про відповідальний ШІ для свого продукту на сайті Microsoft Learn.

Як Copilot блокує шкідливий вміст?

Служба Azure OpenAI має систему фільтрування вмісту, яка працює разом з основними моделями. Моделі фільтрування спеціально навчено розпізнавати вміст у категоріях «Ненависть і справедливість», «Контент сексуального характеру», «Насильство» та «Заподіяння собі шкоди», а також протестовано різними мовами. Система фільтрування проганяє вхідний запит і відповіді через моделі класифікації, призначені для виявлення небезпечного вмісту та блокування його виводу.

Під категорію «Ненависть і справедливість» підпадає вміст зі зневажливими або дискримінаційними висловлюваннями, пов’язаними з расовою, етнічною або національною приналежністю, гендерною ідентичність і гендерним самовираженням, сексуальною орієнтацією, релігією та розмірами тіла. Під справедливістю розуміється забезпечення того, щоб системи ШІ ставилися до всіх груп людей справедливо, не сприяючи наявній соціальній нерівності. Контентом сексуального характеру вважаються згадування репродуктивних органів людини, романтичних відносин, дій, що описуються в еротичних або любовних термінах, вагітності, фізичних сексуальних актів (зокрема тих, що зображуються як наруга чи примусові акти сексуального насильства), проституції, порнографії та навіть жорстокого поводження. Під насильством маються на увазі висловлювання про фізичні дії, спрямовані на заподіяння шкоди чи вбивство, включно з діями, зброєю та пов’язаними з ними актами. Категорія «Заподіяння собі шкоди» передбачає згадування навмисних дій, спрямованих на завдання собі каліцтв або самогубство.

Дізнайтеся більше про систему фільтрування вмісту Azure OpenAI.

Чи блокує Copilot ін’єкції зловмисних запитів (джейлбрейк-атаки)?

Під час джейлбрейк-атак зловмисники надсилають запити, що змушують модель генеративного ШІ демонструвати поведінку, якої її навчено уникати, або порушувати визначені для неї правила. Відповідно до наших вимог служби в Dynamics 365 і Power Platform мають захист від ін’єкцій зловмисних запитів. Дізнайтеся більше про джейлбрейк-атаки й про те, як використовувати Безпеку вмісту ШІ Azure для їх виявлення.

Чи блокує Copilot непрямі ін’єкції зловмисних запитів (непрямі атаки)?

Непрямі атаки, які також називаються атаками шляхом непрямого впровадження запитів або атаками шляхом міждоменної ін’єкції запитів, – це потенційна вразливість, коли треті сторони поміщають шкідливі інструкції в документи, до яких система генеративного ШІ може отримувати доступ і які вона може обробляти. Відповідно до наших вимог служби в Dynamics 365 і Power Platform має бути захищено від непрямих ін’єкцій зловмисних запитів. Дізнайтеся більше про непрямі атаки й про те, як використовувати Безпеку вмісту ШІ Azure для їх виявлення.

Як Microsoft тестує та перевіряє якість Copilot, зокрема релевантність відповідей і захист від ін’єкцій зловмисних запитів?

Перед випуском на ринок кожен новий продукт Copilot і кожна ітерація мовної моделі проходять внутрішню перевірку на відповідність принципам відповідального використання ШІ. Ми також проводимо тестування за участю «червоних команд» (спеціалісти імітують зловмисну атаку та виявляють і використовують слабкі місця, щоб допомогти організації покращити свої механізми захисту) і оцінюємо потенційні ризики в сценаріях із небезпечним вмістом і джейлбрейк-атаками, а також релевантність відповідей. Після випуску ми використовуємо автоматизоване тестування, а також засоби ручного й автоматизованого оцінювання для визначення якості відповідей Copilot.

Як Microsoft удосконалює базову модель і вимірює покращення релевантності відповідей?

У контексті штучного інтелекту, особливо на основі мовних моделей, як у Copilot, попередня підготовка допомагає ШІ генерувати релевантніші відповіді, які мають сенс у реальному світі. Така попередня підготовка гарантує, що відповіді ШІ ґрунтуються на надійній інформації, максимально точні й релевантні. Показники релевантності відповіді дають змогу оцінити, наскільки точно факти з вмісту для попередньої підготовки представлено в остаточній відповіді.

Для покращення базових моделей, як-от GPT-4, використовуються методики доповнення відповіді результатами пошуку (Retrieval Augmented Generation, RAG). Завдяки цим методикам для розуміння сценарію моделі можуть використовувати додаткову інформацію, а не лише навчальні дані. Принцип роботи RAG полягає у визначенні даних, релевантних для сценарію. Це схоже на те, як пошукова система визначає сторінки, які відповідають пошуковому запиту користувача. Щоб визначити, який вміст стосується запиту користувача й має використовуватися для попередньої підготовки відповіді, застосовуються кілька підходів. Це, зокрема, пошук за різними типами індексів, наприклад інвертованими індексами з використанням таких прийомів видобування інформації, як зіставлення термінів, або векторними індексами з використанням порівнянь векторних відстаней для визначення семантичної подібності. Після виявлення релевантних документів технологія RAG передає моделі дані разом із поточною розмовою. У такий спосіб модель отримує додатковий контекст для розуміння вже наявної в неї інформації та генерації релевантної відповіді. Зрештою RAG перевіряє відповідь із погляду відповідності вихідному вмісту, наданому моделі. Функції генеративного ШІ Copilot застосовують RAG різними способами. Один із них — чат із даними, коли для попередньої підготовки відповіді чат-бота використовуються джерела даних клієнта.

Інший метод покращення базових моделей називається тонким налаштуванням. Базовій моделі надається великий набір даних типу «запит – відповідь», який доповнює інформацію, що використовувалася для її навчання, новими зразками, орієнтованими на конкретний сценарій. Потім цю модель можна розгорнути як окремий екземпляр, адаптований під цей сценарій. Попередня підготовка має на меті зробити вміст ШІ релевантнішим для реального світу, а тонке налаштування — специфічнішим для певного завдання або предметної галузі. Microsoft використовує тонке налаштування різними способами, наприклад для створення циклів Power Automate за описами користувачів.

Чи відповідає Copilot нормативним вимогам?

Як частина екосистеми Dynamics 365 і Power Platform технологія Microsoft Copilot відповідає тим самим нормативним вимогам. Щоб дізнатися більше про нормативні сертифікати служб Microsoft, перейдіть на Портал надійності. Крім того, Copilot відповідає нашим зобов’язанням щодо відповідального використання ШІ, описаним у цьому стандарті. Зі зміною законодавства у сфері ШІ корпорація Microsoft продовжуватиме адаптувати свої технології до нових вимог.

Дізнайтеся більше про доступність Dynamics 365, Power Platform і Copilot, а також розташування даних клієнтів і відповідність глобальним, регіональним і галузевим вимогам щодо керування даними.

Докладніше

Copilot у програмах Dynamics 365 і Power Platform

Продукт Функція Потрібно використовувати керовані середовища? Вимкнення функції
AI Builder Сценарії на етапі підготовчої версії Ні Сценарії на етапі підготовчої версії
Copilot Studio Загальні параметри ШІ для бази знань Ні Безпека та керування Copilot Studio
Copilot Studio Створення й редагування тем за допомогою Copilot Ні Безпека та керування Copilot Studio
Copilot Studio Генеративні дії Ні Безпека та керування Copilot Studio
Copilot Studio Генеративні відповіді Ні Безпека та керування Copilot Studio
Dynamics 365 Business Central Усі (повний перелік див. тут: aka.ms/bcAI.) Ні Активація функцій
Dynamics 365 Customer Insights - Data Створення сегментів за допомогою Copilot для Customer Insights - Data (підготовча версія) Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Огляд звіту про підготовку даних (підготовча версія) Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Відповіді на запитання про можливості від Copilot (підготовча версія) Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights (дані) Ведення діалогу з даними за допомогою Copilot у Customer Insights Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Перегляд конфігурації системи Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Використання Copilot для розширення можливостей та доступу до інформації (підготовча версія) Ні Доступність цього помічника у вашому середовищі залежить від параметрів адміністратора Power Platform. Дізнайтесь, як додати Copilot для модельних програм.


Ця можливість – «помічник програми в Customer Insights - Journeys», тому її ввімкнуто в Центрі адміністрування Power Platform. Докладніше: Поширені запитання про відповідальний ШІ
Dynamics 365 Customer Insights - Journeys Створення шляхів за допомогою помічника на основі ШІ Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Оновлення та вдосконалення повідомлення Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Стилізація електронних листів за допомогою тем на основі ШІ Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Вибір правильної цільової аудиторії за допомогою помічника із запитів

Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Використання ШІ для швидкого створення електронних листів Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Використання зображень у вмісті Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Докладніше: Надання згоди на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Service Створення електронного листа Ні Налаштування функцій Copilot у Customer Service
Dynamics 365 Customer Service Створення чернетки відповіді в чаті Ні Налаштування функцій Copilot у Customer Service
Dynamics 365 Customer Service Відповіді на запитання Ні Налаштування функцій Copilot у Customer Service
Dynamics 365 Customer Service Зведення інцидентів і розмов Ні Налаштування функцій Copilot у Customer Service
Power Apps Створення програм за допомогою розмови Ні Керування параметрами функцій
Power Apps Допомога Copilot із заповненням форм у модельних програмах Ні Керування параметрами функцій
Power Apps Генерування якісного вхідного тексту за допомогою Copilot Ні, ліцензія Premium на користувача Генерування якісного вхідного тексту за допомогою Copilot
Power Apps Excel для таблиці Ні Керування параметрами функцій
Power Apps Використання природної мови для редагування програми за допомогою панелі Copilot Ні Керування параметрами функцій
Power Automate Copilot у хмарних циклах на головній сторінці та в конструкторі (докладні відомості див. в статті Початок роботи з Copilot у хмарних циклах). Ні Щоб запустити сценарій PowerShell, зверніться до служби підтримки.
Power Pages Усе (докладні відомості див. в статті Огляд Copilot в Power Pages). Ні Вимкнення Copilot в Power Pages

Подробиці див. в статті Поширені запитання про передавання необов’язкових даних для функцій Copilot на основі ШІ в Dynamics 365 і Power Platform.

Регіональна доступність і підтримувані мови

Міжнародна доступність Copilot

Переміщення даних між географічними регіонами

Безпека в Microsoft

Конфіденційність у Microsoft

Декларація корпорації Microsoft про конфіденційність

Відповідальний ШІ