Поширені запитання про безпеку та конфіденційність даних Copilot у Dynamics 365 і Power Platform
Функції Copilot для Dynamics 365 і Power Platform відповідають принципам безпеки та конфіденційності, а також стандарту відповідального використання ШІ Microsoft. Дані Dynamics 365 і Power Platform захищено найкращими в галузі комплексними засобами контролю безпеки, конфіденційності та відповідності вимогам.
Copilot розроблено на базі служби Microsoft Azure OpenAI. Це рішення повністю працює в хмарі Azure. Служба Azure OpenAI пропонує регіональну доступність і фільтрування вмісту відповідно до принципів відповідального використання ШІ. Copilot використовує моделі OpenAI з усіма можливостями безпеки Microsoft Azure. OpenAI – незалежна організація. Ми не передаємо ваші дані компанії OpenAI.
Функції Copilot доступні не в усіх географічних регіонах Azure й не всіма мовами. Залежно від того, де розміщено ваше середовище, для їх використання може знадобитися дозволити переміщення даних між регіонами. Додаткову інформацію див. в статтях у розділі Переміщення даних між географічними регіонами.
Що відбувається з моїми даними, коли я використовую Copilot?
Ви контролюєте використання своїх даних. Microsoft не передає ваші дані третім сторонам, якщо ви не надали на це дозвіл. Крім того, ми не використовуємо ваші дані (дані клієнта) для навчання технології Copilot і її функцій ШІ, якщо ви не надали на це згоду. Copilot дотримується наявних дозволів і політик щодо даних і генерує для вас відповіді лише на основі даних, до яких ви особисто маєте доступ. Додатку інформацію про контроль даних і їх обробку див. в статтях, наведених у розділі Copilot у програмах Dynamics 365 і Power Platform.
Copilot відстежує неналежне чи шкідливе використання служби без збереження даних. Ми не зберігаємо вхідні й вихідні дані Copilot і не переглядаємо їх вручну для виявлення зловживань.
Як Copilot використовує мої дані?
Кожна служба або функція використовує Copilot на основі даних, які ви надали або вказали для обробки системою Copilot.
Ваші запити (вхідні дані) і відповіді Copilot (вихідні дані або результати):
НЕ доступні іншим клієнтам.
НЕ використовуються для навчання або вдосконалення сторонніх продуктів або служб (як-от моделі OpenAI).
НЕ використовуються для навчання або вдосконалення ШІ-моделей Microsoft (якщо адміністратор осередку не ввімкнув передавання даних нам). Подробиці див. в статті Поширені запитання про передавання необов’язкових даних для функцій Copilot на основі ШІ в Dynamics 365 і Power Platform.
Дізнайтеся більше про безпеку та конфіденційність даних служби Azure OpenAI. Загальні дані про те, як Microsoft захищає та використовує дані, див. в нашій Декларації про конфіденційність.
Куди передаються мої дані?
Довіра – один із ключових принципів Microsoft. Ми прагнемо до безпеки, конфіденційності та відповідності вимогам в усьому, що робимо, і наш підхід до ШІ не відрізняється. Дані клієнтів, включно з вхідними запитами та результатами Copilot, зберігаються в межах довіри Microsoft Cloud.
Іноді, наприклад під час використання функцій на базі Bing і сторонніх плагінів-помічників, дані клієнта можуть передаватися за межі довіри Microsoft Cloud.
Чи може Copilot отримувати доступ до зашифрованого вмісту?
Copilot отримує дані з урахуванням рівня доступу поточного користувача. Якщо користувач має доступ до зашифрованих даних у Dynamics 365 і Power Platform і дозволив їх використання в Copilot, то Copilot матиме до них доступ.
Як Copilot захищає дані клієнтів?
Корпорація Microsoft має унікальний набір технологій для надання ШІ корпоративного рівня. Copilot працює на базі служби Azure OpenAI та відповідає нашим зобов’язанням перед клієнтами щодо конфіденційності, безпеки та відповідності нормативним вимогам.
Використання комплексного підходу Microsoft до безпеки, відповідності вимогам і конфіденційності. Copilot інтегровано в такі служби Microsoft, як Dynamics 365 і Power Platform. Від них ця система успадковує політики та процеси, що стосуються безпеки, відповідності вимогам і конфіденційності, зокрема багатофакторну автентифікацію й межі нормативного регіону.
Різноманітні форми захисту для безпеки організаційних даних. Для шифрування корпоративного вмісту під час зберігання й передавання використовуються сервісні технології, що забезпечують надійний захист. З’єднання захищено протоколом TLS. Дані між Dynamics 365, Power Platform і Azure OpenAI передаються через магістральну мережу Microsoft, що гарантує надійність і безпеку. Дізнайтеся більше про шифрування в Microsoft Cloud.
Архітектура, спрямована на захист даних як на рівні осередку, так і на рівні середовища. Ми знаємо, що клієнти турбуються через можливі витоки даних. ШІ-моделі Microsoft не навчаються на даних у вашому осередку або на ваших запитах, якщо адміністратор не ввімкнув передавання даних нам. У своїх середовищах ви можете керувати доступом до даних, надаючи відповідні дозволи. Механізми автентифікації й авторизації розподіляють запити до загальної моделі між осередками. Copilot працює виключно з доступними вам даними, застосовуючи ту саму технологію, яка вже довгі роки захищає дані наших клієнтів.
Чи завжди відповіді Copilot достовірні?
Як і в будь-якого генеративного ШІ, відповіді Copilot не на 100% достовірні. Хоча ми продовжуємо вдосконалювати відповіді на запити стосовно фактів, ви все одно маєте покладатися на власний розсуд і перевіряти результати, перш ніж надсилати їх іншим особам. Copilot надає корисні чернетки та зведення, щоб ви встигали більше. Проте це повністю автоматична система. Ви завжди можете перевірити вміст, згенерований ШІ.
Наші спеціалісти вирішувати проактивно борються з неправдивою інформацією та дезінформацією, блокуванням вмісту, безпекою даних і розповсюдженням шкідливого або дискримінаційного вмісту, згідно з нашими принципами відповідального використання ШІ.
Крім того, ми пропонуємо інструкції в інтерфейсі, щоб сприяти відповідальному використанню пропонованих дій і вмісту, згенерованих ШІ.
Інструкції та підказки. Підказки та інші інформаційні елементи в Copilot нагадують про необхідність переглядати та редагувати відповіді, а також вручну перевіряти точність фактів, даних і тексту, перш ніж використовувати згенерований ШІ вміст.
Цитовані джерела. Якщо це доречно, Copilot посилається на свої джерела інформації (як відкриті, так і внутрішні): ви можете ознайомитися з ними самостійно й перевірити точність відповідей.
Додаткову інформацію див. в поширених запитання про відповідальний ШІ для свого продукту на сайті Microsoft Learn.
Як Copilot блокує шкідливий вміст?
Служба Azure OpenAI має систему фільтрування вмісту, яка працює разом з основними моделями. Моделі фільтрування спеціально навчено розпізнавати вміст у категоріях «Ненависть і справедливість», «Контент сексуального характеру», «Насильство» та «Заподіяння собі шкоди», а також протестовано різними мовами. Система фільтрування проганяє вхідний запит і відповіді через моделі класифікації, призначені для виявлення небезпечного вмісту та блокування його виводу.
Під категорію «Ненависть і справедливість» підпадає вміст зі зневажливими або дискримінаційними висловлюваннями, пов’язаними з расовою, етнічною або національною приналежністю, гендерною ідентичність і гендерним самовираженням, сексуальною орієнтацією, релігією та розмірами тіла. Під справедливістю розуміється забезпечення того, щоб системи ШІ ставилися до всіх груп людей справедливо, не сприяючи наявній соціальній нерівності. Контентом сексуального характеру вважаються згадування репродуктивних органів людини, романтичних відносин, дій, що описуються в еротичних або любовних термінах, вагітності, фізичних сексуальних актів (зокрема тих, що зображуються як наруга чи примусові акти сексуального насильства), проституції, порнографії та навіть жорстокого поводження. Під насильством маються на увазі висловлювання про фізичні дії, спрямовані на заподіяння шкоди чи вбивство, включно з діями, зброєю та пов’язаними з ними актами. Категорія «Заподіяння собі шкоди» передбачає згадування навмисних дій, спрямованих на завдання собі каліцтв або самогубство.
Дізнайтеся більше про систему фільтрування вмісту Azure OpenAI.
Чи блокує Copilot ін’єкції зловмисних запитів (джейлбрейк-атаки)?
Під час джейлбрейк-атак зловмисники надсилають запити, що змушують модель генеративного ШІ демонструвати поведінку, якої її навчено уникати, або порушувати визначені для неї правила. Відповідно до наших вимог служби в Dynamics 365 і Power Platform мають захист від ін’єкцій зловмисних запитів. Дізнайтеся більше про джейлбрейк-атаки й про те, як використовувати Безпеку вмісту ШІ Azure для їх виявлення.
Чи блокує Copilot непрямі ін’єкції зловмисних запитів (непрямі атаки)?
Непрямі атаки, які також називаються атаками шляхом непрямого впровадження запитів або атаками шляхом міждоменної ін’єкції запитів, – це потенційна вразливість, коли треті сторони поміщають шкідливі інструкції в документи, до яких система генеративного ШІ може отримувати доступ і які вона може обробляти. Відповідно до наших вимог служби в Dynamics 365 і Power Platform має бути захищено від непрямих ін’єкцій зловмисних запитів. Дізнайтеся більше про непрямі атаки й про те, як використовувати Безпеку вмісту ШІ Azure для їх виявлення.
Як Microsoft тестує та перевіряє якість Copilot, зокрема релевантність відповідей і захист від ін’єкцій зловмисних запитів?
Перед випуском на ринок кожен новий продукт Copilot і кожна ітерація мовної моделі проходять внутрішню перевірку на відповідність принципам відповідального використання ШІ. Ми також проводимо тестування за участю «червоних команд» (спеціалісти імітують зловмисну атаку та виявляють і використовують слабкі місця, щоб допомогти організації покращити свої механізми захисту) і оцінюємо потенційні ризики в сценаріях із небезпечним вмістом і джейлбрейк-атаками, а також релевантність відповідей. Після випуску ми використовуємо автоматизоване тестування, а також засоби ручного й автоматизованого оцінювання для визначення якості відповідей Copilot.
Як Microsoft удосконалює базову модель і вимірює покращення релевантності відповідей?
У контексті штучного інтелекту, особливо на основі мовних моделей, як у Copilot, попередня підготовка допомагає ШІ генерувати релевантніші відповіді, які мають сенс у реальному світі. Така попередня підготовка гарантує, що відповіді ШІ ґрунтуються на надійній інформації, максимально точні й релевантні. Показники релевантності відповіді дають змогу оцінити, наскільки точно факти з вмісту для попередньої підготовки представлено в остаточній відповіді.
Для покращення базових моделей, як-от GPT-4, використовуються методики доповнення відповіді результатами пошуку (Retrieval Augmented Generation, RAG). Завдяки цим методикам для розуміння сценарію моделі можуть використовувати додаткову інформацію, а не лише навчальні дані. Принцип роботи RAG полягає у визначенні даних, релевантних для сценарію. Це схоже на те, як пошукова система визначає сторінки, які відповідають пошуковому запиту користувача. Щоб визначити, який вміст стосується запиту користувача й має використовуватися для попередньої підготовки відповіді, застосовуються кілька підходів. Це, зокрема, пошук за різними типами індексів, наприклад інвертованими індексами з використанням таких прийомів видобування інформації, як зіставлення термінів, або векторними індексами з використанням порівнянь векторних відстаней для визначення семантичної подібності. Після виявлення релевантних документів технологія RAG передає моделі дані разом із поточною розмовою. У такий спосіб модель отримує додатковий контекст для розуміння вже наявної в неї інформації та генерації релевантної відповіді. Зрештою RAG перевіряє відповідь із погляду відповідності вихідному вмісту, наданому моделі. Функції генеративного ШІ Copilot застосовують RAG різними способами. Один із них — чат із даними, коли для попередньої підготовки відповіді чат-бота використовуються джерела даних клієнта.
Інший метод покращення базових моделей називається тонким налаштуванням. Базовій моделі надається великий набір даних типу «запит – відповідь», який доповнює інформацію, що використовувалася для її навчання, новими зразками, орієнтованими на конкретний сценарій. Потім цю модель можна розгорнути як окремий екземпляр, адаптований під цей сценарій. Попередня підготовка має на меті зробити вміст ШІ релевантнішим для реального світу, а тонке налаштування — специфічнішим для певного завдання або предметної галузі. Microsoft використовує тонке налаштування різними способами, наприклад для створення циклів Power Automate за описами користувачів.
Чи відповідає Copilot нормативним вимогам?
Як частина екосистеми Dynamics 365 і Power Platform технологія Microsoft Copilot відповідає тим самим нормативним вимогам. Щоб дізнатися більше про нормативні сертифікати служб Microsoft, перейдіть на Портал надійності. Крім того, Copilot відповідає нашим зобов’язанням щодо відповідального використання ШІ, описаним у цьому стандарті. Зі зміною законодавства у сфері ШІ корпорація Microsoft продовжуватиме адаптувати свої технології до нових вимог.
Докладніше
Copilot у програмах Dynamics 365 і Power Platform
Подробиці див. в статті Поширені запитання про передавання необов’язкових даних для функцій Copilot на основі ШІ в Dynamics 365 і Power Platform.
Регіональна доступність і підтримувані мови
Міжнародна доступність Copilot
Переміщення даних між географічними регіонами
- Принцип переміщення даних між регіонами
- Налаштування переміщення даних між географічними регіонами для функцій ШІ за межами США
- Переміщення даних Copilot між географічними регіонами (Dynamics 365 Sales)
- Переміщення даних Copilot між географічними регіонами (Dynamics 365 Business Central)
Безпека в Microsoft
- Загальні відомості про систему безпеки Azure
- Шифрування в Microsoft Cloud
- Дані, конфіденційність і безпека в службі Azure OpenAI – ШІ-служби Azure
Конфіденційність у Microsoft
Декларація корпорації Microsoft про конфіденційність