Поділитися через


Поширені запитання про безпеку та конфіденційність даних Copilot для Dynamics 365 та Power Platform

Copilot для Dynamics 365 та Power Platform його функції відповідають набору основних практик безпеки та конфіденційності, а також стандарту Microsoft відповідального AI. Дані Dynamics 365 і Power Platform захищено найкращими в галузі комплексними засобами контролю безпеки, конфіденційності та відповідності вимогам.

Copilot побудований на Microsoft Azure OpenAI сервісі та повністю працює в хмарі Azure. Служба Azure OpenAI пропонує регіональну доступність і фільтрування вмісту відповідно до принципів відповідального використання ШІ. Copilot використовує OpenAI моделі з усіма можливостями безпеки Microsoft Azure. OpenAI – незалежна організація. Ми не передаємо ваші дані компанії OpenAI.

Функції Copilot доступні не в усіх географічних регіонах Azure й не всіма мовами. Залежно від того, де розміщено ваше середовище, для їх використання може знадобитися дозволити переміщення даних між регіонами. Докладнішу інформацію можна знайти в статтях, перелічених у розділі Переміщення даних у різних географічних регіонах.

Що відбувається з моїми даними, коли я використовую Copilot?

Ви контролюєте використання своїх даних. Microsoft не передає ваші дані третій стороні, якщо ви не надали на це дозвіл. Крім того, ми не використовуємо ваші дані (дані клієнта) для навчання технології Copilot і її функцій ШІ, якщо ви не надали на це згоду. Copilot дотримується наявних дозволів і політик щодо даних і генерує для вас відповіді лише на основі даних, до яких ви особисто маєте доступ. Для отримання додаткової інформації про те, як ви можете керувати своїми даними та як обробляти їх, перегляньте статті, перелічені в розділі Copilot у програмах Dynamics 365 та Power Platform.

Copilot відстежує неналежне чи шкідливе використання служби без збереження даних. Ми не зберігаємо вхідні й вихідні дані Copilot і не перевіряємо їх для виявлення зловживань.

Як Copilot використовує мої дані?

Кожна служба або функція використовує Copilot на основі даних, які ви надали або налаштували для обробки системою Copilot.

Ваші запити (вхідні дані) і відповіді Copilot (вихідні дані або результати):

Дізнайтеся більше про конфіденційність і безпеку OpenAI даних служби Azure. Щоб дізнатися більше про те, як Microsoft захищати та використовувати ваші дані в цілому, прочитайте нашу Заяву про конфіденційність.

Куди передаються мої дані?

Microsoft працює на довірі. Ми прагнемо до безпеки, конфіденційності та відповідності вимогам в усьому, що робимо, і наш підхід до ШІ не відрізняється. Дані клієнтів, включаючи входи та виходи Copilot, зберігаються в Microsoft межах довіри до хмари.

У деяких сценаріях, таких як функції на базі Bing і сторонні плагіни Copilot, дані клієнтів можуть передаватися за межі Microsoft довіри хмари.

Чи може Copilot отримувати доступ до зашифрованого вмісту?

Copilot отримує дані на основі рівня доступу поточного користувача. Якщо користувач має доступ до зашифрованих даних у Dynamics 365 і Power Platform і дозволив їх використання в Copilot, то Copilot матиме до них доступ.

Як Copilot захищає дані клієнтів?

Microsoft має унікальні можливості для створення штучного інтелекту, готового до корпоративного використання. Copilot працює на базі служби Azure OpenAI та відповідає нашим зобов’язанням перед клієнтами щодо конфіденційності, безпеки та відповідності нормативним вимогам.

  • Побудований на Microsoft комплексному підході до безпеки, конфіденційності та відповідності. Copilot інтегрований у Microsoft такі служби, як Dynamics 365, і Power Platform успадковує їхні політики та процеси безпеки, конфіденційності та відповідності, такі як багатофакторна автентифікація та межі відповідності.

  • Різноманітні форми захисту захищають організаційні дані. Для шифрування корпоративного вмісту під час зберігання й передавання використовуються сервісні технології, що забезпечує надійний захист. З’єднання захищено за допомогою системи безпеки шарів транспорту (TLS), а передача даних між Dynamics 365 Power Platform та Azure OpenAI відбувається через магістральну мережу Microsoft , що забезпечує надійність і безпеку. Дізнайтеся більше про шифрування в хмарі Microsoft .

  • Розроблено для захисту ваших даних як на рівні клієнта, так і на рівні середовища. Ми знаємо, що клієнти турбуються через можливі витоки даних. Microsoft Моделі штучного інтелекту не навчаються на даних ваших клієнтів або ваших підказках, якщо ваш адміністратор не погодився ділитися з нами даними. У своїх середовищах ви можете керувати доступом да даних, налаштувавши необхідні дозволи. Механізми автентифікації й авторизації розподіляють запити до загальної моделі між осередками. Copilot застосовує виключно доступні вам дані, використовуючи ту саму технологію, яка вже довгі роки захищає дані наших клієнтів.

Чи завжди відповіді Copilot відповідають дійсності?

Як і у випадку з будь-яким генеративним штучним інтелектом, відповіді Copilot не є на 100% фактичними. Хоча ми продовжуємо вдосконалювати відповіді на запити стосовно фактів, ви все одно маєте покладатися на власний розсуд і перевіряти результати, перш ніж надсилати їх іншим особам. Copilot надає корисні чернетки та зведення, які допомагають вам устигати більше. Проте це повністю автоматична система. Ви завжди можете переглянути вміст, згенерований ШІ.

Наші команди працюють над проактивним вирішенням таких питань, як дезінформація та дезінформація, блокування контенту, безпека даних та просування шкідливого або дискримінаційного контенту відповідно до наших відповідальних принципів штучного інтелекту.

Крім того, ми пропонуємо інструкції в інтерфейсі, щоб сприяти відповідальному використанню пропонованих дій і вмісту, згенерованих ШІ.

  • Інструкції та підказки. Підказки та інші інформаційні елементи в Copilot нагадують про необхідність переглядати та редагувати відповіді, а також вручну перевіряти точність фактів, даних і тексту, перш ніж використовувати згенерований ШІ вміст.

  • Цитовані джерела. Якщо це доречно, Copilot посилається на свої джерела інформації (як відкриті, так і внутрішні): ви можете ознайомитися з ними самостійно й перевірити точність відповідей.

Додаткову інформацію див. в поширених запитання про відповідальний ШІ для свого продукту на сайті Microsoft Learn.

Як Copilot блокує шкідливий вміст?

Служба Azure OpenAI має систему фільтрування вмісту, яка працює разом з основними моделями. Моделі фільтрування спеціально навчено розпізнавати вміст у категоріях «Ненависть і справедливість», «Контент сексуального характеру», «Насильство» та «Заподіяння собі шкоди», а також протестовано різними мовами. Система фільтрування проганяє вхідний запит і відповіді через моделі класифікації, призначені для виявлення та блокування виведення небезпечного вмісту.

Під категорію «Ненависть і справедливість» підпадає вміст зі зневажливими або дискримінаційними висловлюваннями, пов’язаними з расовою, етнічною або національною приналежністю, гендерною ідентичність і гендерним самовираженням, сексуальною орієнтацією, релігією та розмірами тіла. Справедливість пов’язана з тим, щоб системи штучного інтелекту ставилися до всіх груп людей однаково, не сприяючи існуючій соціальній нерівності. Контент сексуального характеру включає обговорення репродуктивних органів людини, романтичні стосунки, дії, які зображуються в еротичних або ніжних виразах, вагітність, фізичні статеві акти, зокрема такі, що зображуються як напад або примусовий акт сексуального насильства, проституцію, порнографію та жорстоке поводження. Насильство – це мова, пов’язана з фізичними діями, спрямованими на заподіяння шкоди або вбивство, зокрема діями, зброєю та пов’язаними з ними сутностями. Самоушкодження – це навмисні дії, спрямовані на те, щоб поранити або вбити себе.

Дізнайтеся більше про фільтрування вмісту Azure OpenAI .

Чи блокує Copilot ін’єкції зловмисних запитів (джейлбрейк-атаки)?

Джейлбрейк-атаки – це підказки користувача, які призначені для того, щоб спровокувати генеративну модель штучного інтелекту поводитися так, як її навчили, не або порушувати правила, яких їй було сказано дотримуватися. Відповідно до наших вимог служби в Dynamics 365 і Power Platform має бути захищено від ін’єкцій зловмисних запитів. Дізнайтеся більше про джейлбрейк-атаки та про те, як використовувати Azure AI Content Safety для їх виявлення.

Чи блокує Copilot непрямі ін’єкції зловмисних запитів (непрямі атаки)?

Непрямі атаки, які також називають непрямими оперативними атаками або атаками міждоменних оперативних ін’єкцій, є потенційною вразливістю, коли треті сторони розміщують шкідливі інструкції всередині документів, до яких система генеративного штучного інтелекту може отримати доступ і обробляти. Відповідно до наших вимог служби в Dynamics 365 і Power Platform має бути захищено від непрямих ін’єкцій зловмисних запитів. Дізнайтеся більше про непрямі атаки та про те, як їх виявляти за допомогою Azure AI Content Safety.

Як тестувати Microsoft та підтверджувати якість Copilot, включаючи швидкий захист від упорскування та заземлені реакції?

Перед випуском на ринок кожен новий продукт Copilot і кожна ітерація мовної моделі проходять внутрішню перевірку на відповідність принципам відповідального використання ШІ. Ми також проводимо тестування за участю «червоних команд» (спеціалісти імітують зловмисну атаку та виявляють і використовують слабкі місця, щоб допомогти організації покращити свої механізми захисту) і оцінюємо потенційні ризики в сценаріях із небезпечним вмістом і джейлбрейк-атаками, а також релевантність відповідей. Після випуску ми використовуємо автоматизоване тестування, а також засоби ручного й автоматизованого оцінювання для визначення якості відповідей Copilot.

Microsoft Як можна вдосконалити базову модель і виміряти покращення в обґрунтованих відповідях?

У контексті штучного інтелекту, особливо штучного інтелекту, який має справу з мовними моделями, подібними до тієї, на якій базується Copilot, заземлення допомагає штучному інтелекту генерувати відповіді, які є більш релевантними та мають сенс у реальному світі. Така попередня підготовка гарантує, що ШІ-відповіді ґрунтуються на надійній інформації, максимально точні й релевантні. Показники релевантності відповіді дають змогу оцінити, наскільки точно факти, викладені в наданому моделі для попередньої підготовки вмісті, представлено в остаточній відповіді.

Для покращення базових моделей, як-от GPT-4, використовуються методики доповнення відповіді результатами пошуку (Retrieval Augmented Generation, RAG). Ці методики дають моделям змогу використовувати для розуміння сценарію користувача додаткову інформацію, а не лише ту, на основі якої їх навчено. Принцип роботи RAG полягає у визначенні даних, релевантних для сценарію. Це схоже на те, як пошукова система визначає сторінки, які відповідають пошуковому запиту користувача. Щоб визначити те, який вміст має відношення до запиту користувача й має використовуватися для попередньої підготовки відповіді, застосовується кілька підходів. Це, зокрема, пошук за різними типами індексів, наприклад інвертованими індексами з використанням таких прийомів видобування інформації, як зіставлення термінів, або векторними індексами з використанням порівнянь векторних відстаней для визначення семантичної подібності. Після виявлення релевантних документів технологія RAG передає моделі дані разом із поточною розмовою. Завдяки цьому модель отримує додатковий контекст для розуміння вже наявної в неї інформації та генерації релевантної відповіді. У кінці RAG перевіряє відповідь із погляду відповідності вихідному вмісту, наданому моделі. Функції генеративного ШІ Copilot застосовують RAG різними способами. Один із них — чат із даними, коли для попередньої підготовки відповіді чат-бота використовуються джерела даних клієнта.

Інший метод удосконалення базових моделей відомий як тонке налаштування. Базовій моделі надається великий набір даних типу «запит – відповідь», який доповнює інформацію, що використовувалася для її навчання, новими зразками, орієнтованими на конкретний сценарій. Потім цю модель можна розгорнути як окремий екземпляр, адаптований під цей сценарій. Попередня підготовка має на меті зробити вміст ШІ релевантнішим для реального світу, а тонке налаштування — специфічнішим для певного завдання або предметної галузі. Microsoft використовує тонке налаштування кількома способами. наприклад для створення циклів Power Automate за описами користувачів.

Чи відповідає Copilot нормативним вимогам?

Як частина екосистеми Dynamics 365 і Power Platform технологія Microsoft Copilot відповідає тим самим нормативним вимогам. Щоб отримати додаткові відомості про нормативну сертифікацію Microsoft послуг, перейдіть на Портал довіри до служби. Крім того, Copilot дотримується наших зобов’язань щодо відповідального штучного інтелекту, які втілюються в життя за допомогою нашого Стандарту відповідального штучного інтелекту. У міру того, як регулювання в області штучного інтелекту розвивається,продовжує Microsoft адаптуватися і реагувати на нові вимоги.

Дізнайтеся більше про доступність Dynamics 365 Power Platform і Copilot, розташування даних клієнтів і відповідність глобальним, регіональним і галузевим вимогам до керування даними.

Докладніше

Copilot у програмах Dynamics 365 і Power Platform

Продукт Функція Потрібно використовувати керовані середовища? Вимкнення функції
AI Builder Сценарії в підготовчі версії No Сценарії в підготовчі версії
Copilot Studio Загальні знання про штучний інтелект No Copilot Studio Безпека та врядування
Copilot Studio Створюйте та редагуйте теми за допомогою Copilot No Copilot Studio Безпека та врядування
Copilot Studio Генеративні дії No Copilot Studio Безпека та врядування
Copilot Studio Генеративні відповіді No Copilot Studio Безпека та врядування
Dynamics 365 Business Central Всі (Див. повний список на.) aka.ms/bcAI No Активація функцій
Dynamics 365 Customer Insights - Data Створюйте сегменти за допомогою Copilot для Customer Insights - Data (підготовча версія) Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Огляд звіту про підготовку даних (підготовча версія) Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Отримайте відповіді на запитання про можливості від Copilot (підготовча версія) Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights (дані) Ведіть діалог з даними за допомогою Copilot у Customer Insights Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Data Переглянути конфігурацію системи Ні Customer Insights - Data має власну позначку для всіх функцій Copilot на платформі служби Azure OpenAI.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot допомагає вчитися та робити більше (огляд) Ні Доступність цього помічника у вашому середовищі залежить від параметрів адміністратора Power Platform. Дізнайтеся, як додати Copilot для додатків на основі моделі.


Ця можливість є "співпілотом Customer Insights - Journeys програми", і саме тому вона ввімкнена в Power Platform центрі адміністрування. Детальніше: FAQ про відповідальний штучний інтелект
Dynamics 365 Customer Insights - Journeys Створюйте подорожі за допомогою штучного інтелекту Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Оновіть і вдосконаліть своє повідомлення Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Стилізуйте свої електронні листи за допомогою тем за допомогою штучного інтелекту Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Націлюйтеся на потрібних клієнтів за допомогою допомоги із запитами

Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Використовуйте штучний інтелект для створення електронних листів Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Використовуйте зображення у своєму контенті Ні Customer Insights - Journeys має власні позначки для функцій Copilot.

Детальніше: Дайте згоду на використання Copilot у Customer Insights - Journeys
Dynamics 365 Customer Service Створення електронного листа No Керуйте функціями Copilot у службі підтримки клієнтів
Dynamics 365 Customer Service Складіть відповідь у чаті No Керуйте функціями Copilot у службі підтримки клієнтів
Dynamics 365 Customer Service Відповідайте на запитання No Керуйте функціями Copilot у службі підтримки клієнтів
Dynamics 365 Customer Service Узагальніть кейс і бесіду No Керуйте функціями Copilot у службі підтримки клієнтів
Power Apps Створюйте додатки за допомогою розмови No Керування налаштуваннями функцій
Power Apps Допомога Copilot для заповнення форм у додатках на основі моделі Ні Керування налаштуваннями функцій
Power Apps Чернетка добре написаного, введеного тексту за допомогою Copilot Ні, ліцензія Premium на користувача Чернетка добре написаного, введеного тексту за допомогою Copilot
Power Apps Перетворення Excel в таблицю Ні Керування налаштуваннями функцій
Power Apps Використовуйте природну мову для редагування програми за допомогою панелі Copilot Ні Керування налаштуваннями функцій
Power Automate Copilot у хмарних потоках на головній сторінці та в конструкторі (докладніше див. Початок роботи з Copilot у хмарних потоках ). Ні Щоб запустити сценарій PowerShell, зверніться до служби підтримки.
Power Pages Усі (Детальніше див. Огляд Power Pages Copilot.) Ні Вимкніть Copilot у режимі Power Pages

Дізнайтеся більше в розділі FAQ про необов’язковий обмін даними для функцій Copilot AI у Dynamics 365 та Power Platform.

Регіональна доступність і підтримувані мови

Міжнародна доступність другого пілота

Переміщення даних між географічними регіонами

Безпека при Microsoft

Конфіденційність за адресою Microsoft

Microsoft Конфіденційність

Відповідальний ШІ