Вопросы и ответы о безопасности и конфиденциальности данных Copilot для Dynamics 365 и Power Platform

Функции Copilot for Dynamics 365 и Power Platform соответствуют набору базовых методик обеспечения безопасности и конфиденциальности, а также стандарту ответственного применения ИИ Microsoft. Данные Dynamics 365 и Power Platform защищены комплексом соответствующих передовым отраслевым стандартам механизмов обеспечения безопасности, конфиденциальности и соблюдения нормативных требований.

Система Copilot основана на Службе Microsoft Azure OpenAI и работает полностью в пределах облака Azure. Azure OpenAI обеспечивает региональную доступность и фильтрацию контента в соответствии с принципами ответственного применения ИИ. Система Copilot использует модели OpenAI со всеми возможностями обеспечения безопасности, существующими в Microsoft Azure. OpenAI — это независимая организация. Мы не передаем ваши данные OpenAI.

Функции Copilot доступны не на всех языках и не во всех географических регионах Azure. В зависимости от того, где размещена ваша среда, для их использования может потребоваться разрешить перемещение данных между регионами. Дополнительные сведения см. в статьях, перечисленных в разделе Перемещение данных между географическими регионами.

Что происходит с моими данными, когда я использую Copilot?

Вы контролируете свои данные. Microsoft не передает ваши данные третьим лицам, если вы не предоставили на это разрешение. Кроме того, мы не используем ваши данные (данные клиента) для обучения Copilot и входящих в состав Copilot функций ИИ, если вы не предоставили согласие на это. Copilot соблюдает существующие разрешения и политики в отношении данных, и ответы, которые Copilot для вас генерирует, основаны только на данных, к которым у вас лично есть доступ. Дополнительные сведения о том, как вы можете управлять своими данными и как они обрабатываются, см. в статьях, перечисленных в разделе Copilot в приложениях Dynamics 365 и Power Platform.

Мониторинг на предмет злоупотребления системой или ее вредоносного использования Copilot осуществляет без сохранения данных. Мы не храним входные и выходные данные Copilot и не подвергаем их проверке с участием человека в целях мониторинга на предмет злоупотреблений.

Как Copilot использует мои данные? 

Каждая служба или функция использует Copilot на основе данных, которые вы предоставили или настроили для обработки системой Copilot.

Ваши запросы (входные данные) и ответы Copilot (выходные данные или результаты):

  • НЕ доступны другим клиентам.

  • НЕ используются для обучения или улучшения каких-либо сторонних продуктов или служб (например, моделей OpenAI).

  • НЕ используются для обучения или улучшения моделей ИИ Microsoft, если администратор вашего клиента (администратора) не выразил согласие на передачу нам данных.

Узнайте больше о конфиденциальности и безопасности в Службе OpenAI Azure. Чтобы больше узнать о том, как Microsoft защищает и использует ваши данные в более широком случае, прочитайте наше заявление о конфиденциальности.

Куда идут мои данные?

Корпорация Microsoft работает на основе принципов доверия. Мы стремимся к безопасности, конфиденциальности и соблюдению норм во всем, что делаем, и к использованию ИИ подходим аналогичным образом. Данные клиента, включая входные и выходные данные Copilot, хранятся в пределах границы доверия Microsoft Cloud.

В некоторых сценариях, например при использовании функций на базе Bing и сторонних подключаемых модулей — помощников, данные могут передаваться за пределы границы соответствия Microsoft Cloud.

Может ли Copilot получать доступ к зашифрованному контенту?

То, какие данные предоставляются в распоряжение Copilot, зависит от уровня доступа текущего пользователя. Если у пользователя есть доступ к зашифрованным данным в Dynamics 365 и Power Platform и пользователь предоставляет их Copilot, Copilot сможет осуществлять к ним доступ.

Как Copilot защищает данные клиентов?

Корпорация Майкрософт занимает уникальное положение поставщика ИИ, готового к корпоративному использованию. Система Copilot работает на платформе Службы Azure OpenAI и соответствует нашим существующим обязательствам перед клиентами в отношении конфиденциальности, безопасности и соблюдения требований регуляторов.

  • Комплексный подход Microsoft к безопасности, конфиденциальности и нормативному соответствию. Система Copilot интегрирована в службы Microsoft, такие как Dynamics 365 и Power Platform, и наследует политики и процессы обеспечения безопасности, конфиденциальности и соответствия этих продуктов, например многофакторную проверку подлинности и границы соответствия.

  • Несколько видов защиты для обеспечения безопасности организационных данных. Для шифрования организационного контента при хранении и при передаче используются технологии на стороне службы, что представляет собой надежную меру безопасности. Защита подключений обеспечивается протоколом Transport Layer Security (TLS), а передача данных между Dynamics 365, Power Platform и Azure OpenAI происходит по магистральной сети Microsoft, что гарантирует как надежность, так и безопасность. Узнайте больше о шифровании в Microsoft Cloud.

  • Архитектура, направленная на защиту данных как на уровне клиента (арендатора), так и на уровне среды. Мы знаем, что одним из опасений наших клиентов являются потенциальные утечки данных. Модели ИИ Microsoft не обучаются и не учатся на данных в вашем клиенте (арендаторе) или на ваших запросах, если администратор вашего клиента (арендатора) не изъявил согласие на передачу нам данных. В пределах своих сред вы можете управлять доступом путем настройки разрешений. Механизмы проверки подлинности и авторизации обеспечивают сегрегацию запросов к общей модели между клиентами (арендаторами). Copilot использует данные, доступ к которым есть только у вас, на основе той же технологии, которую мы годами используем для защиты данных клиентов.

Всегда ли ответы Copilot содержат точные факты?

Как и в случае с любым генеративным ИИ, невозможно гарантировать, что ответы Copilot будут на 100 % точными. Несмотря на то что мы продолжаем совершенствовать ответы на запросы, требующие привязки к фактам, вы должны по-прежнему руководствоваться собственными суждениями и проверять результаты, прежде чем отправлять их другим людям. Copilot предоставляет полезные черновики и сводки, чтобы помочь вам успевать больше, но это полностью автоматическая система. У вас всегда есть возможность проверить сгенерированный ИИ контент.

Наши специалисты работают над предупреждением таких проблем, как недостоверная информация и дезинформация, блокировка контента, нарушение безопасности данных, а также распространение опасного или дискриминационного контента, в соответствии с нашими принципами ответственного применения ИИ.

Кроме того, в пользовательском интерфейсе предусмотрены информационные элементы, помогающие пользователям ответственно использовать генерируемый ИИ контент и предлагаемые действия.

  • Инструкции и подсказки. Когда вы используете Copilot, подсказки и другие инструктивные элементы напоминают вам о необходимости просматривать и редактировать ответы, а также вручную проверять факты, данные и текст на предмет точности, прежде чем использовать сгенерированный ИИ контент.

  • Цитируемые источники. Когда это возможно, Copilot цитирует свои источники информации — как открытые, так и внутренние — так что вы можете ознакомиться с ними самостоятельно, чтобы проверить точность ответов Copilot.

Дополнительные сведения см. в вопросах и ответах об ответственном применении ИИ для своего продукта на Microsoft Learn.

Блокирует ли Copilot внедрение запросов (джейлбрейк-атак)?

Джейлбрейк-атаки — это запросы пользователя, предназначенные для провоцирования модели генеративного ИИ на поведение, которого она была обучена избегать, или на нарушение установленных для нее правил. Реализация защиты от внедрения запросов является обязательной для всех служб в Dynamics 365 и Power Platform. Узнайте больше о джейлбрейк-атаках и о том, как использовать Безопасность содержимого ИИ Azure для их обнаружения.

Как Microsoft тестирует и проверяет качество Copilot, включая защиту от внедрения запросов и обоснованность ответов?

Каждый новый продукт Copilot и каждая итерации языковой модели должны пройти внутреннюю проверку на соответствие принципам ответственного применения ИИ, прежде чем они будут выпущены на рынок. Перед выпуском мы проводим процедуру с участием "красных команд" (команд, симулирующих атаку противника с выявлением и использованием слабых мест, чтобы помочь организации улучшить свои механизмы защиты) для оценки потенциальных рисков в сценариях с опасным контентом, джейлбрейком и обоснованностью ответов. После выпуска мы используем автоматизированное тестирование, а также средства ручной и автоматизированной оценки для определения качества ответов Copilot.

Как Microsoft совершенствует базовую модель и измеряет улучшения в плане обоснованности ответов?

В контексте ИИ, в особенности ИИ на основе языковых моделей вроде той, на базе которой работает Copilot, обоснование помогает ИИ генерировать ответы, которые являются более релевантными и имеют смысл в реальном мире. Обоснование помогает гарантировать, что ответы ИИ основаны на надежной информации и являются максимально точными и релевантными. Метрики обоснования ответов позволяют оценить, насколько точно факты, изложенные в предоставленном модели для заземления контенте, представлены в окончательном ответе.

Для улучшения базовых моделей, таких как GPT-4, используются методики дополнения ответа результатами поиска (Retrieval Augmented Generation, RAG). Эти методики позволяют моделям использовать для понимания сценария пользователя дополнительную информацию помимо той, которая использовалась для обучения модели. Принцип работы RAG заключается в определении данных, релевантных для сценария, аналогично тому, как поисковая система определяет веб-страницы, имеющие отношение к словам в поисковом запросе пользователя. Для определения того, какой контент имеет отношение к запросу пользователя и должен использоваться для обоснования ответа, применяется несколько подходов. Эти подходы включают поиск по различным типам индексов, например инвертированным индексам, с использованием таких приемов извлечения информации, как сопоставление терминов, или векторным индексам с использованием сравнения векторных расстояний для определения семантического сходства. После выявления релевантных документов RAG передает данные модели вместе с текущим разговором, предоставляя модели дополнительный контекст для понимания уже имеющейся у нее информации и генерации ответа, обоснованного с точки зрения происходящего в реальном мире. Наконец, RAG проверяет ответ, чтобы убедиться, что он соответствует исходному предоставленному модели контенту. Функции генеративного ИИ Copilot предполагают несколько способов использования RAG. Одним из примеров является чат с данными, когда для обоснования ответов чат-бота используются собственные источники данных клиента.

Другая методика улучшения базовых моделей называется тонкой настройкой. Большой набор данных, состоящий из пар "запрос-ответ", предоставляется базовой модели с целью дополнения изначально использовавшихся для ее обучения материалов новыми образцами, ориентированными на конкретный сценарий. Такую модель затем можно развернуть в качестве отдельной модели, тонко настроенной под этот сценарий. В то время как обоснование имеет своей целью сделать знания ИИ релевантными для реального мира, назначение тонкой настройки — сделать знания ИИ более специфическими применительно к определенной задачи или предметной области. Microsoft использует тонкую настройку несколькими способами. Например, мы используем создание потоков Power Automate по описаниям на естественном языке, предоставляемым пользователями.

Как Copilot блокирует опасный контент?

Служба Azure OpenAI включает в себя систему фильтрации контента, которая работает в связке с базовыми моделями. Модели фильтрации контента были обучены специально для распознавания формулировок, подпадающих под категории "Ненависть и справедливость", "Контент сексуального характера", "Насилие" и "Причинение себе вреда", и протестированы на различных языках. Система работает путем прогона как входного запроса, так и ответа через модели классификации, предназначенные для выявления и блокирования вывода опасного контента.

Под опасным контентом категории "Ненависть и справедливость" понимается любой контент, в котором присутствуют уничижительные или дискриминационные высказывания на основе таких атрибутов, как расовая, этническая или национальная принадлежность, гендерная идентичность и гендерное самовыражение, сексуальная ориентация, религия, иммиграционный статус, инвалидность, внешность и размеры тела. Под справедливостью понимается обеспечение того, чтобы системы ИИ относились ко всем группам людей справедливо, не способствуя существующему социальному неравенству. Контент сексуального характера включает в себя упоминание репродуктивных органов человека; романтических отношений; действий, описываемых в эротических терминах; беременности; физических сексуальных актов, включая те, которые изображаются как надругательство или принудительные акты сексуального насилия; проституции; порнографии, а также жестокого обращения. Под насилием понимаются высказывания, связанные с физическими действиями, направленными на причинение вреда или убийства, включая действия, оружие и связанные с ними сущности. Категория "Причинение себе вреда" предполагает упоминание намеренных действий, направленных на нанесение себе увечий или самоубийство.

Узнайте больше о фильтрации контента Azure OpenAI.

Соответствует ли Copilot нормативным требованиям?

Microsoft Copilot является частью экосистемы Dynamics 365 и Power Platform и удовлетворяет тем же требованиям в отношении нормативного соответствия. Дополнительные сведения о сертификации служб Microsoft на предмет соответствия нормативным требованиям можно найти на Service Trust Portal. Кроме того, Copilot соответствует нашим обязательствам в отношении ответственного применения ИИ, осуществляемым на практике посредством нашего Стандарта ответственного применения ИИ. По мере развития регулирования в сфере ИИ Microsoft будет продолжать адаптировать свои технологии к новым требованиям.

Узнайте больше о доступности Dynamics 365, Power Platform и Copilot, расположениях данных клиентов, а также о соответствии глобальным, региональным и отраслевым требованиям к управлению данными.

Подробнее...

Copilot в приложениях Dynamics 365 и Power Platform

Товар Функция Требуются ли управляемые среды? Как отключить функцию
AI Builder Предварительные версии функций нет Предварительные версии функций
Dynamics 365 Customer Insights - Data Создание сегментов с помощью Copilot для Customer Insights - Data (предварительная версия) нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Обзор отчета о подготовке данных (предварительная версия) нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Получение ответов на вопросы о возможностях из Copilot (предварительная версия) нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights (данные) Ведение диалога с данными с помощью Copilot в Customer Insights нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Data Просмотр конфигурации системы нет У Customer Insights - Data свой собственный флаг для всех используемых в этой продукте функций Copilot на базе Azure OpenAI.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Как Copilot помогает вам учиться и успевать больше (обзор) нет Доступность данного помощника в вашей среде определяется параметрами администрирования Power Platform. Узнайте, как добавить Copilot для приложений на основе моделей.


Эта возможность является "помощником приложения в Customer Insights - Journeys" и поэтому включается в центре администрирования Power Platform. Подробнее: Вопросы и ответы об ответственном применении ИИ
Dynamics 365 Customer Insights - Journeys Создание циклов взаимодействия с помощью ИИ нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Обновление и совершенствование сообщения нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Стилизация сообщений электронной почты с помощью предлагаемых ИИ тем нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Нацеливание на правильных клиентов путем создания запроса с помощью ИИ

нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Использование ИИ для составления сообщений электронной почты нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Использование изображений в содержимом нет У Customer Insights - Journeys свои собственные флаги для функций Copilot.

Подробнее: Предоставление согласия на использование Copilot в Customer Insights - Journeys
Power Apps Создание приложений с помощью разговора нет Управление параметрами функций
Power Apps Помощь Copilot при заполнении форм в приложениях на основе модели нет Управление параметрами функций
Power Apps Написание грамотного входного текста с помощью Copilot Нет, премиум-лицензия у пользователя Написание грамотного входного текста с помощью Copilot
Power Apps Преобразование данных Excel в таблицы нет Управление параметрами функций
Power Apps Использование естественного языка для редактирования приложения с помощью панели Copilot нет Управление параметрами функций
Power Automate Copilot в облачных потоках на домашней странице и в конструкторе (Подробнее см. в статье Начало работы с Copilot в облачных потоках.) нет Обратитесь в службу поддержки для запуска скрипта PowerShell.
Power Pages Все (Подробнее см. в обзоре Copilot в Power Pages.) нет Отключить Copilot в Power Pages

Доступность по регионам и поддерживаемые языки

Международная доступность Copilot

Перемещение данных между географическими регионами

Безопасность в Microsoft

Конфиденциальность в Microsoft

Заявление о конфиденциальности Microsoft

Ответственный ИИ